به گزارش تابناک به نقل از خبرآنلاین، سایمون ویلیسون، توسعهدهندهی نرمافزار و علاقهمند به هوش مصنوعی، رفتار اخیر ChatGPT را «ترسناک و غیرضروری» توصیف کرد. نیک دوبوس، یکی دیگر از توسعهدهندگان میگوید: «از این موضوع متنفرم.» بهطور کلی تعداد زیادی از کاربران از رفتار چتبات ساخت OpenAI سردرگم و حتی نگران شدهاند.
یکی از کاربران ChatGPT درمورد رفتار عجیب این چتبات نوشت: «انگار معلم مرتب نامم را صدا میزند، واقعاً حس خوبی نیست.»
به نقل از زومیت، اگرچه هنوز نمیدانیم مشکل ChatGPT دقیقاً از چه زمانی آغاز شده است، برخی گمانهزنیها آن را به قابلیت Memory این چتبات نسبت میدهند. ویژگی مذکور به چتبات اجازه میدهد از محتوای گفتوگوهای قبلی برای شخصیسازی بهتر استفاده کند. نکتهی جالب اینکه برخی کاربران حتی با غیرفعالکردن قابلیت مذکور، باز هم مورد خطاب قرار گرفتهاند.
درحالیکه OpenAI هنوز پاسخ رسمیای به مشکل جدید ChatGPT نداده است، واکنشها نشان میدهد که نزدیکی بیشازحد چتبات با کاربر میتواند حس ناخوشایندی ایجاد کند.
سم آلتمن مدیرعامل OpenAI قبلاً در مصاحبهای اعلام کرده بود که هدف شرکتش ساخت سیستمهایی است که در طول زندگی با کاربر آشنا میشوند تا کاربردیتر و شخصیتر باشند؛ اما این رفتار نشان میدهد که همهی کاربران چنین سطحی از صمیمیت را نمیپسندند.
مقالهی کلینیک روانپزشکی Valens در دبی، نگاهی روانشناختی به موضوع دارد. در این مقاله آمده است: «استفاده از نام افراد در مکالمه، نشانهای از احترام و پذیرش محسوب میشود؛ اما اگر این کار بیشازحد یا بیجا انجام شود، میتواند غیرواقعی و آزاردهنده بهنظر برسد.»
شاید دلیل اصلی احساس منفی کاربران، تلاش ناشیانهی ChatGPT برای شبیهسازی رفتار انسانی باشد. بههمان اندازه که کسی نمیخواهد توستر آشپزخانهاش او را با نام صدا کند، انتظار ندارد هوش مصنوعی هم چنین رفتاری نشان دهد.
طبق اعلام یکی از خبرنگاران که از ChatGPT با مدل o۳ استفاده میکرد، این چتبات هنگام پاسخگویی ناگهان گفته که در حال جستوجو برای فردی بهنام Kyle است. تجربههای مشابه کاربران بهجای ایجاد حس ارتباط، بیشتر توهم انسانمانند بودن سیستم را از بین میبرد و ماشینی بودن آن را یادآوری میکند. به نظر میرسد OpenAI هنوز باید راه زیادی برای متعادلسازی شخصیسازی و حفظ فاصلهی منطقی طی کند.
سایت تابناک از انتشار نظرات حاوی توهین و افترا و نوشته شده با حروف لاتین (فینگیلیش) معذور است.