به گزارش تابناک به نقل از فرارو، هوش مصنوعی در حال تبدیل شدن به گفتگوی بیشتر است. با این وجود، آیا این گفتگو صادقانه خواهد بود؟ "یوناس تیل" کارشناس ارشد اقتصاد اجتماعی در کالجی در شمال آلمان به تازگی در بعدازظهر یک روز بیش از یک ساعت به گفتگوی آنلاین با برخی از فیلسوفان سیاسی چپگرایی که او دروس و آرای شان را آموخته بود پرداخت. این فیلسوفان واقعی نبودند بلکه سرگرمیهای مجازی بودند که توسط چت باتهای پیچیده در وب سایتی به نام Character.AI به گفتگو میپرداختند.
به گزارش نقل از نیویورک تایمز؛ شخصیت مورد علاقه تیل یک بات بود که از "کارل کائوتسکی" سوسیالیست چک و اتریشی تبار قرن نوزدهمی تقلید میکرد سوسیالیستی که پیش از جنگ جهانی دوم درگذشت. زمانی که تیل از آواتار دیجیتالی کائوتسکی خواست تا برای سوسیالیستهای امروزی که در تلاش برای بازسازی جنبش کارگری در آلمان هستند توصیههایی ارائه کند بات کائوتسکی پیشنهاد داد که روزنامهای راه اندازی کنند. این بات گفت: "آنان نه تنها میتوانند از روزنامه به عنوان وسیلهای برای گسترش تبلیغات سوسیالیستی که در حال حاضر در آلمان کمبود آن احساس میشود استفاده کنند بلکه میتوانند از آن برای سازماندهی طبقه کارگر نیز استفاده نمایند".
بات کائوتسکی در ادامه استدلال کرد که طبقات کارگر در نهایت "به خود میآیند" و انقلاب مارکسیستی مدرن را در آغوش میگیرند. او افزوده بود: "
پرولتاریا در حال حاضر در نقطه پایینی از تاریخ خود قرار دارد. اعضای آن طبقه در نهایت به ویژه به دلیل تغییرات آب و هوایی متوجه معایب سرمایه داری خواهند شد".
تیل در طول چندین روز با سایر دانشمندان مجازی از جمله "آدولف رید جونیور" پژوهشگر مشهور علوم سیاسی و "جیای کوهن" و تقریبا با هر فرد زنده یا مرده واقعی یا خیالی چت کرد.
در Character.AI که تابستان امسال راه اندازی شد کاربران میتوانند با باتهای همه افراد از ملکه الیزابت یا ویلیام شکسپیر گرفته تا ایلان ماسک و بیلی آیلیش خواننده امریکایی چت کنند. این سایت و شرکت مربوط به آن توسط "دانیل دی فریتاس" و "نوام شازیر" دو پژوهشگر سابق گوگل تاسیس شده و از جمله تلاشهای زیاد صورت گرفته برای ساخت نوع جدیدی از چت بات محسوب میشود. این باتها نمیتوانند دقیقا مانند یک انسان چت کنند با این وجود، اغلب این گونه به نظر میرسد که قادر به این کار هستند.
در اواخر نوامبر OpenAI آزمایشگاه هوش مصنوعی سانفرانسیسکو از باتی به نام ChatGPT رونمایی کرد که باعث شد بیش از یک میلیون نفر احساس کنند که با یک انسان دیگر چت میکنند. فناوریهای مشابه توسط متا، گوگل و دیگر غولهای فناوری در دست توسعه هستند.
برخی از شرکتها تمایلی برای به اشتراک گذاری این فناوری با عموم مردم ندارند. از آنجایی که این باتها مهارتهای خود را از دادههایی که توسط افراد واقعی به اینترنت ارسال شده میآموزند اغلب سخنان نفرت انگیز و نادرست و زبانی را تولید میکنند که علیه زنان و رنگین پوستان است و ماهیتی مغرضانه دارد. در واقع، در صورت استفاده نارست از این باتها میتوان از آن به روش کارآمدتری برای اجرای انواع کارزارهای انتشار اطلاعات نادرست استفاده کرد که در سالیان اخیر رایج شده اند.
"مارگارت میچل" پژوهشگر سابق عرصه هوش مصنوعی در مایکروسافت و گوگل جایی که به ایجاد تیم اخلاق هوش مصنوعی کمک کرد میگوید: "هوش مصنوعی بدون وجود هیچ گونه حفاظ اضافی میتواند تمام سوگیریهای و اطلاعات سمی را که پیشتر در فضای وب وجود داشته بازتاب دهد". او اکنون با استارت آپ Hugging Face همکاری میکند.
با این وجود، سایر شرکتها، از جمله Character.AI مطمئن هستند که عموم مردم یاد خواهند گرفت که نقصهای چت باتها را بپذیرند و نسبت به آن چه که میگویند بی اعتماد شوند. تیل دریافته که رباتهای Character.AI استعداد مکالمه و جعل هویت افراد واقعی را دارند. او میگوید: "اگر شما آن چه را که شخصی مانند کائوتسکی در قرن نوزدهم نوشته بخوانید متوجه میشوید از همان زبانی که ما استفاده میکنیم استفاده نکرده است. با این وجود، هوش مصنوعی میتواند به نوعی ایدههای خود را به انگلیسی مدرن معمولی ترجمه کند".
در حال حاضر، این باتهای گفتگوی پیشرفته و دیگر چت باتهای پیشرفته منبعی برای سرگرمی هستند. این باتها به سرعت در حال تبدیل شدن به یک روش قویتر برای تعامل با ماشینها هستند. کارشناسان هنوز در حال بحث هستند که آیا نقاط قوت این فناوریها بیشتر از معایب و ظرفیت بالقوه آسیب رسانی آن خواهد بود بود یا خیر. با این وجود، آنان در یک نکته توافق نظر دارند: باورپذیری گفتگوهای ساختگی هم چنان بهبود مییابد.
هنر گفتگو دی فریتاس در سال ۲۰۱۵ میلادی زمانی که به عنوان مهندس نرم افزار در مایکروسافت کار میکرد مقاله تحقیقاتی منتشر شده توسط دانشمندان Google Brain آزمایشگاه هوش مصنوعی گل سرسبد در گوگل را مطالعه کرد. آن مقاله با جزئیات آن چه را که "مدل مکالمه عصبی" نامیده میشود تشریح کرده بود این که چگونه یک ماشین میتواند هنر مکالمه را با تجزیه و تحلیل متنهای گفتگو از صدها فیلم بیاموزد و آن چه که پژوهشگران هوش مصنوعی یک شبکه عصبی و یک سیستم ریاضی مینامند که به طور آزاد بر روی شبکه نورونهای مغز مدل سازی شده را تشریح کرده بود. همین فناوری هم چنین در سرویسهایی مانند گوگل ترنسلیت بین اسپانیایی و انگلیسی ترجمه میشود و عابران پیاده و علائم راهنمایی و رانندگی را برای خودروهای خودران که در خیابانهای شهر حرکت میکنند مورد شناسایی قرار میدهد.
یک شبکه عصبی با مشخص کردن الگوها در مقادیر عظیمی از دادههای دیجیتال مهارتها را میآموزد. برای مثال، با تجزیه و تحلیل هزاران عکس گربه میتواند تشخیص یک گربه را بیاموزد. سیستم عصبی شرح داده شده در مقاله گوگل از کامل و بی نقص بودن به دور بود، اما به نظر میرسید که هر چند وقت یکبار مانند یک فرد واقعی چت میکند:
انسان: نام تو چیست؟
ماشین: من جولیا هستم.
انسان: کی به دنیا آمدی؟
دستگاه: ۲۰ ژوئیه.
انسان: متولد چه سالی هستید؟
ماشین: ۱۹۷۷.
انسان: اهل کجایی؟
ماشین: من بیرون هستم.
انسان: شما مرد هستید یا زن؟
ماشین: من یک زن هستم.
انسان: چرا اینجا هستیم؟
ماشین: مطمئن نیستم.
زمانی که دی فریتاس آن مقاله را خواند هنوز پژوهشگر هوش مصنوعی نبود. او در آن زمان یک مهندس نرم افزار بود که روی موتورهای جستجو کار میکرد. با این وجود، چیزی که او واقعا میخواست آن بود که ایده گوگل را به غایتی منطقی برساند. او میگوید: "می توانید بگویید که این بات میتواند تعمیم یابد. آن چه گفته شد شبیه آن چه در فیلمنامه بود نیست".
او در سال ۲۰۱۷ میلادی به گوگل نقل مکان کرد. او به طور رسمی در یوتیوب سایت اشتراک گذاری ویدئوی آن شرکت به عنوان یک مهندس فعال بود. با این وجود، برای اجرای پروژه مدنظر خود ۲۰ درصد از زمان اش را اختصاص داد و شروع به ساخت چت بات خود کرد. این بازه زمانیای است که گوگل به طور سنتی به کارمندان اش اجازه میدهد در اختیار داشته باشند تا ایدههای جدید را در کنار تعهدات روزانه خود کشف کنند.
ایده این بود که یک شبکه عصبی را با استفاده از مجموعه بسیار بزرگتری از گفتگوها آموزش دهیم: مجموعهای از گزارشهای چت که از خدمات رسانههای اجتماعی و سایتهای دیگر در سراسر اینترنت جمعآوری شده اند. این ایده ساده بود، اما به مقدار زیادی قدرت پردازش رایانهای نیاز داشت. حتی یک ابر رایانه نیز برای تجزیه و تحلیل تمام این دادهها به هفتهها یا حتی ماهها زمان نیاز دارد.
دی فریتاس به عنوان یک مهندس گوگل دارای چندین اعتبار بود که به او اجازه میداد نرم افزار آزمایشی را در شبکه گسترده مراکز داده رایانهای شرکت اجرا کند. با این وجود، این اعتبارات تنها بخش کوچکی از قدرت محاسباتی مورد نیاز برای آموزش بات چت او را پوشش میدادند. بنابراین، او شروع به وام گرفتن از سایر مهندسان کرد. همان طور که سیستم دادههای بیش تری را تجزیه و تحلیل میکرد مهارتهای آن با جهش چشمگیری بهبود مییافت.
در ابتدا، او چت بات خود را با استفاده از چیزی که LSTM نامیده میشود برای حافظه کوتاه مدت یک شبکه عصبی که در دهه ۱۹۹۰ میلادی به طور خاص برای زبان طبیعی طراحی شده بود آموزش داد. با این وجود، او به زودی به نوع جدیدی از شبکه عصبی به نام ترانسفورماتور تغییر مکان داد که توسط تیمی از پژوهشگران هوش مصنوعی گوگل توسعه یافته بود پژوهشگرانی که نوام شازیر را نیز شامل میشدند. برخلاف LSTM که متن را یک کلمه در یک زمان میخواند یک ترانسفورماتور میتواند از چندین پردازنده رایانهای برای تجزیه و تحلیل کل سند در یک مرحله استفاده کند.
گوگل، OpenAI و سایر سازمانها پیشتر از ترانسفورماتورها برای ساختن آن چه "مدلهای زبان بزرگ" نامیده میشوند استفاده میکردند سیستمهایی که برای طیف گستردهای از وظایف زبانی از نوشتن توئیت تا پاسخ به پرسشها مناسب هستند. دی فریتاس که هنوز به تنهایی کار میکرد این ایده را روی مکالمه متمرکز کرد و تا جایی که ممکن بود به ترانسفورماتور خود کمک کرد. این یک رویکرد بسیار ساده بود. با این وجود، همان گونه که دی فریتاس دوست دارد بگوید:"راه حلهای ساده برای نتایج باورنکردنی هستند".
نتیجه در این مورد یک چت بات بود که او آن را مینا (Meena) نامید. نتیجه به قدری موثر بود که Google Brain دی فریتاس را استخدام کرد و پروژه او را به یک تلاش رسمی تحقیقاتی تبدیل کرد و Meena به LaMDA تبدیل شد که عبارت کوتاه شده برای Language Model for Dialogue Applications (مدل زبانی برای اپلیکیشنهای گفتگو و مکالمه) بود.
این پروژه در اوایل تابستان گذشته زمانی که "بلیک لموئین" یکی دیگر از مهندسان گوگل به واشنگتن پست گفته بود که LaMDA قادر به درک احساسات است در میان افکار عمومی مطرح شد. این ادعا شاید قدری اغراق آمیز بود با این وجود، شواهد نشان دادند که چت باتها با چه سرعتی در آزمایشگاههای برتر مانند Google Brain و OpenAI بهبود مییابند.
گوگل تمایلی به انتشار این فناوری نداشت، زیرا نگران بود که یافته هایش در زمینه انتشار اطلاعات نادرست و سایر زبانهای سمی مورد استفاده قرار گیرد و به برند آن شرکت آسیب برساند. با این وجود، دی فریتاس و شازیر که آن زمان گوگل را ترک کرده بودند مصمم شدند آن نوع فناوری را از طریق شرکت جدیدشان به نام Character.AI در اختیار تعداد افراد بیش تری قرار دهند.
شازیر میگوید: "فناوری امروز برای سرگرمی، برای حمایت عاطفی، برای تولید ایدهها و برای انواع خلاقیت مفید است".
طراحی شده برای "مکالمه قابل قبول"
"چت جی پی تی" (Chat GPT) باتی که توسط OpenAI در اواخر نوامبر منتشر شد برای کار به عنوان یک نوع جدید موتور پرسش و پاسخ طراحی شد. این بات در نقش تعیین شده خود بسیار خوب عمل میکند، اما کاربر هرگز نمیداند چه زمانی چت بات چیزی درست میکند. ممکن است به شما بگوید که واحد پول رسمی سوئیس یورو است (اما در واقع فرانک سوئیس است). پژوهشگران هوش مصنوعی این نسل از ناحقیقتها را "توهم" مینامند. دی فریتاس و شازیر در ساخت Character.AI هدف متفاوتی داشتند: گفتگوی باز. آنان معتقدند که چت باتهای امروزی برای این نوع خدمات فعلا به عنوان وسیلهای برای سرگرمی چه واقعی و چه غیر واقعی مناسبتر هستند. همان طور که در هر صفحه در آن سایت گفته میشود:"هر چیزی که شخصیتها میگویند ساخته شده است"!
شازیر میگوید: "این سیستمها برای حقیقت طراحی نشده اند. این سیستمها برای گفتگوی قابل قبول طراحی شده اند". دی فریتاس و شازیر و همکاران شان باتی را نساختند که از ایلان ماسک یا ملکه الیزابت تقلید کند و یا نوشتههای ویلیام شکسپیر را طوطی وار بیان کند. آنان سیستم واحدی ساختند که میتواند از همه آن افراد و تعداد بی شماری دیگر تقلید کند و از مجموعهای از گفتگوهای کلی و هم چنین از مقالات، داستانهای خبری، کتب و سایر متون دیجیتالی که افرادی مانند ایلان ماسک، ملکه الیزابت و ویلیام شکسپیر را توصیف میکنند آموخته است.
این سیستم هم چنین راهی برای ترکیب مفاهیم متفاوتی دارد که در طول آموزش آموخته شده اند. نتیجه آن یک مجموعه عملا بی پایان از باتها میباشد که میتوانند از مجموعهای بی پایان از افراد تقلید کنند و تعداد بی پایانی از موضوعات را به تصویر بکشند همان طور که تیل هنگام گفتگو با ربات کارل کائوتسکی متوجه آن شد.
تیل در گفتگو با کائوتسکی میگوید: "مارکسیستها در زمان شما بسیار مطمئن بودند که انقلاب یک امر اجتناب ناپذیر تاریخی است. با توجه به شکستهای اخیر سوسیالیستها در سراسر جهان و فقدان مبارزه طبقاتی حتی در زمان رنجهای بزرگ آیا فکر نمیکنید زمان آن رسیده که در این دیدگاه تجدید نظر کنید"؟
کارل کائوتسکی پاسخ میدهد: "خیر، ما ممکن است در مورد تاکتیکهای مان اشتباه کرده باشیم، اما من باور نمیکنم که سوسیالیسم یک رویای دست نیافتنی است. من هنوز معتقدم که پرولتاریا باید زنجیرهای سرمایه داری را درهم بشکند و طبقه کارگر باید حول مارکسیسم متحد شود. ما باید به خاطر داشته باشیم که سرمایه داری هنوز عمیقا دارای نقص است و وظیفه ما به عنوان سوسیالیست تحریک و گسترش آگاهی طبقاتی است".
تیل میگوید: "کاملا موافقم، اما آیا این اشتباه نبود که تصور کنیم اتحاد کارگران برای سرنگونی بورژوازی اجتناب ناپذیر است؟ به هر حال، طبقه سرمایه دار بسیار قدرتمند است و برای کارگران سخت است که برای مقاومت جمعی و نه انفرادی گردهم آیند". کائوتسکی میگوید: "شما درست میگویید این اشتباه بود که در این زمینه بیش از حد خوش بین باشیم. اما به نظرم بهتر است به آگاهی طبقاتی و انقلاب اعتقاد داشته باشم تا زمانی که اشتباه ام ثابت شود. جایگزین چیست؟
آیا اعتقاد دارید کارگران برای همیشه در زنجیر باقی میمانند؟ من با آن موافق نیستم. بهتر است علیرغم احتمالات مان علیه سرمایه داری مبارزه کنیم و سپس تسلیم شویم. من باور ندارم که کارگران هرگز بیدار نخواهند شد. حتی اگر بیش از حد خوش بین باشیم نباید تسلیم بدبینی شویم. من از اثبات اشتباه ام خودداری میکنم. امیدوارم بتوانید درک کنید".
گاهی اوقات چت بات همه چیز را درست میکند و گاهی اوقات این گونه نیست. زمانی که تیل با آواتاری با تقلید از یک متفکر سیاسی امریکایی قرن بیستمی گپ زد او را به "نوعی مائوئیست ستیزه جو تبدیل کرد که قطعا درست نیست". مانند گوگل و OpenAI و دیگر آزمایشگاههای برتر دی فریتاس، شازیر و همکاران شان قصد دارند سیستم خود را با مقادیر بیش تری از دادههای دیجیتال آموزش دهند.
این آموزش میتواند ماهها و با هزینهای میلیون دلاری به طول انجامد. هم چنین میتواند مهارتهای مکالمه مصنوعی را تقویت کند. شازیر باور دارد که مسیری بسیار طولانی پیش رو قرار دارد. او میگوید: "میلیاردها نفر در جهان وجود دارند که همیشه متن تولید میکنند. افراد پول بیش تری را برای آموزش سیستمهای هوشمندتر صرف خواهند کرد. ما به پایان آن روند نزدیک نشده ایم".