مدلهای زبانی اشتباه میکنند، زیرا دادههایی که براساس آن آموزش دیده اند اغلب شامل خطا میشوند به این دلیل که مدلها هیچ حقیقتی برای تایید آن چه میگویند ندارند. طراحان آن مدلها هم چنین ممکن است تسلط را بر دقت در اولویت قرار دهند. این یکی از دلایلی است که نشان میدهد چرا این ابزارها در تقلید همدلی فوق العاده خوب هستند.
فرارو- در اوایل سال جاری "آرویند نارایانان" پروفسور علوم رایانه یک رابط صوتی برای دختر تقریبا چهار ساله خود برای Chat GPT راه اندازی کرد. این تا حدی یک آزمایش بود و تا حدودی به این دلیل که او معتقد بود روزی هوش مصنوعی بخش بزرگی از زندگی دخترش خواهد بود.
به گزارش فرارو به نقل از بلومبرگ، دختر نارایانان به طور طبیعی کنجکاو بود و اغلب در مورد حیوانات، گیاهان و بدن انسان سوالاتی میپرسید و او فکر میکرد که Chat GPT میتواند به پرسشهای او پاسخهای مفیدی بدهد. در کمال تعجب، چت بات توسعه یافته توسط Open AI نیز کار بی عیب و نقصی در نشان دادن همدلی انجام داد زمانی که او به سیستم گفت که با یک کودک کوچک صحبت میکند. دخترش پرسید:"زمانی که چراغها خاموش میشوند چه رخ میدهد"؟
چت جی پی تی از طریق صدای مصنوعی پاسخ داد:"زمانی که چراغها خاموش میشوند هوا تاریک میشود و این موضوع میتواند قدری ترسناک باشد". صدای مصنوعی افزود:"با این وجود، نگران نباشید! کارهای زیادی وجود دارد که میتوانید انجام دهید تا در تاریکی احساس امنیت و راحتی کنید".
سپس توصیههایی در مورد استفاده از چراغهای شب ارائه کرد و با یادآوری این نکته به صحبت خود پایان داد:"طبیعی است که در تاریکی کمی احساس ترس کنیم". او در یک پست Substack نوشت که آن دختر بچه با این توضیح به وضوح اطمینان خاطر حاصل کرد.
شرکت مایکروسافت در رقابت با شرکت آلفابت عجله دارد تا موتورهای جستجوی خود را با فناوری مدل زبانی بزرگ که زیربنای چت جی پی تی است تقویت کند، اما دلیل خوبی وجود دارد که فکر کنیم این فناوری به عنوان یک همراه عاطفی بهتر از ارائه دهنده حقایق عمل میکند.
ممکن است عجیب به نظر برسد، اما عجیبتر این است که "بارد" گوگل و "بینگ" مایکروسافت که مبتنی بر فناوری اصلی هوش مصنوعی هستند زمانی که سابقه شرم آوری از خطاهای واقعی داشته باشند به عنوان ابزار جستجو مورد استفاده قرار میگیرند: بارد در اولین نسخه نمایشی خود اطلاعات نادرستی درباره تلسکوپ جیمز وب ارائه کرد. هم چنین، بینگ مجموعهای از ارقام مالی را به خودی خود مسخره میکرد.
هزینه اشتباهات واقعی زمانی که از چت بات برای جستجو استفاده میشود بالاست. "مارگارت میچل" محقق سابق هوش مصنوعی گوگل که مقالهای در مورد خطرات مدلهای زبان بزرگ نوشته گفته که مدلهای زبان بزرگ به عنوان موتورهای جستجو "برای هدف مناسب نیستند". مدلهای زبانی اشتباه میکنند، زیرا دادههایی که براساس آن آموزش دیده اند اغلب شامل خطا میشوند به این دلیل که مدلها هیچ حقیقتی برای تایید آن چه میگویند ندارند. طراحان آن مدلها هم چنین ممکن است تسلط را بر دقت در اولویت قرار دهند. این یکی از دلایلی است که نشان میدهد چرا این ابزارها در تقلید همدلی فوق العاده خوب هستند. در هر حال، آنها از متنهای برداشته شده از وب از جمله واکنشهای احساسی پست شده در پلتفرمهای رسانههای اجتماعی مانند توئیتر و فیس بوک و از پشتیبانی شخصی نشان داده شده به کاربران انجمنهایی مانند Reddit و Quora یاد میگیرند. این ابزارها مکالمات را از فیلمنامههای فیلم و برنامههای تلویزیونی، دیالوگها را از رمانها میآموزند و مقالات تحقیقاتی در مورد هوش هیجانی همگی وارد ظرف آموزشی میشوند تا این ابزارها همدلانه به نظر برسند.
در نتیجه، جای تعجبی ندارد که برخی از افراد از چت جی پی تی به عنوان نوعی درمانگر رباتیک استفاده میکنند.
برای آن که ببینیم آیا میتوانیم توانایی همدلانه چت جی پی تی را اندازه گیری کنیم یک تست هوش هیجانی آنلاین را انجام دادیم. ۴۰ پرسش چند گزینهای به آن ارائه داده و گفتیم که به هر پرسش با یک حرف مربوطه پاسخ دهد. نتیجه این بود: در مسابقه شرکت کرد و در مقولههای مرتبط با آگاهی اجتماعی، مدیریت روابط و خود مدیریتی نمرات عالی کسب کرد و در خودآگاهی صرفا اندکی دچار مشکل شد.
در واقع، چت جی پی تی در مسابقه بهتر از ما عمل کرد. چیزی غیر واقعی در مورد ماشینی وجود دارد که با همدلی مصنوعی به ما آرامش میدهد، اما در واقع منطقی است. نیاز ذاتی ما به ارتباط اجتماعی و توانایی مغزمان برای انعکاس احساسات دیگران به این معنی است که میتوانیم درک درستی داشته باشیم حتی اگر طرف مقابل واقعا آن چه را که ما احساس میکنیم "احساس" نکند. در داخل مغز ما به اصطلاح نورونهای آینهای زمانی فعال میشوند که ما همدلی دیگران از جمله چت باتها را درک میکنیم و به ما کمک میکنند احساس ارتباط داشته باشیم.
البته همدلی یک مفهوم چندوجهی است و برای این که ما واقعا آن را تجربه کنیم مسلما به بدن گرم دیگری در اتاق نیاز داریم که برای لحظاتی احساسات مان را به اشتراک بگذارد.
"توماس وارد" روانشناس بالینی در کینگز کالج لندن که در مورد نقش نرم افزار در درمان تحقیق کرده نسبت به این فرضیه هشدار میدهد که هوش مصنوعی میتواند به اندازه کافی جای خالی افرادی را که به حمایت از سلامت روان نیاز دارند پر کند به خصوص اگر مشکلات آنان جدی باشد. برای مثال، یک چت بات نمیپذیرد که احساسات یک فرد برای درک چندان پیچیده باشد. به عبارت دیگر، چت جی پی تی به ندرت میگوید "نمی دانم"، زیرا به جای احتیاط در پاسخ هایش به پاسخ دادن حتی اشتباه مبتنی بر اعتماد طراحی شده است.
به طور کلی کاربرانی که معمولا به عنوان خروجی احساسات شان به چت بات روی میآورند باید مراقب باشند. "وارد" میگوید:" جنبههای ظریف ارتباط انسانی مانند لمس دست یا دانستن این که چه زمانی صحبت کنیم و چه زمانی گوش کنیم ممکن است در دنیایی که چت باتها راه حلی برای رفع تنهایی انسان قلمداد میشوند از بین بروند".
این امر ممکن است منجر به ایجاد مشکلات بیش تری شود مشکلاتی بیشتر از آن چه فکر میکنیم در حال حل آن هستیم. با این وجود، ابزارهای مبتنی بر هوش مصنوعی در حال حاضر دست کم به دلیل مهارتهای عاطفی شان قابل اعتمادتر از درک حقایق هستند.