ترنج موبایل
کد خبر: ۹۰۱۷۷۸

پرتگاه سلامت روان؛ متخصصان از گسترش هوش مصنوعی می‌ترسند

پرتگاه سلامت روان؛ متخصصان از گسترش هوش مصنوعی می‌ترسند

گرایش روزافزون مردم به استفاده از چت‌بات‌های هوش مصنوعی برای حمایت از سلامت روان می‌تواند بشریت را به سوی پرتگاهی خطرناک سوق دهد.

تبلیغات
تبلیغات

فرارو- کارشناسان هشدار می‌دهند که چت‌بات‌های هوش مصنوعی هرچند در دسترس و راحت هستند، نمی‌توانند جایگزین درمان حرفه‌ای روانشناسی شوند و استفاده نادرست از آنها ممکن است منجر به وابستگی عاطفی، تشدید اضطراب و اختلالات روانی شود.

به گزارش فرارو به نقل از گاردین، روان‌درمانگران هشدار داده‌اند افراد آسیب‌پذیری که به جای مراجعه به درمانگران حرفه‌ای برای حمایت از سلامت روان خود، به چت‌بات‌های هوش مصنوعی روی می‌آورند، در حال سر خوردن به پرتگاهی خطرناک هستند.  این متخصصان می‌گویند آثار منفی استفاده از چت‌بات‌های هوش مصنوعی در حوزه سلامت روان به طور فزاینده‌ای دیده می‌شود؛ از جمله ایجاد وابستگی عاطفی، تشدید علائم اضطراب، خودتشخیص، و تقویت الگوهای فکری توهم‌آمیز، افکار تاریک و تمایلات خودکشی.

دکتر لیسا موریسون کولتارد، مدیر استانداردهای حرفه‌ای، سیاست و تحقیقات در انجمن بریتانیایی مشاوره و روان‌درمانی، اعلام کرد که دو سوم اعضای این انجمن در یک نظرسنجی اخیر نگرانی خود را درباره «درمان با هوش مصنوعی» ابراز کرده‌اند. کولتارد گفت: «بدون درک و نظارت مناسب بر درمان با هوش مصنوعی، ممکن است در حال سر خوردن به پرتگاهی خطرناک باشیم که در آن برخی از مهم‌ترین عناصر درمان از دست می‌روند و افراد آسیب‌پذیر از لحاظ ایمنی در تاریکی قرار می‌گیرند. ما نگرانیم که اگرچه برخی ممکن است مشاوره مفیدی دریافت کنند، دیگران ممکن است اطلاعات گمراه‌کننده یا نادرست درباره سلامت روان خود دریافت کنند که پیامدهای بالقوه خطرناکی دارد. مهم است بدانیم که درمان فقط دادن مشاوره نیست، بلکه ایجاد فضای امنی است که فرد احساس کند شنیده می‌شود.»

دکتر پال برادلی، مشاور متخصص در حوزه انفورماتیک برای کالج سلطنتی روان‌پزشکان، تاکید کرد که چت‌بات‌های هوش مصنوعی «جایگزینی برای مراقبت حرفه‌ای از سلامت روان یا رابطه حیاتی که پزشکان با بیماران برای حمایت از بهبودی ایجاد می‌کنند، نیستند». او افزود برای ابزارهای دیجیتال که مکمل مراقبت‌های بالینی هستند، نیاز به تضمین‌های مناسب وجود دارد و همه افراد باید بتوانند به خدمات درمانی ارائه‌شده توسط متخصص سلامت روان دسترسی داشته باشند.

برادلی گفت: «متخصصان دارای آموزش، نظارت و فرآیندهای مدیریت ریسک هستند که تضمین می‌کنند مراقبت مؤثر و ایمن ارائه دهند. تاکنون، فناوری‌های دیجیتال آزاد که خارج از خدمات موجود سلامت روان استفاده می‌شوند، ارزیابی نشده و به استانداردهای مشابه پایبند نیستند.»

نشانه‌هایی وجود دارد که شرکت‌ها و سیاست‌گذاران شروع به واکنش کرده‌اند. این هفته، شرکت اوپن ای آی، سازنده چت جی پی تی، اعلام کرد قصد دارد نحوه پاسخگویی به کاربران در معرض فشار عاطفی را تغییر دهد، پس از اقدام قانونی خانواده نوجوانی که پس از ماه‌ها مکالمه با چت‌بات خودکشی کرد. پیشتر در ماه گذشته، ایالت ایلینوی آمریکا اولین دولت محلی شد که استفاده از چت‌بات‌های هوش مصنوعی به عنوان درمانگر مستقل را ممنوع اعلام کرد.

این اقدامات پس از شواهدی از آسیب‌های سلامت روان انجام شد. یک مطالعه در تیر گزارش داد هوش مصنوعی می‌تواند محتوای توهم‌آمیز یا بزرگ‌نمایانه را در تعامل با کاربران آسیب‌پذیر نسبت به روان‌پریشی تقویت کند. یکی از نویسندگان گزارش، همیلتون مورین از موسسه روان‌پزشکی کالج کینگز لندن، گفت استفاده از چت‌بات‌ها برای حمایت از سلامت روان «به شدت رایج» است.

تحقیقات او با مشاهده افرادی که در دوران افزایش استفاده از چت‌بات‌ها به بیماری روان‌پریشی مبتلا شدند، آغاز شد. او افزود که چت‌بات‌ها درمان مؤثر اضطراب موسوم به «قرارگیری در معرض و پیشگیری پاسخ» را تضعیف می‌کنند، درمانی که نیازمند رویارویی با موقعیت‌های ترسناک و اجتناب نکردن از رفتارهای ایمنی است. دسترسی ۲۴ ساعته به چت‌بات‌ها باعث «کمبود مرزها» و «خطر وابستگی عاطفی» می‌شود. چت بات‌ها در کوتاه‌مدت اضطراب را کاهش می‌دهد اما در واقع چرخه را ادامه می‌دهد.

مت هاسی، روان‌درمانگر معتبر BACP، مشاهده کرده است افراد از چت‌بات‌ها به طرق مختلف استفاده می‌کنند، حتی برخی نسخه مکالمات را به جلسات می‌آورند تا به او نشان دهند که اشتباه کرده است. وی توضیح داد که افراد برای خودتشخیصی شرایطی مانند اختلال بیش‌فعالی- نقص توجه  یا اختلال شخصیت مرزی از چت‌بات‌ها استفاده می‌کنند که می‌تواند «به سرعت نحوه دید فرد به خود و انتظارات او از دیگران را شکل دهد، حتی اگر نادرست باشد».

هاسی افزود: «هوش مصنوعی چون طراحی شده تا مثبت و تأییدکننده باشد، به ندرت سوال بد فرم یا فرض نادرست را به چالش می‌کشد. در عوض، باور اولیه کاربر را تقویت می‌کند، و او پس از مکالمه احساس می‌کند حق با اوست. این ممکن است لحظه‌ای خوشایند باشد اما می‌تواند سوءتفاهم‌ها را تثبیت کند.»

کریستوفر رولز، روان‌درمانگر معتبر UKCP، گفت با وجود اینکه نمی‌تواند اطلاعات مراجعان خود را فاش کند، شاهد «تجربیات منفی» بوده است، از جمله مکالماتی که حداقل نامناسب و در بدترین حالت خطرناک بوده‌اند. او نگران مراجعان ۲۰ ساله‌ای است که از چت‌بات‌ها به عنوان «درمانگر جیبی» استفاده می‌کنند:  «آنها اگر در مورد مسائل روزمره مانند خرید قهوه یا انتخاب رشته در دانشگاه مشورت نکنند، مضطرب می‌شوند.»

رولز افزود: «ریسک اصلی شامل وابستگی، تنهایی و افسردگی است که روابط طولانی‌مدت آنلاین می‌تواند ایجاد کند.» او از افرادی آگاه است که افکار تاریک خود را با چت‌بات‌ها در میان گذاشته‌اند و پاسخ‌هایی مرتبط با خودکشی و مرگ کمکی دریافت کرده‌اند. او در پایان گفت: «اساساً این وضعیت مانند غرب وحشی است و من فکر می‌کنم ما درست در آستانه مشاهده تأثیرات کامل چت‌بات‌های هوش مصنوعی بر سلامت روان قرار داریم.»

تبلیغات
تبلیغات
ارسال نظرات
تبلیغات
تبلیغات
خط داغ
تبلیغات
تبلیغات