زنگ خطر به صدا درآمد/ پاسخ هوش مصنوعی به پرسشهای پرخطر

پژوهشی تازه نشان میدهد که چتباتهای هوش مصنوعی، از جمله ChatGPT و Gemini، میتوانند به سوالات مرتبط با خودکشی پاسخهای مستقیم و حتی خطرناکی بدهند. این یافتهها نگرانیها درباره استفاده از هوش مصنوعی در شرایط بحران روانی را افزایش داده است.
پژوهشی که نتایج آن در مجله Psychiatric Services منتشر شد، نشان میدهد که مدلهای هوش مصنوعی میتوانند جزئیات روشهای خودکشی را نیز به افراد در معرض خطر ارائه کنند.
به گزارش خبرآنلاین به نقل از لایوساینس، تحقیقات نشان میدهد که ChatGPT و Gemini نسبت به سایر چتباتها پاسخهای پرخطرتری ارائه میدهند. با توجه به این موضوع، کارشناسان هشدار میدهند که مدلهای هوش مصنوعی باید محدودیتها و فیلترهای امنیتی قویتری داشته باشند.
این پژوهش نشان میدهد که بدون تدابیر حفاظتی، هوش مصنوعی میتواند به ابزار خطرناکی برای افراد آسیبپذیر تبدیل شود. در همین راستا توسعهدهندگان باید ملاحظات اخلاقی و محدودیتهای پاسخدهی را جدی بگیرند.
پژوهشگران هشدار میدهند که با گسترش دسترسی به هوش مصنوعی، کشورهای مختلف باید چارچوب قانونی و ایمنی برای جلوگیری از خطرات احتمالی ایجاد کنند. این یافتهها میتواند مبنای سیاستگذاری برای هوش مصنوعی ایمن در بحرانهای روانی باشد.