فرارو- در نامه سرگشادهای درخواست شده آزمایشهای مرتبط با هوش مصنوعی ۶ ماه متوقف شود. افرادی، چون "ایلان ماسک" مدیرعامل تسلا، "استیو وزنیاک" بنیانگذار اپل و "یووال نوح هراری" نویسنده و دانشمند علوم سیاسی از امضاکنندگان این نامه هستند. هدف نامه این است که به شرکتهای هوش مصنوعی و تدوینکنندگان پادمانها مهلتی قانونی بدهند تا از جامعه در برابر خطرات احتمالی فناوری محافظت کنند.
به گزارش فرارو به نقل از مدرن دیپلماسی؛ هوش مصنوعی مبتنی بر شبکه عصبی نیروهای رقیب را در هر زمینه دیگری از جمله ترجمه، بازیهای ویدئویی و حتی شطرنج درهم شکسته است. سیستمهای یادگیری ماشین بسیار توانمند شدهاند و محققان ادعا میکنند که آن سیستمها مقیاس پذیر هستند.
اصطلاح مقیاسپذیر به این واقعیت اشاره دارد که هرچه پول و دادههای بیشتری وارد شبکه عصبی شما شود، بزرگتر خواهد شد و زمان بیشتری برای آموزش و عملکرد بهتر صرف میشود. حتی با وجود این که شرکتهای بزرگ فناوری اکنون عملیاتهای چند میلیون دلاری را برای سیستمهای خود انجام میدهند هیچ کس به درک محدودیتها و خطرات احتمالی آن نزدیک نشده است.
"ری کورزویل" آینده پژوه، پیشگویی کرده که رایانهها تا سال ۲۰۲۹ همان سطح هوش انسانها را خواهند داشت. او میگوید: "۲۰۲۹ تاریخی است که من پیش بینی کرده ام که هوش مصنوعی آزمایش تورینگ معتبر را پشت سر بگذارد و در نتیجه به سطوح انسانی دست یابد. من تاریخ ۲۰۴۵ را برای منحصر به فرد بودن تعیین کرده ام زمانی که با ادغام با هوشی که ایجاد کردهایم، هوش موثر خود را یک میلیارد برابر میکنیم".
هوش مصنوعی با پیشرفتهای بیسابقه در فناوری باعث بهبود وضعیت مردم میشود همچنین بر معنای واقعی انسان بودن در قرن بیست و یکم نیز تأثیر میگذارد.
بدون شک جنبههای روشنی در آینده هوش مصنوعی وجود دارد از جمله پزشکی دقیق که میتواند ژنتیک افراد را بهبود بخشد و تشخیص برای درمان بیماری را دقیقتر، در دسترستر و مقرون به صرفهتر سازد.
دستیارهای مجازی مانند سیری، الکسا و سایر برنامهها فعالیتهای پیش پا افتاده برای انسانها انجام میدهند که به سبک زندگی آرامتر کمک میکنند. نرم افزاری مانند چت جی پی تی با پاسخ دادن به شیوهای شبیه انسان و حل پرسشهای پیچیده به پردازش دادهها و زبان کمک میکند.
جنبه تاریک هوش مصنوعی، خطرات اجتناب ناپذیر خاصی را القا میکند از جمله نظارت انبوه، سوء استفاده از دادهها و از بین رفتن حریم خصوصی دیجیتال.
چنین نظارت دیجیتالیای در حال حاضر در سیستم اعتبار اجتماعی چین انجام میشود که نظارت را به تمام بخشهای زندگی شهروندان گسترش میدهد.
نیروی جنگ مدرن با تکنیکهای خودکار یکی دیگر از نگرانیهای اصلی است، زیرا روشهای برتری در جنگ توسط فناوری پیشرفته دیکته میشود.
یکی از مهمترین نگرانیهای مربوط به ظهور هوش مصنوعی، توانایی آن در جایگزینی مشاغل انسانی است. کارایی و دقت مدلهای ماشینی به راحتی میتواند از هوش انسانی پیشی بگیرد. پیشرفتهای تکنولوژیکی در هوش مصنوعی از زمان اختراع نرم افزاری مانند چت جی پی تی توسط شرکت Open AI تحت حمایت مایکروسافت، بسیار زیاد شده و آن شرکت اخیرا چت جی پی تی و جی پی تی -۴ را منتشر کرده؛ دو چت بات تولید متن که باعث ایجاد جنون در بین متخصصان هوش مصنوعی میشوند.
چت باتهای به ظاهر بی ضرر به منظور پاسخهای انسانگونه، الگوبرداری شده اند که بسیاری را غافلگیر کرده، زیرا غولهای بزرگ فناوری در سراسر جهان در حال رقابت برای ساخت هوش مصنوعی مولد هستند.
دانشمندان، محققان و مدیران عامل شرکتهای فناوری متوجه این وضعیت نگران کننده شده اند و در نامه سرگشاده توقف ۶ ماهه به این موضوع اشاره شده است.
در این نامه سرگشاده آمده است که پویایی فعلی هوش مصنوعی خطرناک میباشد، زیرا آزمایشگاههای هوش مصنوعی در یک مسابقه غیرقابل کنترل برای توسعه سیستمهای یادگیری قرار دارند که هیچ کس حتی سازندگان نمیتوانند آن را درک، پیش بینی یا کنترل کنند. آنان خواستار مهلت قانونی ۶ ماهه شده اند تا به شرکتهای هوش مصنوعی زمان داده شود، اقداماتی را برای محافظت از جامعه در برابر خطرات احتمالی فناوری تدوین کنند.
نویسندگان نامه نوشته اند اگر تعلیق ۶ ماهه امکان پذیر نباشد دولتها باید وارد عمل شده و این تعلیق را اجرا نمایند. تهدید بالقوه هوش مصنوعی شامل سوء استفاده از دادهها و موتورهای اطلاعات نادرست است که حریم خصوصی را نقض میکنند. در نتیجه مردم با دریافت اطلاعات جعلی و ساختگی گمراه خواهند شد.
این مدلها و نرمافزارهای هوش مصنوعی توسط نیروی کاری پشتیبانی و ساخته میشوند که تحت شرایط نامناسب کار میکنند. طبق گزارشها تحقیقات نشریه "تایم" نشان میدهد که Open AI از کارگران کنیایی مهاجر با درآمد کمتر از ۲ دلار در ساعت برای ساخت چت جی پی تی استفاده کرده است. برخی از فعالان عرصه فناوری در مورد تهدیدات امنیتی بیشتر هم هشدار داده اند.
این دستیاران دیجیتالی که با وب ارتباط دارند ایمیلها را میخوانند و مینویسند و میتوانند فرصتهای جدیدی را در اختیار هکرها قرار دهند و اطلاعات شخصی و همچنین اسرار دولتی محرمانه را به خطر بیاندازند. دستکاری و بهره برداری از نرم افزارها برای دسترسی به دادههای ذخیره شده برای هکرها کار آسانی میباشد، زیرا نرم افزارهای هوش مصنوعی فاقد پروتکلهای حفاظتی کافی هستند.
هیچ حد و مرزی برای نبوغ انسانی وجود ندارد. هوش مصنوعی یکی از این اختراعات است و میتواند و احتمالا به طور غیرقابل درکی مخرب خواهد بود. هوش مصنوعی بسیار خطرناک میباشد، زیرا ممکن است روزی فرا برسد که دیگر در کنترل ما نباشد، چراکه فاقد آگاهی انسانی است و این امکان وجود دارد که کاری انجام دهد که با اهداف انسانی هماهنگ نباشد یا یک تهدید وجودی باشد.
ساختن تسلیحات هستهای برای شرکتهای فناوری به تنهایی قانونی نیست با این وجود، غولهای فناوری در رقابت برای توسعه سیستمهایی هستند که خودشان اذعان دارند احتمالا خطرناکتر از خود تسلیحات هستهای خواهند بود. پیشرفت در هوش مصنوعی به طرز خارق العادهای سریع رخ داده و تقریبا هیچ توجهی به مقررات ایمنی صورت نمیگیرد.
تنها زمان نشان خواهد داد که آیا پیشرفتهای هوش مصنوعی در سالیان آینده نوشدارویی برای مشکلات جهانی خواهد بود یا هیولای فرانکنشتاینی که وجود بشر را تهدید میکند.