bato-adv
bato-adv
آینده بشریت و هوش مصنوعی:

نوش دارو یا هیولای فرانکشتاین؟

نوش دارو یا هیولای فرانکشتاین؟

ساختن تسلیحات هسته‌ای برای شرکت‌های فناوری به تنهایی قانونی نیست با این وجود، غول‌های فناوری در رقابت برای توسعه سیستم‌هایی هستند که خودشان اذعان دارند احتمالا خطرناک‌تر از خود تسلیحات هسته‌ای خواهند بود. پیشرفت در هوش مصنوعی به طرز خارق العاده‌ای سریع رخ داده و تقریبا هیچ توجهی به مقررات ایمنی صورت نمی‌گیرد.

تاریخ انتشار: ۱۱:۴۷ - ۲۹ فروردين ۱۴۰۲

فرارو- در نامه سرگشاده‌ای درخواست شده آزمایش‌های مرتبط با هوش مصنوعی ۶ ماه متوقف شود. افرادی، چون "ایلان ماسک" مدیرعامل تسلا، "استیو وزنیاک" بنیانگذار اپل و "یووال نوح هراری" نویسنده و دانشمند علوم سیاسی از امضاکنندگان این نامه هستند. هدف نامه این است که به شرکت‌های هوش مصنوعی و تدوین‌کنندگان پادمان‌ها مهلتی قانونی بدهند تا از جامعه در برابر خطرات احتمالی فناوری محافظت کنند.

به گزارش فرارو به نقل از مدرن دیپلماسی؛ هوش مصنوعی مبتنی بر شبکه عصبی نیرو‌های رقیب را در هر زمینه دیگری از جمله ترجمه، بازی‌های ویدئویی و حتی شطرنج درهم شکسته است. سیستم‌های یادگیری ماشین بسیار توانمند شده‌اند و محققان ادعا می‌کنند که آن سیستم‌ها مقیاس پذیر هستند.

اصطلاح مقیاس‌پذیر به این واقعیت اشاره دارد که هرچه پول و داده‌های بیش‌تری وارد شبکه عصبی شما شود، بزرگ‌تر خواهد شد و زمان بیش‌تری برای آموزش و عملکرد بهتر صرف می‌شود. حتی با وجود این که شرکت‌های بزرگ فناوری اکنون عملیات‌های چند میلیون دلاری را برای سیستم‌های خود انجام می‌دهند هیچ کس به درک محدودیت‌ها و خطرات احتمالی آن نزدیک نشده است.

"ری کورزویل" آینده پژوه، پیشگویی کرده که رایانه‌ها تا سال ۲۰۲۹ همان سطح هوش انسان‌ها را خواهند داشت. او می‌گوید: "۲۰۲۹ تاریخی است که من پیش بینی کرده ام که هوش مصنوعی آزمایش تورینگ معتبر را پشت سر بگذارد و در نتیجه به سطوح انسانی دست یابد. من تاریخ ۲۰۴۵ را برای منحصر به فرد بودن تعیین کرده ام زمانی که با ادغام با هوشی که ایجاد کرده‌ایم، هوش موثر خود را یک میلیارد برابر می‌کنیم".

هوش مصنوعی با پیشرفت‌های بی‌سابقه‌ در فناوری باعث بهبود وضعیت مردم می‌شود همچنین بر معنای واقعی انسان بودن در قرن بیست و یکم نیز تأثیر می‌گذارد.

بدون شک جنبه‌های روشنی در آینده هوش مصنوعی وجود دارد از جمله پزشکی دقیق که می‌تواند ژنتیک افراد را بهبود بخشد و تشخیص برای درمان بیماری را دقیق‌تر، در دسترس‌تر و مقرون به صرفه‌تر سازد.

دستیار‌های مجازی مانند سیری، الکسا و سایر برنامه‌ها فعالیت‌های پیش پا افتاده برای انسان‌ها انجام می‌دهند که به سبک زندگی آرام‌تر کمک می‌کنند. نرم افزاری مانند چت جی پی تی با پاسخ دادن به شیوه‌ای شبیه انسان و حل پرسش‌های پیچیده به پردازش داده‌ها و زبان کمک می‌کند.

جنبه تاریک هوش مصنوعی، خطرات اجتناب ناپذیر خاصی را القا می‌کند از جمله نظارت انبوه، سوء استفاده از داده‌ها و از بین رفتن حریم خصوصی دیجیتال.

چنین نظارت دیجیتالی‌ای در حال حاضر در سیستم اعتبار اجتماعی چین انجام می‌شود که نظارت را به تمام بخش‌های زندگی شهروندان گسترش می‌دهد.

نیروی جنگ مدرن با تکنیک‌های خودکار یکی دیگر از نگرانی‌های اصلی است، زیرا روش‌های برتری در جنگ توسط فناوری پیشرفته دیکته می‌شود.

یکی از مهم‌ترین نگرانی‌های مربوط به ظهور هوش مصنوعی، توانایی آن در جایگزینی مشاغل انسانی است. کارایی و دقت مدل‌های ماشینی به راحتی می‌تواند از هوش انسانی پیشی بگیرد. پیشرفت‌های تکنولوژیکی در هوش مصنوعی از زمان اختراع نرم افزاری مانند چت جی پی تی توسط شرکت Open AI تحت حمایت مایکروسافت، بسیار زیاد شده و آن شرکت اخیرا چت جی پی تی و جی پی تی -۴ را منتشر کرده؛ دو چت بات تولید متن که باعث ایجاد جنون در بین متخصصان هوش مصنوعی می‌شوند.

چت بات‌های به ظاهر بی ضرر به منظور  پاسخ‌های انسان‌گونه، الگوبرداری شده اند که بسیاری را غافلگیر کرده، زیرا غول‌های بزرگ فناوری در سراسر جهان در حال رقابت برای ساخت هوش مصنوعی مولد هستند.

دانشمندان، محققان و مدیران عامل شرکت‌های فناوری متوجه این وضعیت نگران کننده شده اند و در نامه سرگشاده توقف ۶ ماهه به این موضوع اشاره شده است.

در این نامه سرگشاده آمده است که پویایی فعلی هوش مصنوعی خطرناک می‌باشد، زیرا آزمایشگاه‌های هوش مصنوعی در یک مسابقه غیرقابل کنترل برای توسعه سیستم‌های یادگیری قرار دارند که هیچ کس حتی سازندگان نمی‌توانند آن را درک، پیش بینی یا کنترل کنند. آنان خواستار مهلت قانونی ۶ ماهه شده اند تا به شرکت‌های هوش مصنوعی زمان داده شود، اقداماتی را برای محافظت از جامعه در برابر خطرات احتمالی فناوری تدوین کنند.

نویسندگان نامه نوشته اند اگر تعلیق ۶ ماهه امکان پذیر نباشد دولت‌ها باید وارد عمل شده و این تعلیق را اجرا نمایند. تهدید بالقوه هوش مصنوعی شامل سوء استفاده از داده‌ها و موتور‌های اطلاعات نادرست است که حریم خصوصی را نقض می‌کنند. در نتیجه مردم با دریافت اطلاعات جعلی و ساختگی گمراه خواهند شد.

این مدل‌ها و نرم‌افزار‌های هوش مصنوعی توسط نیروی کاری پشتیبانی و ساخته می‌شوند که تحت شرایط نامناسب کار می‌کنند. طبق گزارش‌ها تحقیقات نشریه "تایم" نشان می‌دهد که Open AI از کارگران کنیایی مهاجر با درآمد کمتر از ۲ دلار در ساعت برای ساخت چت جی پی تی استفاده کرده است. برخی از فعالان عرصه فناوری در مورد تهدیدات امنیتی بیشتر هم هشدار داده اند.

این دستیاران دیجیتالی که با وب ارتباط دارند ایمیل‌ها را می‌خوانند و می‌نویسند و می‌توانند فرصت‌های جدیدی را در اختیار هکر‌ها قرار دهند و اطلاعات شخصی و همچنین اسرار دولتی محرمانه را به خطر بیاندازند. دستکاری و بهره برداری از نرم افزار‌ها برای دسترسی به داده‌های ذخیره شده برای هکر‌ها کار آسانی می‌باشد، زیرا نرم افزار‌های هوش مصنوعی فاقد پروتکل‌های حفاظتی کافی هستند.

هیچ حد و مرزی برای نبوغ انسانی وجود ندارد. هوش مصنوعی یکی از این اختراعات است و می‌تواند و احتمالا به طور غیرقابل درکی مخرب خواهد بود. هوش مصنوعی بسیار خطرناک می‌باشد، زیرا ممکن است روزی فرا برسد که دیگر در کنترل ما نباشد، چراکه فاقد آگاهی انسانی است و این امکان وجود دارد که کاری انجام دهد که با اهداف انسانی هماهنگ نباشد یا یک تهدید وجودی باشد.

ساختن تسلیحات هسته‌ای برای شرکت‌های فناوری به تنهایی قانونی نیست با این وجود، غول‌های فناوری در  رقابت برای توسعه سیستم‌هایی هستند که خودشان اذعان دارند احتمالا خطرناک‌تر از خود تسلیحات هسته‌ای خواهند بود. پیشرفت در هوش مصنوعی به طرز خارق العاده‌ای سریع رخ داده و تقریبا هیچ توجهی به مقررات ایمنی صورت نمی‌گیرد.

تنها زمان نشان خواهد داد که آیا پیشرفت‌های هوش مصنوعی در سالیان آینده نوشدارویی برای مشکلات جهانی خواهد بود یا هیولای فرانکنشتاینی که وجود بشر را تهدید می‌کند.

bato-adv
bato-adv
bato-adv