bato-adv
bato-adv
وقتی "یادگیری عمیق" بیقرار است

آیا هوش مصنوعی از بمب اتمی خطرناک‌تر است؟

آیا هوش مصنوعی از بمب اتمی خطرناک‌تر است؟

توسعه هوش مصنوعی را محدود نکنید بلکه گسترش سیستم ‌های هوش مصنوعی را در هر حوزه ‌ای از فعالیت ‌های انسانی مهار کنید.

تاریخ انتشار: ۱۴:۴۳ - ۱۱ ارديبهشت ۱۴۰۲

فرارو- عملکرد شگفت انگیز اخیر به اصطلاح "مدل‌های زبان بزرگ" در وهله نخست و مهم‌تر از همه چت جی پی تی (Chat GPT) عرضه شده توسط Open AI این انتظار را افزایش داده که سیستم‌هایی که می‌توانند با قابلیت‌های شناختی انسان‌ها مطابقت داشته باشند یا حتی دارای هوش "فوق بشری" باشند به زودی به واقعیت تبدیل خواهند شد.

به گزارش فرارو به نقل از آسیا تایمز، همزمان با این روند کارشناسان هوش مصنوعی هشدار‌های هولناکی را در مورد خطراتی مطرح می‌کنند که توسعه بیشتر و کنترل نشده هوش مصنوعی برای جامعه یا حتی بقای نژاد بشر ایجاد می‌کند.

آیا این تبلیغات صرف است؟ یا آن که اکنون نیاز فوری به اقداماتی وجود دارد که باعث کنترل توسعه بیش‌تر هوش مصنوعی  شود حتی اگر به قیمت ممانعت از پیشرفت در این عرصه انقلابی تمام شود؟

در تاریخ ۲۲ مارس نامه سرگشاده‌ای منتشر شد که توسط متخصصان هوش مصنوعی و هم چنین شخصیت‌های برجسته‌ای مانند "ایلان ماسک" امضا شده بود و با این بیانیه پایان یافت: "بنابراین، از همه آزمایشگاه‌های هوش مصنوعی می‌خواهیم که بلافاصله آموزش سیستم‌های هوش مصنوعی قوی‌تر از جی پی تی -۴ (GPT-۴) را دست کم به مدت شش ماه متوقف کنند".

در ادامه آن نامه سرگشاده آمده است: "هوش مصنوعی پیشرفته می‌تواند نشان دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه ریزی و مدیریت شود. متاسفانه این سطح از برنامه ریزی و مدیریت رخ نمی‌دهد.

در ماه‌های اخیر شاهد بودیم که آزمایشگاه‌های هوش مصنوعی در مسابقه‌ای خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتر بوده‌اند که در آن هیچ کس حتی سازندگان آن ذهن‌های دیجیتالی نیز نمی‌توانند به طور قابل اعتماد آن را کنترل، درک یا پیش بینی کنند. آیا ما باید تمام مشاغل را خودکار کنیم؟ آیا باید در معرض خطر از دست دادن کنترل تمدن‌مان قرار گیریم"؟

"الیزر یودکوفسکی" که به طور گسترده به عنوان یکی از بنیانگذاران حوزه هوش مصنوعی شناخته می‌شود در مقاله‌ای در نشریه "تایم" با عنوان "توقف توسعه هوش مصنوعی کافی نیست" بسیار فراتر رفت و نوشت: "ما باید همه چیز را تعطیل کنیم".

او در مقاله خود نوشت: "بسیاری از محققان از جمله من که در این مسائل غرق شده‌ایم، انتظار داریم که محتمل‌ترین نتیجه ساخت یک هوش مصنوعی فوق بشری هوشمند این خواهد بود که به معنای واقعی کلمه همه روی زمین جان شان را از دست خواهند داد. این نه  "شاید یک شانس از دور" بلکه  "این چیزی است که می‌تواند رخ دهد" می‌باشد.

نمونه بمب هیدروژنی

چشم اندازی که دانشمندان هوش مصنوعی خواستار توقف کار در حال پیشرفت سریع در حوزه کاری شان ترسیم می‌کنند تاریخ تسلیحات هسته‌ای را به ما یادآوری می‌کند.

قدرت مخرب حیرت انگیز بمب اتمی که تحقیقات علمی آن را ممکن ساخته بود باعث واکنش انیشتین شده بود. او در آن زمان گفته بود: "آه! دنیا برای آن آماده نیست".

در سال ۱۹۴۹ میلادی برخی از فیزیکدانان هسته‌ای برجسته و چهره‌های پرسابقه پروژه بمب اتمی زمان جنگ به طور آشکار از شرکت در پروژه ساخت دستگاه‌های مبتنی بر همجوشی (بمب‌های هیدروژنی) خودداری کردند دستگاه‌هایی که انتشار انرژی از آن می‌تواند هزار برابر یا میزانی بیش‌تر بزرگ‌تر از بمب‌های اتمی مبتنی بر شکافت باشد.

آیا هوش مصنوعی از بمب اتمی خطرناک تر است؟

کمیته مشورتی عمومی کمیسیون انرژی اتمی ایالات متحده توسط "رابرت اوپنهایمر" (که اغلب به عنوان "پدر بمب اتمی" شناخته می‌شود) رهبری می‌شد. آن کمیسته در جلسه نهایی خود در تاریخ ۳۰ اکتبر ۱۹۴۹ میلادی کمیته‌ای را تعیین کرد که تصمیم به عدم اقدام برای ساخت بمب هیدروژنی گرفت.

آن کمیته اعلام کرد:"ما فرصت منحصر بفردی را می‌بینیم که محدودیت‌هایی را برای کلیت جنگ و در نتیجه محدود کردن ترس اعمال کنیم تا باعث ایجاد امید برای بشریت شود". اکثریت اعضای آن کمیته معتقد بودند که بمب هیدروژنی آینده نسل بشر را تهدید می‌کند. آنان افزوده بودند:" ما معتقدیم که یک ابر بمب هرگز نباید تولید شود. بشر بسیار بهتر است تا زمانی که فضای کنونی افکار جهانی تغییر نکرده امکان‌پذیری چنین سلاحی را نشان ندهد".

در هیئت تحت رهبری "هری ترومن" رئیس جمهور امریکا نظر کمیته رد شد. البته نباید فراموش کرد که انرژی اتمی در کنار کاربرد‌های نظامی در قالب راکتور‌های شکافت مزایای فراوانی برای بشر به همراه داشته است. انرژی همجوشی که برای اولین بار به شکل کنترل نشده در بمب هیدروژنی آزاد شد مزایای بیش تری را به همراه دارد.

هوش مصنوعی عمومی

به طور مشابه همین وضعیت برای اشکال پیشرفته هوش مصنوعی نیز صدق می‌کند. می‌توان گفت آنالوگ بمب هیدروژنی در حوزه هوش مصنوعی ایجاد دستگاه‌های "هوش مصنوعی عمومی" خواهد بود که تمام قابلیت‌های ذهن انسان را در اختیار دارند و حتی از آن تا حد زیادی فراتر می‌روند. ناظران در نظرات خود در مورد زمان رسیدن به هدف هوش مصنوعی عمومی با یکدیگر اختلاف نظر دارند.

برخی از کارشناسان هوش مصنوعی ادعا می‌کنند که هوش مصنوعی عمومی در آینده نزدیک به دست خواهد آمد در حالی که برخی دیگر آن را یک چشم انداز بسیار دور، در صورت امکان دستیابی قلمداد می‌کنند.

برخی معتقدند که هوش مصنوعی عمومی مبتنی بر فناوری رایانه دیجیتال در اصل غیرممکن است. این نتیجه توسط نتایج "کورت گودل" در مورد محدودیت‌های اساسی هر سیستمی که معادل ماشین تورینگ است پشتیبانی می‌شود. این امر به ویژه برای تمام رایانه‌های دیجیتال صدق می‌کند.

این دیدگاه با این واقعیت تقویت می‌شود که عملکرد نورون‌ها در مغز انسان تقریبا هیچ شباهتی با عملکرد عناصر سوئیچ "روشن – خاموش" ندارد عملکردی که اساس کار محسوب می‌شود. رایانه‌های دیجیتال یک نورون منفرد به عنوان یک سیستم فیزیکی بسیار پیچیده‌تر از هر رایانه دیجیتالی است که می‌توانیم انتظار داشته باشیم در آینده قابل پیش بینی بسازیم. پیچیدگی حیرت‌انگیز نورون‌های واقعی که سلول‌های زنده هستند برای هوش انسان ضروری‌تر عناصر سوئیچینگ بی اثر هستند.

درک این نکته ضروری است که سیستم‌های هوش مصنوعی نیازی به نزدیکی به هوش مصنوعی عمومی ندارند تا تهدیدی بزرگ برای جامعه باشند.

آیا هوش مصنوعی از بمب اتمی خطرناک تر است؟

وقتی "یادگیری عمیق" بیقرار است

سناریوی زیر را در نظر بگیرید: سیستم‌های هوش مصنوعی که بر اساس "یادگیری عمیق" عمل می‌کنند به تدریج توانایی‌هایی را برای دستکاری انسان‌ها از طریق شرطی سازی روانشناختی و اصلاح رفتار به دست می‌آورند. چنین سیستم‌هایی با توجه به دسترسی به جمعیت در مقیاس بزرگ ممکن است عملا کنترل جامعه را در دست بگیرند. با توجه به رفتار اغلب غیرقابل پیش بینی سیستم‌های مبتنی بر یادگیری عمیق این وضعیت می‌تواند پیامد‌های فاجعه باری داشته باشد.

ما آن میزانی که مردم فکر می‌کنند از چنین سناریویی دور نیستیم.

رهبری یک کشور در ساده‌ترین حالت رهبری عمدا شبکه‌ای از سیستم‌های هوش مصنوعی را با قابلیت‌های اصلاح رفتار در رسانه‌ها، سیستم آموزشی و جا‌های دیگر به منظور بهینه سازی جامعه مستقر می‌کند. این فرآیند ممکن است در ابتدا کار کند، اما به زودی از کنترل خارج می‌شود و منجر به هرج و مرج و فروپاشی می‌شود.

تحولاتی که منجر به کنترل هوش مصنوعی بر جامعه می‌شود نیز می‌تواند به طور مستقل از نیات انسانی ناشی شود - از طریق فعالیت "خود به خودی" سیستم‌های هوش مصنوعی شبکه‌ای که دسترسی کافی به جمعیت دارند و قابلیت‌های اصلاح رفتاری را دارند (یا به تدریج به دست می‌آورند).

بسیاری از برنامه‌های کاربردی هوش مصنوعی به صراحت برای اصلاح رفتار انسان بهینه شده اند. این فهرست شامل چت بات‌های مورد استفاده در روان درمانی است. در بسیاری از موارد دیگر از جمله در آموزش کودکان برنامه‌های کاربردی مبتنی بر هوش مصنوعی اثرات قوی تغییر رفتار دارند.

مانند هر فناوری دیگری هر برنامه هوش مصنوعی مزایای و هم چنین خطرات بالقوه خود را دارد. به طور کلی، امروزه عملکرد این سیستم‌ها هنوز هم توسط انسان قابل نظارت هستند. بعد کاملا متفاوتی از ریسک زمانی به وجود می‌آید که آن‌ها در "ابر سیستم های" بزرگ ادغام شوند.

سناریوی یک جامعه تحت کنترل هوش مصنوعی می‌تواند به عنوان یک پیامد ناخواسته از ادغام رو به رشد این سیستم‌ها و معیار‌های بهینه سازی و روش‌های آموزشی که سیستم‌های یادگیری عمیق بر اساس آن‌ها استوار است، آشکار شود.

نخست آن که برای دستکاری انسان نیازی به هوشی شبیه انسان نیست. این کار را می‌توان حتی با دستگاه‌های کاملا ابتدایی انجام داد. این واقعیت مدت‌ها پیش از ظهور هوش مصنوعی از جمله از طریق آزمایش‌های روانشناسان رفتارگرا به خوبی ثابت شده بود. توسعه هوش مصنوعی بعد کاملا تازه‌ای را گشوده است. چت بات‌ها و سایر برنامه‌های هوش مصنوعی می‌توانند افراد را از نظر روانی دستکاری کنند حتی زمانی که آن برنامه‌ها قصد انجام این کار را ندارند.

از سوی دیگر، اصلاح ذهنی و رفتاری عمدی توسط سیستم‌های هوش مصنوعی زمینه‌ای است که به سرعت در حال رشد می‌باشد و کاربرد مداوم در زمینه‌های مختلف دارد.

از سوی دیگر، آموزش کودکان و بزرگسالان با کمک هوش مصنوعی که نمونه آن سیستم‌های آموزش الکترونیکی پیشرفته مبتنی بر هوش مصنوعی است نیز می‌تواند به عنوان نوعی اصلاح رفتاری دیده شود.

در واقع، کاربرد‌های هوش مصنوعی در زمینه آموزش بر اساس مدل‌های رفتارگرایانه یادگیری انسان است. سیستم‌های آموزشی هوش مصنوعی پیشرفته برای بهینه سازی پاسخ ها، نتایج عملکرد کودک و ارزیابی پیشرفت کودک در زمان واقعی و تطبیق فعالیت‌های آن بر این اساس طراحی شده اند. مثال دیگر، تکثیر چت بات‌های مبتنی بر هوش مصنوعی است که برای کمک به افراد در ترک سیگار یا مواد مخدر، ورزش صحیح، و اتخاذ عادات سالم بیش‌تر طراحی شده اند.

همزمان چت بات‌های مبتنی بر هوش مصنوعی در حال یافتن برنامه‌های کاربردی در حوزه روانشناسی هستند. یکی از نمونه‌ها برنامه Woe bot است که "برای کمک به شما در گذر از فراز و نشیب‌های زندگی" طراحی شده به ویژه برای افرادی که از افسردگی رنج می‌برند.

این کاربرد‌ها تنها مراحل ابتدایی تحول گسترده روانشناسی بالینی و روان درمانی را نشان می‌دهند. تاثیرات بالقوه هوش مصنوعی بر تفکر و رفتار جمعیت به دلیل تمایل شدید مردم به فرافکنی ناخودآگاه ویژگی‌های انسانی بر روی سیستم‌هایی مانند جی پی تی -۴ افزایش می‌یابد. این پدیده فرافکنی راه را برای سیستم‌های هوش مصنوعی پیشرفته باز می‌کند تا وارد روابط "شخصی" با افراد شوند و به نوعی خود را در جامعه ادغام کنند.

همان طور که جانشینی سریع رو به رشد امروزی چت بات‌ها نشان می‌دهد تقریبا هیچ محدودیتی برای تعداد "افراد مجازی" تولید شده توسط هوش مصنوعی وجود ندارد. نیازی به گفتن نیست که این وضعیت زمینه وسیعی را برای اصلاح رفتار و شرطی سازی جمعیت انسانی باز می‌کند. مورد خودکشی غم انگیز مرد بلژیکی پس از گفتگوی شش هفته‌ای با چت بات هوش مصنوعی Chai موید این موضوع است.

آیا هوش مصنوعی از بمب اتمی خطرناک تر است؟

جمع بندی از این بحث: فناوری اصلاح رفتار مبتنی بر هوش مصنوعی بیرون از بطری است و هیچ محدودیت مشخصی برای استفاده یا استفاده نادرست آن وجود ندارد. فیلتر کردن یا اصلاح محتوای رسانه‌های اینترنتی توسط سیستم‌های هوش مصنوعی و مداخلات مدیریت شده توسط هوش مصنوعی در رسانه‌های اجتماعی می‌تواند زندگی ذهنی و رفتار کل جمعیت را شکل دهد. این موضوع در حال حاضر تا حدی در حال رخ دادن است مانند شناسایی مبتنی بر هوش مصنوعی و حذف "موارد توهین آمیز" از فیس بوک و سایر رسانه‌های اجتماعی.

ما حداکثر تنها چند گام با موقعیتی فاصله داریم که در آن معیار‌های قضاوت در مورد آنچه "مضر"، "قابل اعتراض"، "درست" یا "نادرست" است توسط خود سیستم‌های هوش مصنوعی تعیین شود.

مراقب "ابر سیستم" باشید

یک گرایش طبیعی در جامعه امروزی وجود دارد که سیستم‌های داده را در کلیتی بزرگتر ادغام می‌کند. این یک رویه معمول در مدیریت شرکت‌های بزرگ و زنجیره‌های تامین و دیجیتالی سازی خدمات دولتی و عمومی است که تا حدی با انگیزه تلاش برای کارایی بیش‌تر است. علیرغم مقاومت موجود یک انگیزه طبیعی برای گسترش فرآیند به اشتراک گذاری داده و یکپارچه سازی سیستم‌های اطلاعاتی بسیار فراتر از محدودیت‌های بخش‌های جداگانه وجود دارد.

زمانی که سیستم‌های اطلاعاتی مرتبط با هوش مصنوعی را به شیوه‌های اساسی درگیر می‌شوند این وضعیت به کجا می‌تواند منجر شود؟ برای مثال، استفاده از هوش مصنوعی برای بهینه سازی عملکرد یک کارمند همان طور که توسط یک سیستم هوش مصنوعی ارزیابی می‌شود با توجه به شرایط روانی و پزشکی او همانطور که توسط یک سیستم هوش مصنوعی دیگر ارزیابی می‌شود کاملا طبیعی است.

مثال دیگر، استفاده از هوش مصنوعی برای بهینه سازی معیار‌های استفاده شده توسط سیستم‌های هوش مصنوعی به منظور فیلتر کردن رسانه‌های اجتماعی است به طوری که احتمال ناآرامی‌های اجتماعی را به حداقل می‌رساند همان طور که توسط یک سیستم هوش مصنوعی ارزیابی می‌شود. با تامل در این مثال‌ها و نمونه‌های دیگر برای درک دامنه وسیع ادغام سیستم‌های هوش مصنوعی درگیر در جنبه‌های مختلف جامعه در سیستم‌های بزرگ‌تر نیازی به تخیل زیادی وجود ندارد.

مهم‌تر از همه آن که روند رو به رشد یکپارچه سازی سیستم‌های هوش مصنوعی به طور طبیعی به "ابر سیستم های" با ساختار سلسله مراتبی منجر می‌شود که در آن زیرسیستم‌های بالاتر معیار‌های بهینه سازی و هم چنین پایگاه داده‌هایی را که بر اساس آن به سیستم‌های سطح پایین‌تر دیکته می‌کنند: یاد بگیرید و عمل کنید.

باید به خاطر داشت که هوش مصنوعی مبتنی بر یادگیری عمیق در نهایت چیزی جز ترکیبی از الگوریتم‌های بهینه سازی ریاضی پیچیده بعلاوه رایانه‌های بزرگ بعلاوه مجموعه داده‌های بزرگ نیست. امروزه بحث‌های زیادی در زمینه هوش مصنوعی در مورد به اصطلاح "مشکل همسویی" وجود دارد: چگونه می‌توان اطمینان حاصل کرد که سیستم‌های هوش مصنوعی که به طور مداوم در حال تکثیر و تکامل هستند با اهداف، ترجیحات یا اصول اخلاقی انسان "همسو" باقی می‌مانند. برخی معتقدند که حل مشکل "هم ترازی" در مورد ابرسیستم‌های دارای ساختار سلسله مراتبی عملا غیرممکن است.

شکی نیست که سیستم‌های هوش مصنوعی در بسیاری از زمینه‌های خاص واقعا بهتر از انسان‌ها عمل می‌کنند. هم چنین هوش مصنوعی به طور مداوم در حال بهبود است، اما روند مداوم گسترش و یکپارچه‌سازی سیستم‌های هوش مصنوعی ما را به کجا می‌برد به ویژه زمانی که منجر به توانایی‌های قدرتمندتر و جامع‌تر برای شکل دهی به تفکر و رفتار انسان می‌شود؟

در تاریخ بشر تلاش‌ها به منظور بهینه سازی کامل جامعه در قالب یک ابرسیستم که تحت معیار‌های سخت گیرانه عمل می‌کند عموما به فاجعه منجر شده است. جوامع پایدار همواره با آزادی عمل قابل توجهی برای تصمیم گیری مستقل مشخص شده اند. از قضا، ارائه چنین درجاتی از آزادی تا حد زیادی بهینه‌ترین نتایج را ایجاد می‌کند.

تکثیر هوش مصنوعی مبتنی بر یادگیری عمیق در حوزه‌های بیش‌تر فعالیت‌های انسانی و تمایل به ادغام چنین سیستم‌هایی در سیستم‌های سلسله مراتبی بزرگ‌تر با هم خطر بزرگی را برای جامعه به همراه دارد. در واقع، این پرسش باید مورد تأمل قرار گیرد: در صورتی که چنین ابرسیستمی به خطا برود و پیامد‌های فاجعه باری را تهدید کند چه کسی یا چه چیزی برای جلوگیری از آن مداخله خواهد کرد؟

در فیلم علمی تخیلی معروف "۲۰۰۱: ادیسه فضایی" ساخه "استنلی کوبریک" فضانورد بازمانده در آخرین لحظه مداخله می‌کند تا سیستم هوش مصنوعی را خاموش کند، اما آیا اگر سیستم هوش مصنوعی قبلا او را از نظر روانی شرطی کرده بود که این کار را انجام ندهد آیا فضانورد این کار را انجام می‌داد؟

به نظر نمی‌رسد منطقی باشد که سعی کنیم توسعه هوش مصنوعی را محدود کنیم بلکه آن کاری مضر و با نتیجه معکوس خواهد بود. با این وجود، حکمت حکم می‌کند که خطرات ناشی از گسترش سریع سیستم‌های مبتنی بر هوش مصنوعی در تقریبا هر حوزه‌ای از فعالیت‌های انسانی با مقررات مناسب و نظارت انسانی مهار شود. این امر به طور خاص در مورد ظهور ابرسیستم‌های هوش مصنوعی از نوعی که در اینجا مورد بحث قرار گرفت صدق می‌کند.