شرکت OpenAI تخمین میزند ۸۰ درصد از کارگران در آمریکا شاهد خواهند بود شغل آنها تحت تأثیر هوش مصنوعی قرار میگیرد. گزارش شرکت خدمات مالی و بانکداری گلدمن ساکس بیانگر آن است که این فناوری میتواند ۳۰۰ میلیون شغل تمام وقت را در سراسر جهان مورد تهدید قرار دهد.
کارشناسان برجسته هوش مصنوعی زنگ خطر را در مورد سرعت و عظمت پیشرفتهای اخیر در زمینه این فناوری به صدا درآورده و چهار تهدید را برای جوامع انسانی برشمردهاند.
چرا هوش مصنوعی چنین ترسی را به وجود آورده است و ما در این زمینه چه کاری میتوانیم انجام دهیم؟ چرا جفری هینتون «پدرخوانده هوش مصنوعی» نگران است؟ چهار خطری که این فناوری او را نگران کرده است، کدام است؟
برخی از بزرگترین نگرانیهای ابرازشده در مورد آینده هوش مصنوعی و بشریت چیست؟
کارشناسان برجسته هوش مصنوعی زنگ خطر را در مورد سرعت و بزرگی پیشرفتهای اخیر در این زمینه به صدا درآورده و هشدار دادند این پیشرفتها چیزی کمتر از تهدید بشریت نیست.
جفری هینتون، دانشمند حوزه رایانه که به "پدرخوانده هوش مصنوعی" معرف است، اخیرا شغل خود را در گوگل ترک کرد تا نگرانی هایش را در مورد توسعه کنترل نشده ابزارهای جدید هوش مصنوعی با دیگران درمیان بگذارد.
هینتون ۷۵ ساله، در گفتگو با مجله MIT Technology Review دانشگاه ام آی تی اظهار داشت: ناگهان دیدگاه خود را در مورد اینکه آیا این دستاوردها هوشمندتر از ما خواهند بود، تغییر دادم. فکر میکنم هوش مصنوعی در حال حاضر بسیار به ما نزدیک شده و در آینده بسیار باهوشتر از ما خواهد شد. سوال این است که چگونه ما انسانها میتوانیم از این فناوری جان سالم به در ببریم؟
هینتون تنها کسی نیست که در این زمینه ابراز نگرانی کرده است. در ماه فوریه «سم آلتمن»، مدیرعامل شرکت اوپنای آی که «چت جی پی تی» را توسعه داده است نیز در این مورد اظهار داشت: جهان فاصله زیادی با دستیابی به ابزارهای هوش مصنوعی بالقوه ترسناک ندارد؛ بنابراین تعیین مقررات در این زمینه بسیار مهم است، اما فهمیدن این موضوع زمان میبرد.
اندکی پس از اینکه استارتاپ تحت حمایت مایکروسافت آخرین مدل هوش مصنوعی خود به نام GPT-۴ را در ماه مارس منتشر کرد، بیش از هزار محقق و فناور در نامهای با توجه به خطرهای عمیقی که این فناوری برای جامعه و بیشتریت دارد، خواستار توقف ۶ ماهه توسعه هوش مصنوعی شدند.
در اینجا به ارائه بزرگترین نگرانیهایی که هینتون و سایر کارشناسان بیان کرده اند، میپردازیم.
مغز انسان به لطف استعداد ذاتی خود در سازماندهی و ذخیره اطلاعات و یافتن راه حلهایی برای مشکلات دشوار میتواند معادلات را حل کند، به رانندگی بپردازد و سریالها را دنبال کند.
تقریباً ۸۶ میلیارد نورون که در جمجمه انسان قرار گرفته اند و مهمتر از آن، ۱۰۰ تریلیون ارتباط ایجاد شده بین این نرون ها، این قابلیتها را برای انسان فراهم کرده است.
هینتون میگوید: در مقابل، در فناوری زیربنای ChatGPT بین ۵۰۰ میلیارد تا یک تریلیون ارتباط وجود دارد. در حالی که به نظر میرسد این موضوع آن را نسبت به ما در یک نقطه ضعف بزرگ قرار میدهد، GPT-۴ که آخرین مدل هوش مصنوعی از OpenAI است، صدها برابر هر انسان دیگری میداند. این فناوری شاید، الگوریتم یادگیری بسیار بهتری نسبت به انسان دارد که آن را در فعالیتهای شناختی کارآمدتر میکند.
پژوهشگران مدتهاست متوجه شدهاند که جذب و بکارگیری دانش جدید برای شبکههای عصبی مصنوعی در مقایسه با انسان زمان بسیار بیشتری طول میکشد؛ چرا که آموزش آنها به انرژی و دادههای عظیمی نیاز دارد.
اما هینتون میگوید دیگر اینگونه نیست و سامانههایی مانند GPT-۴ پس از آموزش صحیح توسط محققان میتوانند مطالب جدید را خیلی سریع بیاموزند. این موضوع بی شباهت به روشی نیست که یک فیزیکدان حرفهای تعلیم دیده یافتههای تجربی جدید را بسیار سریعتر از یک دانش آموز دبیرستان میفهمد.
این امر هینتون را به این نتیجه رساند که سامانههای هوش مصنوعی از ما باهوشترند. آنها نه تنها میتوانند مطالب را سریعتر یاد بگیرند، بلکه میتوانند نسخههایی از دانش خود را تقریباً بلافاصله با یکدیگر به اشتراک بگذارند. این یک شکل کاملاً متفاوت هوش است، شکل جدید و بهتر هوش.
سامانههای هوش مصنوعی هوشمندتر از انسان چه کاری انجام میدهند؟ یک احتمال نگران کننده این است که افراد، گروهها یا دولتهای یک ملیتی معاند ممکن است به سادگی از آنها برای پیشبرد اهداف خود بهره برداری کنند.
طبق گزارش جدید NewsGuard که اعتبار وب سایتها را ارزیابی و اطلاعات نادرست آنلاین را ردیابی میکند، دهها سایت خبری جعلی در حال حاضر به زبانهای مختلف در سراسر شبکه اینترنت پخش شده اند و برخی از آنها روزانه صدها مقاله را که با کمک هوش مصنوعی تولید شده اند، منتشر میکنند.
هینتون به ویژه نگران است که ابزارهای هوش مصنوعی میتوانند برای تاثیرگذاری بر انتخابات و حتی راه انداختن جنگ آموزش داده شوند.
برای مثال، اطلاعات نادرست انتخاباتی که از طریق چت باتهای هوش مصنوعی منتشر میشود، میتواند نسخه آینده اطلاعات نادرست انتخاباتی باشد که از طریق فیسبوک و دیگر پیام رسانهای اجتماعی منتشر میشود و اینها ممکن است تازه آغاز راه باشد.
شرکت OpenAI تخمین میزند ۸۰ درصد از کارگران در آمریکا شاهد خواهند بود شغل آنها تحت تأثیر هوش مصنوعی قرار میگیرد. گزارش شرکت خدمات مالی و بانکداری گلدمن ساکس بیانگر آن است که این فناوری میتواند ۳۰۰ میلیون شغل تمام وقت را در سراسر جهان مورد تهدید قرار دهد.
به گفته هینتون، زمانی که "ابزارهای هوشمند میتوانند از ما پیشی بگیرند" بقای بشریت در خطر است.
هینتون میگوید: این چیزها با خواندن همه رمانهایی که تا به حال نگاشته شده و هر آنچه «نیکولو ماکیاولی» مورخ و نمایشنامهنویس ایتالیایی تا به حال نوشته است، از ما میآموزد چگونه انسانها را کنترل کند. حتی اگر آنها نتوانند مستقیماً اهرمها را بکشند، مطمئناً میتوانند ما را وادار به کشیدن اهرم کنند.
هینتون افزود: ای کاش یک راه حل ساده خوب داشتم، اما مطمئن نیستم که آیا راه حلی وجود دارد.
با این حال، دولتها توجه زیادی به ظهور هوش مصنوعی دارند. کاخ سفید از مدیران اجرایی گوگل، مایکروسافت و OpenAI سازنده ChatGPT دعوت کرد تا با «کامالا هریس»، معاون رییس جمهور آمریکا، در مورد چگونگی کاهش خطرات کوتاه مدت و بلندمدت این فناوری دیدار کنند و بحث صریحی در این باره داشته باشند.
قانونگذاران اروپایی نیز در حال تسریع مذاکرات برای تصویب قوانین جامع هوش مصنوعی هستند. بریتانیا قصد دارد تأثیر هوش مصنوعی را بر مصرف کنندگان، مشاغل و اقتصاد و اینکه آیا کنترلهای جدید برای فناوریهایی مثل ChatGPT مورد نیاز است یا خیر، بررسی کند.
آنچه مشخص نیست این است که چگونه کسی میتواند قدرتی مانند روسیه را از استفاده از فناوری هوش مصنوعی برای تسلط بر همسایگان یا شهروندان خود بازدارد.
هینتون پیشنهاد کرد که یک توافق جهانی مشابه با کنوانسیون تسلیحات شیمیایی ۱۹۹۷، اولین گام خوب برای ایجاد قوانین بین المللی علیه هوش مصنوعی تسلیحاتی باشد.