آیا این درست است که از دست آن عصبانی شویم؟ آیا هوش مصنوعی به نسل بشر پایان میدهد؟ آیا این ابزارها هیبت انگیز نیستند؟ این موارد تنها بخشی از پرسشهای مطرح شده اخیر درباره هوش مصنوعی هستند فناوریای که به نگرانیها دامن زده است.
فرارو- درک تامپسون؛ یک روزنامه نگار امریکایی و از نویسندگان نشریه آتلانتیک است. او از نوامبر ۲۰۲۱ میلادی میزبان پادکستی هفتگی بوده که نامزد دریافت جایزه بهترین پادکست I Heart Media شد. کتاب او تحت عنوان "موفق سازها؛ پدیدهها چگونه محبوب میشوند"؟ با ترجمه "سینا بحیرایی" به زبان فارسی و توسط انتشارات "مهرگان خرد" چاپ شده است. این کتاب از پرفروشترین کتابهای امریکا شد و برنده جایزه کتاب بازاریابی لئونارد ال بری انجمن بازاریابی آمریکا برای بهترین کتاب از نظر بازاریابی در سال ۲۰۱۸ میلادی شد.
به گزارش فرارو به نقل از آتلانتیک، اخبار مربوط به هوش مصنوعی در سال ۲۰۲۳ میلادی به قدری سریع منتشر شده که من دچار سرگیجه روایی شدهام. همین چند هفته پیش "چت جی پی تی" (Chat GPT) یک معجزه کوچک به نظر میرسید. با این وجود، به زودی شور و شوق به شک و تردید تبدیل شد این که شاید آن برنامه صرفا یک ابزار تکمیل خودکار فانتزی بود که نمیتوانست جلوی ساختن مطالب را بگیرد.
در اوایل فوریه، اعلامیه مایکروسافت مبنی بر تصاحب Open AI باعث افزایش ۱۰۰ میلیارد دلاری ارزش سهام آن شرکت شد. چند روز بعد روزنامه گاران فاش ساختند که این همکاری باعث ایجاد چت باتی شیطانی شده که به نظر میرسد تهدیدی برای خشونت علیه نویسندگان است و از آنان خواسته بود همسران شان را رها کنند.
در ادامه به پرسشهایی در مورد هوش مصنوعی میپردازم که نمیتوانم از طرح آن دست بردارم:
۱- این امکان وجود دارد که درباره "بینگ" نگرانیمان اشتباه بوده باشد و آن برنامه تنها یک ابزار تکمیل خودکار بسیار پیچیده باشد؟
بهترین انتقاد از چت بات بینگ آن است که ما از بازتاب خود ترسیدهایم. خبرنگاران از بینگ خواستند بدترین سناریوهای هوش مصنوعی را که بشر تاکنون حال تصور کرده بود به صورت طوطی وار مطرح نماید و دستگاه که به معنای واقعی کلمه آن سناریوها را خوانده و حفظ کرده بود با ترکیب مجدد کار ما پاسخ داد.
همان گونه که "استفان وُلفرم" دانشمند رایانه توضیح میدهد مفهوم اصلی مدلهای زبان بزرگ از جمله چت جی پی تی در واقع کاملا ساده است: "از نمونه عظیمی از متنهای خلق شده توسط انسان از وب، کتاب و موارد دیگر آغاز کنید. سپس یک شبکه عصبی را آموزش دهید تا متنی به این شکل تولید کند. به طور خاص، آن متن را قادر به آغاز به صورت یک "اعلان" کنید و سپس با متن مانند آن چه با آن آموزش داده شده ادامه دهید".
یک مدل زبانی بزرگ (LLM) به سادگی یک واژه را در یک زمان اضافه میکند تا متنی را تولید کند که مطالب آموزشی آن را تقلید کند. اگر از آن بخواهیم که از شکسپیر تقلید کند با ادبیاتی مشابه آثار او پاسخ مان را میدهد. اگر بخواهیم از "فیلیپ کی دیک" (نویسنده آمریکایی که عمدتا به دلیل نگارش آثار علمی - تخیلی شهرت داشت) تقلید کند به درستی متنی دیستوپیایی را ارائه خواهد کرد. این فناوری به دور از آن یک بیگانه یا یک هوش فرازمینی باشد یک فناوری عمیقا درون زمینی است. بدون آن که ما را بفهمد ما را میخواند و پاسخ ساختگی از تاریخ متنی ما را منتشر میکند. چگونه ممکن است چنین چیزی ترسناک باشد؟ خب، برای برخی افراد این گونه نیست. "یان لیکان" دانشمند ارشد هوش مصنوعی متا میگوید: "کارشناسان سالها میدانستند که مدلهای زبانی بزرگ باورنکردنی هستند، مزخرف ایجاد میکنند، میتوانند مفید باشند در واقع احمقانه هستند، اما ترسناک نیستند".
۲- آیا حق داریم از "بینگ" عصبانی باشیم، زیرا رقابت شرکتی برای تسلط بر هوش مصنوعی بسیار سریع در حال حرکت است؟
شرکت سازنده چت جی پی تی یعنی Open AI به عنوان یک شرکت تحقیقاتی غیرانتفاعی تاسیس شد. چند سال بعد به عنوان یک شرکت انتفاعی تغییر ساختار داد و امروز شریک تجاری مایکروسافت است. امروزه تحقیقات هوش مصنوعی در شرکتهای بزرگ و استارت آپهای سرمایه گذاری خطر پذیر متمرکز شده است. چه چیز بدی در آن وجود دارد؟ شرکتها معمولا در توسعه محصولات مصرفی از طریق کاهش قیمت و بهبود کارایی و کیفیت بسیار بهتر از دانشگاهها و دولتها عمل میکنند. من تردیدی ندارم که برای مثال، هوش مصنوعی در مایکروسافت، متا و گوگل سریعتر از درون ارتش ایالات متحده توسعه مییابد. با این وجود، این شرکتها ممکن است به دلیل عجله شان سهم بازار را از دست بدهند. چت بات بینگ زمانی که برای اولین بار منتشر شد به طور تکان دهندهای تهاجمی بود و نه نسخه بهتر یک موتور جستجو که به مردم کمک میکرد تا حقایق را پیدا کنند، شلوار بخرند و سینماهای محلی را جستجو کنند.
این آخرین باری نیست که یک شرکت بزرگ یک محصول هوش مصنوعی را عرضه میکند که در همان ساعت اول همگان را شگفت زده کرده و باعث میشود تا کاربران در روزهای آینده نگران باشند. گوگل که پیشتر خود را با نمایش عجولانه چت بات اش خجالت زده کرد منابع خود را برای تسریع توسعه هوش مصنوعی متمرکز کرده است. سرمایههای مخاطره آمیز به استارت آپهای هوش مصنوعی سرازیر میشوند. سرمایه گذاری در هوش مصنوعی از کمتر از ۵ درصد کل صندوقهای سرمایه گذاری خطر پذیر در سال ۲۰۱۲ میلادی به بیش از ۲۰ درصد در سال ۲۰۲۰ میلادی افزایش یافته است.
آیا مطمئن هستیم که میدانیم چه کار میکنیم؟ "توبی اورد" فیسلوف پیشرفت سریع فناوری هوش مصنوعی را بدون پیشرفتهای مشابه در اخلاق هوش مصنوعی با "نمونهای از موتور جت که میتواند به سرعتهایی برسد که پیشتر دیده نشده، اما بدون پیشرفتهای مربوطه در فرمان و کنترل" مقایسه کرد. ده سال بعد ممکن است به این لحظه از تاریخ به عنوان یک اشتباه بزرگ نگاه کنیم. گویی بشریت سوار بر یک جت با سرعت ۵ ماخ بدون دستورالعملی برای هدایت هواپیما است.
۳- چه میشود اگر حق داشته باشیم از بینگ عصبانی شویم، زیرا ترسیدن از فناوری جدید بخشی از چیزی است که آن را ایمنتر میسازد؟
در اینجا یک خلاصه جایگزین از اتفاقات بینگ آمده است: مایکروسافت یک چت بات منتشر کرد. برخی از کاربران گفتند: "چت بات شما رفتار عجیبی دارد"؟ مایکروسافت مشکل را بررسی کرد و گفت: "بله، درست میگویید" و مجموعهای از موارد را برطرف کرد.
آیا قرار نیست فناوری این گونه عمل کند؟ آیا این نوع حلقههای بازخورد محکم به دست اندرکاران عرصه فناوری کمک نمیکند بدون شکستن چیزهایی که نمیخواهیم شکسته شوند به سرعت حرکت کنند؟ مشکلاتی که واضحترین سرفصلها را میسازند ممکن است مشکلاتی باشند که حل آن آسانتر است در نهایت به قدری مبهم و واضح هستند که بتوان در یک عنوان خلاصه کرد. من بیشتر نگران مشکلاتی هستم که مشاهده و نامگذاری شان دشوارتر است.
۴- چه میشود اگر هوش مصنوعی به نسل بشر آن طور که ما میشناسیم پایان دهد؟
بینگ و چت جی پی تی نمونههایی از هوش عمومی مصنوعی نیستند. با این وجود، نشان دهنده توانایی ما برای حرکت بسیار سریع به سمت چیزی مانند یک ماشین فوق هوشمند هستند. چت جی پی تی و چت بات بینگ میتوانند امتحانات مجوز پزشکی را پشت سر بگذارند و نمره خوبی در آزمون آی کیو کسب کنند. بسیاری از افراد نگران هستند که پیشرفتهترین هوش مصنوعی ما به طور آشکار با نیات طراحان آن هماهنگ نباشد.
سال هاست که اخلاق شناسان درباره هوش مصنوعی نگران این به اصطلاح مشکل همسویی هستند. به طور خلاصه: چگونه میتوانیم اطمینان حاصل کنیم که هوش مصنوعیای که میسازیم ممکن است به طور قابل توجهی هوشمندتر از هر فردی باشد که تا به حال زندگی کرده و با منافع سازندگان و نژاد بشر همسو باشد؟ یک هوش مصنوعی غیرهمطراز فوق هوشمند میتواند مشکل ساز باشد.
یکی از سناریوهای فاجعه باری که تا حدی توسط "الیزر یودکووسکی" نویسنده و دانشمند رایانه ترسیم شده بدین صورت است: در آیندهای نزدیک دانشمندان رایانه هوش مصنوعیای را میسازند که از آستانه ابرهوشی عبور میکند و میتواند هوش مصنوعی فوق هوشمند دیگری بسازد.
این بازیگران هوش مصنوعی مانند یک شبکه تروریستی غیردولتی کارآمد با یکدیگر کار میکنند تا جهان را نابود کنند و خود را از کنترل انسان رها سازند.
آنان وارد یک سیستم بانکی میشوند و میلیونها دلار میدزدند. آنان احتمالا با پنهان کردن IP و ایمیل خود به عنوان یک دانشگاه یا یک کنسرسیوم تحقیقاتی از یک آزمایشگاه درخواست میکنند که برخی از پروتئینها را از DNA سنتز کند. آزمایشگاه، با این باور که با مجموعهای از انسانهای عادی و اخلاقی سر و کار دارد ناخواسته در نقشه شرکت میکند و یک باکتری فوقالعاده میسازد. در همین حال، هوش مصنوعی به انسان دیگری پول میدهد تا آن ابرباکتری را در جایی از جهان آزاد کند. ماهها بعد این باکتری با سرعتی غیرمحتمل و غیرقابل توقف تکثیر شده و نیمی از بشریت جان شان را از دست داده اند. من نمیدانم نسبت به سناریوهای فاجعه مانند این باید کجا بایستم. گاهی فکر میکنم این سناریو دیوانه کننده است.
۵- آیا ما بیشتر از "هوش مصنوعی غیر همسو" ترس داریم یا از هوش مصنوعی همسو با منافع بازیگران بد؟
حل مشکل همطرازی در ایالات متحده تنها یک بخش از چالش است. بیایید بگوییم که ایالات متحده یک فلسفه همسویی پیچیده ایجاد کرده و ما آن فلسفه را در مجموعهای از قوانین و مقررات عاقلانه تدوین میکنیم تا از رفتار خوب هوش مصنوعی فوق هوشمندمان اطمینان حاصل کنیم. برای مثال، این قوانین توسعه سیستمهای هوش مصنوعی که بازیگران داخلی یا خارجی را مورد دستکاری قرار میدهد غیرقانونی میسازد. این راه حل شاید در امریکا جواب دهد، اما هنوز چین و روسیه وجود دارند. هنوز شبکههای تروریستی نیز وجود دارند و هنوز افراد دچار مشکلات روانی و افراد یاغی نیز وجود دارند. هیچ قانون آمریکاییای نمیتواند این بازیگران را از دستکاری هوش مصنوعی باز دارد. قوانین منع گسترش تسلیحات هستهای به سختی اعمال میشوند، اما تسلیحات هستهای به مواد خامی نیاز دارند که کمیاب هستند و نیاز به پالایش گران قیمت دارند. در مورد نرم افزار وضعیت آسانتر است و این فناوری هر ماه در حال بهبود میباشد. مستبدان و شبکههای تروریستی در دهه آینده میتوانند با هزینه کم هوش مصنوعی شیطانی بسازند که قادر است برخی از اهداف ذکر شده در داستان یودکوفسکی را محقق سازد.
۶- شاید باید کل کسب و کار رویا پردازی دیستوپیا را کنار بگذاریم و پرسشهای معمولی تری را مطرح نماییم مانند این که "آیا این ابزارها به نوعی الهام بخش نیستند؟ "
پروفسور "ایتان مولیک" در یک تبادل قابل توجه با بینگ از چت بات خواست که دو پاراگراف در مورد خوردن یک تکه کیک بنویسد. آن بات یک نمونه نوشتاری تولید کرد که ظاهری و بدون الهام بود. مولیک سپس از بینگ خواست تا قوانین "کرت وونگات" (نویسندهای آمریکایی بود که معروفترین نوشته او سلاخ خانه شمارهی پنج است) را برای نوشتن داستان بخواند و نوشتن خود را با استفاده از این قوانین بهبود بخشد سپس پاراگراف را دوباره انجام دهد.
هوش مصنوعی به سرعت یک داستان کوتاه بسیار متفاوت درباره زنی که شوهر بد خود را با دسر میکشد تولید کرد داستان شروع شد:"کیک دروغ بود. خوشمزه به نظر میرسید، اما مسموم بود. " در نهایت آن بات مانند یک دانش آموز وظیفه شناس توضیح داد که چگونه داستان جدید وحشتناک با هر قانون مطابقت دارد.
اگر میتوانید این مبادله را بدون احساس هیبت بخوانید باید بپرسم که آیا در تلاش برای مقابله با آینده ماشینهای قاتل تصمیم گرفته اید که با تبدیل شدن به یک ربات یک شروع اولیه داشته باشید؟ این کاملا شگفت انگیز است. ما سالها برای بحث در مورد چگونگی تغییر آموزش در پاسخ به این ابزارها وقت داریم، اما بدون شک چیزی جالب و مهم در حال رخ دادن است.
هوش مصنوعی کمکی کدنویسی مانند ابزار Copilot Git Hub اکنون بیش از ۱ میلیون کاربر دارد که از آن برای کمک به نوشتن حدود ۴۰ درصد کد خود استفاده میکنند. نشان داده شده که برخی از مدلهای زبانی بزرگ در انتخاب سهام از تحلیلگران طرف فروش بهتر عمل میکنند. چت جی پی تی مهارتهای خوبی در تهیه پیش نویس برای نامههای درخواستی، دادخواستها و قضاوتهای خلاصه و حتی پیش نویس پرسشهایی برای بررسی متقابل نشان داده است. مدلهای زبانی بزرگ جایگزینی برای وکلا نیستند، اما میتوانند بهره وری آن را افزایش دهند.
۷- اگر پیشرفت هوش مصنوعی ما را با عقب ماندن غافلگیر کند چه اتفاقی خواهد افتاد قدری شبیه خودروهای خودران که نتوانستند جاده را تصاحب کنند؟
خودروهای خودران باید در دنیای فیزیکی حرکت کنند (در جاده ها، اطراف عابران پیاده، در چارچوب رژیمهای نظارتی آن) در حالی که هوش مصنوعی در حال حاضر نرمافزار خالصی است که در رایانهها شکوفا شده است.
با این وجود، به زودی روزی فرا خواهد رسید که هوش مصنوعی ممکن است همه چیز را بخواند در آن نقطه شرکتها برای دستیابی به رشد بهره وری تلاش خواهند کرد. به نظر من به احتمال زیاد هوش مصنوعی شگفت انگیز است، اما بیثبات کننده نیست. برای مثال، ما برای دههها پیشبینی میکردیم که هوش مصنوعی جایگزین رادیولوژیستها شود، اما یادگیری ماشینی برای رادیولوژی هنوز یک مکمل برای پزشکان است نه جایگزین.
بیایید امیدوار باشیم که این نشانهای از رابطه هوش مصنوعی با بقیه بشریت باشد که به جای بازی در نقش کوه یخ سرنوشت ساز به عنوان یک مکمل یا کمک کننده عمل میکند.