برای پنج سال آینده درباره هوش مصنوعی پیش بینی من آن است که با تشخیص خودکار چهره رسواییهایی را شاهد خواهیم بود. یک پیش بینی دیگر من آن است که دیپ فیک یا جعل عمیق یعنی فیلمها و عکسهای دستکاری شده با کمک هوش مصنوعی در اینترنت افزایش خواهند یافت. در چند سال آینده دیپ فیکها در مورد انتخابات تصمیم میگیرند یا جنگ را آغاز میکنند یا هر دو عمل را انجام خواهند داد.
فرارو- توبی والش کارشناس فناوری استرالیایی است. به او لقب «ستاره راک البته در انقلاب دیجیتال استرالیا» را دادهاند. او استاد هوش مصنوعی در دانشگاه نیو ساوث ولز است. آخرین کتاب او با عنوان «ماشینهایی که بد رفتار میکنند: اخلاق هوش مصنوعی» نام دارد.
او در سال ۲۰۱۵ میلادی پیشتاز انتشار نامه سرگشادهای شد که در آن خواستار ممنوعیت تسلیحات خودمختار تهاجمی شد که بیش از ۲۰ هزار امضا را به همراه داشت. او نویسنده سه کتاب در زمینه هوش مصنوعی برای مخاطبان عام است: «این زنده است!، هوش مصنوعی از پیانوی منطقی تا رباتهای قاتل» که به تاریخ و حال هوش مصنوعی میپردازد، «۲۰۶۲: جهانی که هوش مصنوعی ساخته است» که به تاثیر بالقوه هوش مصنوعی بر جامعه ما میپردازد و «ماشینها با رفتار بد: اخلاق هوش مصنوعی» که به چالشهای اخلاقی هوش مصنوعی میپردازد.
او در سال ۲۰۲۰ میلادی به عنوان عضو انجمن آمریکایی «برای پیشرفت علم» انتخاب شد. او در سال ۲۰۱۸ میلادی برنده جایزه سالانه افراد سال انجمن کنترل تسلیحات شد. او در سال ۲۰۱۴ میلادی برنده جایزه بنیاد هومبولت آلمان شد.
به گزارش فرارو به نقل از اشپیگل، «توبی والش» در مصاحبه با نشریه «آلمانی» اشپیگل" به بررسی اثرات مخرب بالقوه استفاده از هوش مصنوعی در میدان جنگ میپردازد. او میگوید که ما نمیتوانیم هوش مصنوعی را از بین ببریم، اما باید آن را با ارزشهای جامعه هماهنگ سازیم.
در ادامه پاسخهای او را به پرسشهای خبرنگار «اشپیگل» خواهید خواند:
جنگ روسیه علیه اوکراین شبیه آزمایشگاهی برای سیستمهای تسلیحاتی مدرن به نظر میرسد. اوکراین از ابتدا به پهپادهای ترکی بایراکتار متکی بود و اکنون گفته میشود روسیه نیز میتواند از پهپادهای ایرانی استفاده کند. این سلاحها میتوانند در آینده به طور مستقل و با کمک هوش مصنوعی کنترل شوند؟
در مورد استفاده از رباتهای قاتل کنترل شده با هوش مصنوعی تنها موضوع زمان است. من فقط در یک مقاله در مورد نوع جدیدی از مین ضد نفر روسی به نام POM-۳ هشدار دادم. این مین بر اساس طرحی از ورماخت آلمان به نام Schrapnell mine ساخته شده است. این مین رد پا را تشخیص میدهد سپس ابتدا به هوا میپرد و پس از آن در ارتفاع یک متری منفجر میشود تا حد امکان با ترکش به سربازان آسیب برساند.
روسیه اعلام کرده که این مین ترکش را با استفاده از نرمافزار هوش مصنوعی کنترل خواهد کرد که میتواند به دقت تشخیص دهد که آیا واحدهای روسی خود در حال نزدیک شدن هستند یا خیر و در صورت نزدیک شدن نیروهای خودی روس منفجر نمیشود و تنها در صورت تشخیص نزدیک شدن سربازان دشمن منفجر میشود و آنان را از بین میبرد. چنین مینهای زمینیای ماهیت حیوانی دارند چرا که افراد را به صورتی بیرویه نابود میکنند و اغلب به کودکان ضربه وارد میسازند. به همین دلیل است که این نوع از مینها در سطح بین المللی غیرقانونی محسوب میشوند.
۱۶۴ دولت از جمله اوکراین متعهد شدهاند که از آن استفاده نکنند. با این وجود، روسیه جزو این فهرست نیست. انتقاد من از POM-۳ و استفاده از آن توسط ارتش روسیه باعث شد تا در فهرست افراد ممنوع الورود به خاک روسیه قرار گیرم و دیگر اجازه نداشته باشم به آن کشور سفر کنم.
یک مسابقه تسلیحاتی جهانی هوش مصنوعی مدتهاست که در جریان میباشد و عموم مردم تاکنون از آن بیاطلاع بوده اند. ارتش ایالات متحده در حال توسعه یک تانک رباتیک به نام اطلس است. نیروی دریایی ایالات متحده در حال کار بر روی یک کشتی جنگی رباتیک کاملا خودکار به نام «شکارچی دریا» یا Sea Hunter است که پیشتر به طور مستقل سفر خود را از هاوایی به سواحل کالیفرنیا تکمیل کرده است.
هم چنین، چین در حال توسعه موشکهای کنترل شده با هوش مصنوعی است. روسیه قصد دارد یک زیردریایی بدون سرنشین به نام «پوزیدون» را بسازد که حتی قادر است به تسلیحات هستهای مجهز شود. این یک کابوس است. آیا میتوانید به چیزی وحشتناکتر از یک زیردریایی فکر کنید که در آن به جای یک کاپیتان یک برنامه رایانهای تصمیم میگیرد که جنگ هستهای را آغاز کند یا خیر؟
نباید فکر کنیم که این سناریوهای ترسناک در نهایت هرگز محقق نمیشوند. سلاحهای خودمختار شاید حتی از بمبهای هستهای نیز خطرناکتر باشند بدان خاطر که ساخت بمب هستهای به دانش باورنکردنی نیاز دارد شما به فیزیکدانان و مهندسان برجسته نیاز دارید به مواد شکافتپذیر نیاز دارید به پول زیادی نیاز دارید.
بنابراین، خوشبختانه در آینده قابل پیشبینی سلاحهای هستهای برای بسیاری از کشورها دور از دسترس خواهند بود. از سوی دیگر، درباره سلاحهای مبتنی بر هوش مصنوعی وضعیت کاملا متفاوت است. اغلب سیستمهای تسلیحاتی معمولی که هر جنگ سالار کوچکی در اختیار دارد برای توسعه تسلیحات هوش مصنوعی کافی هستند. با تراشههای رایانهای و لوازم جانبی مناسب از یک چاپگر سه بعدی آن تسلیحات به یک سلاح مستقل تبدیل میشوند.
من نمیدانم آیا چنین سلاحهایی برای مثال، چند فروند تانک اطلس خودمختار و یا کشتیهای «شکارچی دریا» واقعا برای جنگ تعیین کننده هستند یا خیر. با این وجود، این تسلیحات قادر خواهند بود بهطور تصادفی از طریق نقص عملکرد جنگی را آغاز کنند. برای مثال، روسیه ظاهرا از یک سلاح مافوق صوت در تهاجم به اوکراین استفاده کرده است که با سرعت چند برابر مافوق صوت به سمت هدف خود پرواز میکند.
در چنین موردی، زمان کمی برای مدافعان وجود دارد که واکنش نشان دهند و این امر جنگ را تسریع میکند. این امر میتواند منجر به حمله رعد آسا شود که در آن سیستمهای رایانهای دشمن یکدیگر را در کوتاهترین زمان ممکن موشک باران میکنند. این اتوماسیون جنگ اثر بیثبات کنندهای دارد و ما باید به هر قیمتی از آن جلوگیری کنیم.
در اینجا این پرسش مطرح میشود که آیا سلاحهای نیمه خودمختار نمیتوانند جان انسانها را نجات دهند؟ برای مثال، سیستم دفاع موشکی فالانکس ایالات متحده برای دفاع از کشتیهای جنگی بسیار سریعتر از یک انسان به حملات پاسخ میدهد. با این وجود، فالانکس به وضوح یک سیستم دفاعی است. هوش مصنوعی در واقع با سلاحهای دفاعی مشکل کمتری دارد. با این وجود، استفاده از آن نیز دشوار است. چنین سیستمی تا چه میزان قابل اعتماد است؟ اگر نرمافزار به اشتباه هواپیمای مسافربری را موشک دشمن تشخیص دهد و آن را منهدم کند چه خواهد شد؟
حدس و گمانه زنیهای زیادی در این باره وجود دارد که رباتهای قاتل تهاجمی هم اکنون مورد استفاده قرار میگیرند. ترکیه یک پهپاد خودگردان انتحاری به نام کارگو با نرمافزار تشخیص چهره را برای شکار انسان در مرز سوریه فرستاده است. طبق گزارشها، کارگو از الگوریتمهای تشخیص چهره مشابهی که در گوشیهای تلفن همراه هوشمند وجود دارد با تمام خطاهایشان برای شناسایی و کشتن افراد روی زمین استفاده میکند.
تصور کنید که تعقیب شدن توسط انبوهی از پهپادهای قاتل تا چه اندازه وحشتناک خواهد بود. حتی اگر این پهپادها به طور خاص قابل اعتماد کار نکنند دیکتاتوریها میتوانند از آن برای ترساندن مردم استفاده کنند. این پهپادها برای کاربرد در ترور دولتی مناسب هستند.
برخی این ایده را مطرح میکنند که سلاحهای کنترل شده با هوش مصنوعی را غیرقانونی کنیم. برای مثال، از همتای معاهده منع گسترش سلاحهای هستهای برای آن استفاده نماییم. غیر قانونی کردن این تسلیحات ممکن است همواره کارآیی نداشته باشد، اما میتواند از بدتر شدن آن جلوگیری کند.
نمونههای بسیار کمی از تسلیحاتی وجود دارند که در ابتدا مورد استفاده قرار گرفتند، اما بعدا غیرقانونی شدند. به استفاده گسترده از گاز سمی در جنگ جهانی اول فکر کنید یا به لیزرهای کور کننده فکر کنید که میتوانند سربازان را نابینا سازند. این تسلیحات توسط پروتکل سازمان ملل متحد در سال ۱۹۹۸ میلادی غیرقانونی شدند و از آن زمان تقریبا هرگز در میدانهای جنگ ظاهر نشدند حتی اگر همان طور که میدانیم فناوری لیزر غیرنظامی به طور گسترده مورد استفاده قرار گیرد.
برای مینهای ضد نفر این ممنوعیت به خوبی کار نمیکند، اما دست کم ۴۰ میلیون مین به دلیل پروتکلهای غیر قانونی نابود شدهاند و این شرایط جان بسیاری از کودکان را نجات میدهد. این یک داستان مشابه در مورد مهمات خوشهای است: حدود ۹۹ درصد از ذخایر منهدم شده است حتی اگر دوباره در سوریه استفاده شود. ما میتوانیم از غیر قابل قبول شدن سلاحهای خودمختار از طریق انگ زدن به آن اطمینان حاصل کنیم.
من پیشتر دید خوش بینانهای نسبت به هوش مصنوعی داشتم و آینده درخشانی را برای آن پیش بینی کرده بود. اما نظرم تغییر پیدا کرد. واقعیت رخ داد! ما به تازگی شاهد بسیاری از عوارض جانبی ناخوشایند هوش مصنوعی بوده ایم.
در این میان، اتحادیه اروپا در تنظیم مقررات هوش مصنوعی براستی پیشرو بوده است و بازار اروپا به اندازهای بزرگ است که برای شرکتهای جهانی ارزش دارد که محصولات هوش مصنوعی خود را با قوانین اروپایی تطبیق دهند. با این وجود، شیطان در جزئیات است. تدوین قوانین یک موضوع است، اما پرسش اینجاست که تبعیت از قوانین واقعا تا چه حد اجرا میشود.
مشکل آن است که ما نمیتوانیم سیستم هوش مصنوعی را که بد رفتار میکند قطع کنیم. ما نمیتوانیم تنها رایانههای سیستم بانکی جهانی را خاموش کنیم چرا که در آن صورت اقتصاد جهانی فرو خواهد ریخت. ما نمیتوانیم رایانههای کنترل ترافیک هوایی را نیز خاموش کنیم چرا که در آن صورت ترافیک هوایی از بین میرود.
ما هم چنین نمیتوانیم رایانههای نیروگاهها را خاموش کنیم، زیرا در آن صورت دچار خاموشی میشویم. امروزه ما کاملا به رایانه وابسته هستیم. این وابستگی تنها با هوش مصنوعی در حال افزایش است. ما نمیتوانیم از شر آن خلاص شویم. ما تنها میتوانیم تلاش کنیم تا اطمینان حاصل شود که ارزشهای هوش مصنوعی با ارزشهای جامعه ما هماهنگ هستند.
من پیشتر به درستی پیش بینی کردم که یک خودروی خودران باعث تصادف مرگبار با دوچرخه سوار و عابر پیاده میشود و آن پیش بینی دقیقا یک سال بعد رخ داد.
برای پنج سال آینده درباره هوش مصنوعی پیش بینی من آن است که با فناوری هوش مصنوعی «تشخیص چهره خودکار» رسواییهایی را شاهد خواهیم بود. استارت آپ آمریکایی Clearview AI میلیونها عکس را بدون رضایت افراد درگیر مورد استفاده قرار داده است. از این شرکت شکایت شد، اما کماکان به کار خود ادامه میدهد.
یک پیش بینی دیگر من آن است که دیپ فیک یا جعل عمیق یعنی فیلمها و عکسهای دستکاری شده با کمک هوش مصنوعی در اینترنت افزایش خواهند یافت. در چند سال آینده دیپ فیکها در مورد انتخابات تصمیم میگیرند یا جنگ را آغاز میکنند یا هر دو عمل را انجام خواهند داد.
دومی چه مزیتی به اولی دارد؟