سرمایهگذاریهای سنگین نظامی برروی سیستم سلاحهای خودمختار، از جمله در آمریکا، روسیه، چین، کرهجنوبی و اتحادیه اروپا، دنیا را وارد مسابقه تسلیحاتی گرانقیمت و ویرانگر جدیدی میکند.
اگر سلاحهای هوشمند مصنوعی در میادین جنگ مستقر شوند، چه کسی پاسخگوی مرگ افراد غیرنظامی خواهد بود؟ هنوز پاسخ شفافی برای این سوال مهم وجود ندارد.
به گزارش خبرآنلاین، طبق آنچه در به روزرسانی دستورالعمل وزارت دفاع آمریکا به چشم میخورد، ارتش این کشور در حال تشدید تلاشها برای رشد و توسعه و استفاده از سلاحهای خودمختار است.
آخرین نسخه از این دستورالعمل در روز ۲۵ ژانویه سال ۲۰۲۳ منتشر شد و تاکید اصلی در آن برروی استفاده از هوش مصنوعی در سلاحهای خودمختار است. این به دنبال یک برنامه اجرایی مرتبط است که در روز سیزدهم اکتبر سال ۲۰۲۲ توسط ناتو منتشر شده بود.
هردو بیانیه بازتابدهنده نکته مهمی هستند که ارتشهای جهان در عملیاتهای اخیر جنگی در قرهباغ و اوکراین آموختهاند: بهرهگیری از سلاحهایی با هوش مصنوعی، آینده جنگها خواهد بود.
ریچارد مویز، مدیر Article ۳۶، موسسه بشردوستانهای که تمرکز فعالیتش را برروی کاهش آسیبهای سلاحهای جنگی قرارداده دراین رابطه گفته: «ما میدانیم که ژنرالها، ارزش نظامی را در مهمات سرگردان در اوکراین میدانند.»
این سلاحها که شامل بمب و پهپادها هستند، میتوانند برای مدتهای طولانی در انتظار رسیدن به اهداف بمانند. مویز دراین رابطه یادآوری کرده که چنین موشکهای نیمه خودمختاری، معمولا با کنترل انسانی برروی تصمیمات کلیدی، مورد استفاده قرار میگیرند.
با افزایش تلفات جنگ در اوکراین، فشار برای دستیابی به مزایای تعیینکننده در میدان نبرد با بهرهگیری از سلاحهای کاملا خودمختار افزایش یافته است. چرا که رباتها میتوانند بدون نیاز به نظارت انسانی اهدافشان را انتخاب کرده و به آنها حمله کنند.
در ماه جاری میلادی، یک تولیدکننده مهم روسی اعلام کرد که برنامههایی برای رشد و توسعه نسخه جدیدی از رباتهای شناسایی را دارد؛ نوعی وسیلهنقلیه زمینی که با اتکا به آن میتوان نیروهای جنگی حاضر در اوکراین را تقویت کرد.
درعین حال پهپادهای کاملا خودمختار هم برای دفاع از تاسیسات انرژی اوکراین مورد استفاده قرار میگیرند.
از سوی دیگر میخایلو فدوروف، وزیر تحول دیجیتال اوکراین اعلام کرده که استفاده از سلاحهای کاملا خودمختار در جنگ، گام اجتنابناپذیر و منطقی آتی است و اخیرا یادآوری کرده که سربازان ممکن است در شش ماه آینده، چنین سلاحهایی را در میادین جنگ ببینند.
طرفداران سیستمهای تسلیحاتی کاملا خودمختار بر این باورند که این تکنولوژی، با دور نگاه داشتن سربازان از میادین جنگ، آنها را در مقابل خطرات محافظت میکند. درعین حال این امکان را فراهم میکند تا تصمیمات نظامی، با سرعتی فرا انسانی اتخاذ شده و قابلیتهای دفاعی به شدت بهبود خواهد یافت.
در حال حاضر سلاحهای نیمه خودکار، مثل مهمات سرگردان که اهداف را ردیابی کرده و خود را برروی آنها منفجر میکنند، به کمکهای انسانی نیز نیازمندند. این سلاحها اگرچه میتوانند اقداماتی انجام دهند، ولی به اپراتورهایی نیاز دارند تا روند عملیات را آغاز کنند.
از سوی دیگر، پهپادهای کاملا خودمختار که به اصطلاح" پهپادهای شکارچی" نامیده میشوند، حالا در اوکراین مستقر شدهاند. این پهپادها میتوانند در طول شبانهروز، هواپیماهای بدون سرنشین را رصد کرده و بدون مداخله اپراتور و سریعتر از سیستمهای تسلیحاتی کنترل شده توسط انسانها، آنها را غیرفعال کنند.
در این میان برخی منتقدان از جمله کمپین "توقف رباتهای قاتل" بیش از یک دهه است که برای ممنوعیت تحقیق و توسعه تسلیحات خودمختار تلاش میکنند. آنها آیندهای را میبینند که در آن سیستم سلاحهای خودمختار، مشخصا نه فقط برای هدف قراردادن وسایلنقلیه، زیرساختها و سایر سلاحها، بلکه برای هدف قراردادن انسانها طراحی شوند.
آنها معتقدند که تصمیمات زمان جنگ در مورد مرگ و زندگی، باید در دست انسانها باقی بماند و سپردن این تصمیمات به الگوریتمها، یک غیرانسانیسازی دیجیتالی خواهد بود.
این کمپین، همراه با دیدهبان حقوق بشر، بر این باورند که سیستم سلاحهای خودمختار، فاقد قضاوت انسانی لازم برای تمایز بین غیرنظامیان و اهداف نظامی قانونی است. آنها همچنین کنترل معنادار انسان برروی آنچه در میدان جنگ رخ میدهد را از بین میبرند.
این سازمانها معتقدند که سرمایهگذاریهای سنگین نظامی برروی سیستم سلاحهای خودمختار، از جمله در آمریکا، روسیه، چین، کرهجنوبی و اتحادیه اروپا، دنیا را وارد مسابقه تسلیحاتی گرانقیمت و ویرانگر جدیدی میکند و یکی از پیامدهای این اتفاق، میتواند این باشد که این فناوری جدید و خطرناک به دست تروریستها ودیگر افراد که خارج از کنترل دولتها هستند بیفتد.
مویز یادآوری کرد که قوانین بینالمللی در شرایط فعلی، چارچوب مناسبی برای درک مفهوم استقلال سلاحها تنظیم نکردهاند. مثلا چارچوب قانونی فعلی، مشخص نمیکند که آیا فرماندهان، مسئول تعیین اهداف برای سیستمهایی که استفاده میکنند هستند یا خیر و یا اینکه آیا آنها باید محدوده مکانی و زمانی را برای فعالیت این سیستمها تعیین کنند؟
او ادامه داد: «خطر اینجاست که هیچ مرز روشنی بین جایی که الان در آن هستیم و جایی که غیرقابل قبول بودن را پذیرفتهایم وجود ندارد.»
کمیته بینالمللی صلیب سرخ که متولی قوانین بشردوستانه بینالمللی است، تاکید کرده که تعهدات قانونی فرماندهان و اپراتورها را نمیتوان برعهده یک ماشین، الگوریتم یا سیستم تسلیحاتی قرار داد.
در حال حاضر انسانها، مسئولیت حفاظت از غیرنظامیان را عهدهدار هستند و با اطمینان از تناسب در استفاده از سلاحها برای اهداف نظامی، میکوشند تا خسارتهای جنگ را به حداقل برسانند.
اما اگر سلاحهای هوشمند مصنوعی در میادین جنگ مستقر شوند، چه کسی پاسخگوی مرگ افراد غیرنظامی خواهد بود؟ هنوز پاسخ شفافی برای این سوال مهم وجود ندارد.