ترس از فناوری هوش مصنوعی در را به روی موجی از کلاهبرداری های جدید باز می کند. رئیس بانک انگلستان خواستار واکنش فوری به منظور مقابله با این تهدید شده است. روسای شرکت های برتر هوش مصنوعی درباره ناکافی بودن اقدامات ایمنی در نظر گرفته شده ابراز نگرانی کرده اند.
فرارو- مقام های بانک انگلستان به قدری نگران کلاهبرداری های از طریق فناوری مبتنی بر هوش مصنوعی در بریتانیا هستند که هفته گذشته میزبان یک نشست فوری با حضور نمایندگان بانک های بزرگ و شرکتهای فناوری بودند. بانکهای پیشرو و کارشناسان پیشگیری از کلاهبرداری از این بیم دارند که فناوری پیشرفته مذکور بتواند راه را به روی موجی از کلاهبرداریهای جدید باز کند. "اندرو بیلی" رئیس بانک انگلستان آن جلسه را با هشدار دادن درباره خطرات فزاینده فناوری پیشرفته برای آینده مالی خانوارهای بریتانیایی آغاز کرد و خواستار واکنش فوری برای مقابله با این تهدید شد.
به گزارش فرارو به نقل از دیلی میل؛ در آن نشست پرسش هایی از مدیران گوگل و Open AI شرکت سازنده چت جی پی تی (Chat GPT) و یکی از بنیانگذاران ان ایلان ماسک و غول رسانه های اجتماعی متا که صاحب فیس بوک، اینستاگرام واتس آپ است در مورد اقدامات ایمنی در نظر گرفته شده توسط آنان برای جلوگیری از افتادن نرم افزارهای شان به دست افراد ناباب که انگیزه ارتکاب جرم دارند پرسش هایی مطرح شد.
در آن جلسه به نمایندگان شرکت های فناوری هشدار داده شد که کلاهبرداری ها "بسیار پیچیده تر" می شوند اما اشاره شد که بریتانیا هنوز دریچه و فرصتی برای تقویت دفاع خود در برابر چنین اقدامات مجرمانه ای دارد. بر اساس گزارش سازمان تجاری UK Finance بریتانیا با سونامی کلاهبرداری دست و پنجه نرم می کند که سال گذشته بیش از 1.2 میلیارد پوند برای مصرف کنندگان هزینه به همراه داشته است.
با این وجود، تعداد حملات ممکن است به زودی از کنترل خارج شود زیرا مجرمان شروع به استفاده از هوش مصنوعی برای پیچیده تر کردن عملیات خود می کنند. "آنتونی براون" یکی از نمایندگان پارلمان بریتانیا در آن جلسه اشاره کرد که کلاهبرداری های مبتنی بر هوش مصنوعی در راه هستند. او گفت:"دولت خطرات مرتبط با هوش مصنوعی را بسیار جدی می گیرد. این به وضوح تهدیدی است که باید برای آن آماده شویم". بانک های بریتانیا استقرار تعداد زیادی چت بات مجهز به هوش مصنوعی برای مقابله با کلاهبرداری را آغاز کرده اند.
گروهی متشکل از بانک ها، شرکتهای فناوری و مخابراتی در حال اجرای آزمایشی پروژه ای برای جمعآوری اطلاعات در مورد کلاهبرداران هستند. مجرمان از چت بات ها برای فریب دادن قربانیان و جعل هویت مقام ها یا نمایندگان شرکت ها و بانک های مورد اعتماد استفاده می کنند. مجرمان از چت بات ها می خواهند پیام های انسانی را تقلید کنند. چت بات ها می توانند پیام هایی را در پلتفرم های رسانههای اجتماعی ارسال کنند که واقعی به نظر میرسند و قربانیان را فریب دهند تا پول یا اطلاعات شخصی خود را با تظاهر به فردی که می شناسند و به آن اعتماد دارند تحویل دهند. این چت بات ها به مجرمان اجازه می دهند تا عملیات خود را افزایش دهند و تعداد زیادی از آن ها به طور همزمان برای چندین قربانی پیام ارسال می کنند. با این وجود، چت بات های بانک ها قرار است با آنان مقابله کنند و این به معنای فرصتی برای به تاخیر انداختن چت بات های به منظور ایجاد اختلال در عملکرد مجرمان است. ممکن است در نهایت دو چت ربات هوش مصنوعی با یکدیگر صحبت کنند یکی توسط بانک ها و دیگری توسط مجرمان کنترل می شوند و می توانند وقت یکدیگر را تلف کنند. این یک بازی اعداد است. کلاهبرداران میتوانند بخشهای بزرگی از فرآیند را که پیش تر مجبور بودند برای اجرای آن از یک انسان استفاده کنند خودکار نمایند. این بدان معناست که تعداد حملات افزایش خواهد یافت.
از آنجا که آن ها می توانند پیام های انسانی را تقلید کنند، مجرمان از چت بات ها برای دستکاری قربانیان و جعل هویت مقام ها یا شرکت های مورد اعتماد استفاده می کنند. "الکس وست" مدیر تحقیقات و کلاهبرداری های بانکی در PwC که نتایج تحقیقاتی را در اجلاس هوش مصنوعی در بانک انگلستان ارائه کرده می گوید این فناوری مجموعه ای قدرتمند از ابزارها را برای شناسایی کلاهبرداری ها و ردیابی کلاهبرداران ارائه می دهد.
او می افزاید:"ابزارهای مبتنی بر هوش مصنوعی می توانند توسط کلاهبرداران برای کلاهبرداری های بسیار متقاعدکننده استفاده شوند. پیام های تولید شده توسط هوش مصنوعی، صداهای شبیه سازیشده و ویدئوهای جعلی به طور فزاینده ای برای فریب دادن افراد مورد استفاده قرار می گیرند. برای هر ابزار مبتنی بر خوش مصنوعی موجود در وب جهانی نسخه های مجرمانه وجود دارد. مجرمان به سرعت با هوش مصنوعی سازگار شده اند. این یک نبرد دائمی است و ما باید تلاش کنیم تا هوش مصنوعی مان همواره بهتر از کلاهبرداران باشد".
کلاهبرداران می توانند از هوش مصنوعی به روش های مختلفی برای فریب دادن هدف خود استفاده کنند و معمولا از طریق پلتفرم های رسانه های اجتماعی این کار را انجام می دهند. یکی از سریع ترین تکنیک هایی که توسط کلاهبرداران استفاده میشود استفاده از نرمافزار آنلاین ارزان برای شبیه سازی صدا است. آنان با انجام این کار می توانند هویت یکی از عزیزان یا دوستان خانواده خود را جعل کنند و قربانیان ناآگاه را برای تحویل پول خود فریب دهند. برای مثال، مجرمان ممکن است با استفاده از صدای شبیه سازی شده تماس تلفنی برقرار کنند تا به نظر برسد که یکی از عزیزان در مشکل است و به کمک مالی نیاز دارد. بر اساس تحقیقات شرکت ضد ویروس McAfee تنها چیزی که ابزارهای مبتنی بر هوش مصنوعی نیاز دارند سه ثانیه از صدا یا ویدئوی ضبط شده است تا صدای دیگران را تقلید و تکرار کنند.
هر کسی می تواند یک صدا را شبیه سازی کند و می تواند متنی را که می خواهد صدا در یک کلیپ صوتی بگوید دیکته کند. برای مثال، Play.Ht یک استارت آپ تولید کننده صدای مبتنی بر هوش مصنوعی به شما این امکان را می دهد که صدای یک نفر را با استفاده از یک کلیپ صوتی 30 ثانیه ای شبیه سازی کنید یا از صدای هوش مصنوعی موجود استفاده نمایید. طیف صداها با هوش مصنوعی تولید می شوند اما واقع بینانه هستند و می توان آن ها را به گونه ای تنظیم کرد که تقریبا به هر زبانی در جهان صحبت کند. هنگامی که یک کلیپ صوتی را آپلود کردید کلماتی را که می خواهید صدای شبیه سازی شده بیان کند در یک تکست باکس یا جعبه متن می نویسید. پس از اندکی انتظار می توانید یک کلیپ صوتی جدید از صدای گفتن آن را پخش و دانلود کنید. این فناوری به قدری پیشرفته می شود که می توانید احساسات صدا را تحریک کنید: برای مثال، شاد، غمگین یا نگران به نظر برسید.
طبق تحقیقات McAfee این کلاهبرداری در حال حاضر به بریتانیا راه یافته است. در اکثر موارد کلاهبردار می گوید دچار سانحه رانندگی شده و به پول نیاز دارد. داده های قابل اعتمادی در مورد کلاهبرداری های صورت گرفته با استفاده از شبیه سازی صوتی مبتنی بر هوش مصنوعی در اختیار نیست زیرا اکثر افراد متوجه نمی شوند که از هوش مصنوعی استفاده شده است. با این وجود، در بریتانیا 82 مورد کلاهبرداری از طریق هوش مصنوعی در فاصله ماه مه 2019 تا آگوست 2023 میلادی گزارش شده است.
هوش مصنوعی می تواند به روش های مختلفی برای هدف قرار دادن مشتریان مورد استفاده قرار گیرد. در نتیجه بسیار اهمیت دارد که مصرف کنندگان پیش از پرداخت هایی که ممکن است غیرعادی به نظر برسد تامل کرده و پرداخت را انجام ندهند. هر زمان که ویدئویی را تماشا می کنید یا تماسی تلفنی دریافت کرده اید تمرکز بر آن چه گفته می شود تمرکز کنید. اگرچه این ویدئوها و تماس های تلفنی واقعی به نظر میرسند اما بسیاری از محتواها توسط فناوری مبتنی هوش مصنوعی ساخته شده اند. بنابراین، با دقت گوش کنید و سعی کنید رمزگشایی کنید که آن چه بیان می شود آیا واقعا شبیه چیزی است که یک انسان می گوید یا خیر.