bato-adv
bato-adv

هشدار سازمان ملل در مورد استفاده مخرب از «جعل عمیق»

هشدار سازمان ملل در مورد استفاده مخرب از «جعل عمیق»

برخی تصاویر جعل عمیق شده تاکنون چندین بار خبرساز و فراگیر شده‌اند، مانند ویدیویی که نشان می‌داد ولودیمیر زلنسکی رئیس‌جمهور اوکراین به کشورش می‌گوید تسلیم روسیه شوند یا کلیپی از ایلان ماسک که برای تبلیغ سرمایه‌گذاری و البته برای کلاهبرداری بود.

تاریخ انتشار: ۱۵:۲۱ - ۳۱ ارديبهشت ۱۴۰۲

مشاور هوش مصنوعی در سازمان ملل متحد در مورد استفاده مخرب از فناوری جدید جعل عمیق (دیپ فیک) که در آن، هوش مصنوعی می‌تواند تصاویر غیر واقعی، اما بسیار نزدیک به واقعیت تولید کند، هشدار داد و گفت که سیاستگذاران باید برای محافظت از مردم بیشتر تلاش کنند.

به گزارش ایسنا و به نقل از سی‌ان‌ان، یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعل‌های عمیق واقعی‌تر هشدار داد.

نیل ساهوتا (Neil Sahota) کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت می‌کند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است. دیپ فیک‌ها تصویری آینه‌ای از دوقلو‌های دیجیتال هستند، به این معنی که بدون اجازه شخص و معمولا برای اهداف مخرب و برای فریب دادن کسی، یک ماکت دیجیتالی از وی ایجاد می‌شود.

برخی تصاویر جعل عمیق شده تاکنون چندین بار خبرساز و فراگیر شده‌اند، مانند ویدیویی که نشان می‌داد ولودیمیر زلنسکی رئیس‌جمهور اوکراین به کشورش می‌گوید تسلیم روسیه شوند یا کلیپی از ایلان ماسک که برای تبلیغ سرمایه‌گذاری و البته برای کلاهبرداری بود.

اما فقط افراد مشهور در معرض خطر نیستند. شهروندان عادی نیز می‌توانند تحت تأثیر این فناوری قرار گیرند.

ساهوتا گفت: ما داستان‌های افراد مشهور را می‌شنویم و در واقع می‌توان آن را روی هر کسی انجام داد. دیپ فیک در واقع با فیلم مستهجن انتقام جویانه شروع شد. شما واقعا باید مراقب باشید.

ساهوتا افزود که راه تشخیص محتوا‌های دستکاری شده از طریق ویدئو و صدایی است که قطع می‌شوند.

وی گفت: شما باید یک چشم هوشیار داشته باشید. اگر با یک ویدئو مواجه هستید، باید به دنبال چیز‌های عجیب و غریب مانند زبان بدن، سایه‌های عجیب و غریب و این نوع چیز‌ها باشید. در مورد صدا نیز باید بپرسید آیا فرد چیز‌هایی می‌گوید که به طور معمول می‌گوید؟

ساهوتا همچنین استدلال کرد که در حال حاضر سیاست‌گذاران در زمینه آموزش مردم در مورد خطرات فراوان جعل عمیق و نحوه تشخیص آن‌ها به اندازه کافی تلاش نمی‌کنند. او توصیه کرد که یک سیستم تأیید محتوا پیاده‌سازی شود که از توکن‌های دیجیتال برای احراز هویت محتوا‌ها و شناسایی جعل‌های عمیق استفاده کند.

وی گفت: حتی افراد مشهور سعی می‌کنند راهی برای ایجاد یک تمبر قابل اعتماد، نوعی نشانه یا سیستم احراز هویت بیابند تا در صورت داشتن هر نوع تعامل غیر حضوری، راهی برای تأیید وجود داشته باشد. این چیزی است که در سطح سازمان ملل شروع به اتفاق افتادن کرده است. مثلاً اینکه چگونه مکالمات را احراز هویت کنیم یا صحت یک ویدیو را تایید کنیم؟

bato-adv
bato-adv
bato-adv