«اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئوها و صداهای جعلی ساختهشده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته میشوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیبهایی را در ابعاد مختلف ملی یا جهانی به بار آورد. گزارش پیش رو که از نظر میگذرانید برگردان گزارش ساینس در خصوص جعل عمیق است.
جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی بهویژه برای افراد سرشناس به دردسری جدی تبدیل شده است.
به گزارش آنا؛ «اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئوها و صداهای جعلی ساختهشده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته میشوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیبهایی را در ابعاد مختلف ملی یا جهانی به بار آورد. گزارش پیش رو که از نظر میگذرانید برگردان گزارش ساینس در خصوص جعل عمیق است.
در محتواهای جعل عمیق از الگوریتمهایی استفاده میشود که با استفاده از تصویر یا صدای افراد نسخهای جعلی میسازند و صدایی را تولید میکنند که هرگز آن فرد به زبان نیاورده و یا ویدئویی از او میسازند که فرد هرگز در آن حضور نداشته است. ساخت محتوای جعل عمیق مدام ارزانتر و آسانتر میشود و به طور معمول همیشه در آستانه انتخابات مهم در کشورهای مختلف موج جدیدی از آن به راه میافتد. تهیه شواهد و مدارک تقلبی، ایجاد اطلاعات غلط برای تخریب سیاستمداران و افراد سرشناس، دستکاری اسناد مالی و فرستادن پیامهای متنی برای اهداف خلافکارانه از جمله کاربردهای مخرب فناوری جعل عمیق هستند.
اگرچه روایتهای نادرست در شبکههای اجتماعی سالهای سال مشکلساز بوده است، اما محتواهای ساختهشده با جعل عمیق آسیب جدیتری دارند. تصاویر و ویدئوها بیشتر از متنها در ذهن مخاطب باقی میمانند، قانعکننده به نظر میرسند و میتوان آنها را در سطح گسترده به اشتراک گذاشت.
محتوای جعل عمیق همچنین میتواند باعث عدم قطعیت شود، زیرا ممکن است افراد زیادی آن را باور کنند. با این حال، مطالعات نشان دادهاند که مردم در شناسایی جعل عمیق مهارت چندانی ندارند و اغلب نمیتوانند جعل را از واقعیت تشخیص دهند، به ویژه آنکه تشخیص صوتهای جعلی به مراتب سختتر از ویدئوهای جعلی است.
بیشتر مردم تصور میکنند که میتوانند ویدئوهای جعلی را به راحتی تشخیص دهند، اما این باور چندان دقیق نیست. بر اساس مطالعهای که در ژورنال آیساینس منتشر شد، ۲۱۰ داوطلب شرکتکننده در آزمایش تشخیص محتوای جعلی با نظارت هیئتی از دانشگاه آمستردام شرکت کردند و نتایج نشان داد که داوطلبان تنها در ۵۰ درصد از موارد توانستند ویدئوها و صداهای جعلی را تشخیص دهند.
تیجل گروتسوِیجرز (Tijl Grootswagers) عصبشناس محاسباتی از دانشگاه وسترن سیدنی میگوید: «عجیب نیست که فریب محتواهای جعلی را میخوریم چرا به ما آموزش ندادهاند که چگونه واقعیت و جعل را از یکدیگر تشخیص دهیم. این مهارت را نداریم.»
با این حال، به نظر میرسد که مغز از ویژگی شناسایی محتواهای جعلی برخوردار است. گروتسوِیجرز در آزمایشی از ۲۲ داوطلب خواست تا به تصویری جعلی از یک چهره مشهور نگاه کنند و سپس متوجه شد که وقتی افراد به آن تصاویر نگاه میکنند یک سیگنال الکتریکی متمایز در قشر بینایی آنها برانگیخته میشود که با سیگنال تولیدشده در هنگام نگاه کردن به تصویر واقعی متفاوت بود. یا این وجود، داوطلبان نتوانستند به درستی تشخیص دهند که کدام تصاویر واقعی هستند. دلیل این امر نامشخص است، اما شاید به دلیل تداخل سایر مناطق مغز با سیگنالهای قشر بینایی باشد، یا شاید این سیگنالها را تا کنون جدی نگرفته باشیم.
انتشار ویدئویی از تام کروز، بازیگر مشهور هالیوود که در سال ۲۰۲۱ به سرعت در شبکههای اجتماعی جهان دستبهدست شد نمونهای مشهور و بسیار نزدیک به واقعیت به نظر میرسید نمونهای معروف از ساخت ویدئو با فناوری جعل عمیق بود که واکنشهای زیادی را در تمام دنیا برانگیخت. در این ویدئو ابتدا یک بازیگر مشهور کمدی به نام بیل هیدر (Bill Hader) ادای تام کروز را درمیآورد و حرفهایی را از او نقل قول میکند و چند لحظه بعد با استفاده از فناوری جعل عمیق، چهره تام کروز را میبینیم که در حال گفتن همان حرفها و انجام همان اداها است. این تغییر چهره به حدی طبیعی انجام میشود که گویا واقعاً خود تام کروز است که دارد آن حرفها را میزند.
کریس اومه (Chris Ume) از حرفهایهای مشهور در حوزه جلوههای بصری که اِفکتهای بصری فوقالعادهای از تام کروز را در شبکه اجتماعی تیکتاک منتشر کرده است میگوید: «ساخت ویدئوهای جعل عمیق فقط با فشردن یک دکمه انجام نمیشود. این پیام مهم من برای مردم و علاقهمندان است؛ هر کلیپ کوتاه جعل عمیق هفتهها کار میبرد و سازندۀ آن باید به الگوریتم متن باز در نرمافزار «دیپ فیس لب» DeepFaceLab آشنایی کافی داشته باشد و کارکردن با ابزار ویرایش پیشرفتۀ ویدئو را نیز بداند. برای ساخت چنین ویدئوهایی، معمولاً از ترکیب جلوههای بصری (VFX) و تصاویر تولیدشده توسط کامپیوتر (CGI) استفاده میشود؛ در نهایت برای بهبود آن به سراغ ترفندهای جعل عمیق میرویم تا به ویدئویی کامل و بینقص برسیم.»
حالت غیرعادی صورت، حرکت غیرطبیعی صورت یا بدن، رنگهای غیرطبیعی، ویدئوهایی که با بزرگنمایی یا کوچکنمایی غیرعادی و عجیب به نظر میرسند، صداهای ناسازگار، نگاه ثابت و پلک نزدن افراد از جمله نشانههای احتمالی جعل عمیق در محتوای ویدئویی هستند.
وجود غلط املایی، جملاتی که نگارش طبیعی و روان ندارند یا اطلاعات آنها نادرست است، آدرس ایمیل مشکوک، عبارات و مفاهیمی که با لحن و گفتار فرستنده فرضی مطابقت ندارد و پیامهای خارج از متن که به هیچ بحث، رویداد یا موضوعی مرتبط نیستند در ردۀ شاخصهای شناسایی جعل عمیق متنی هستند. با این حال، با پیشرفت هوش مصنوعی، بعضی از این شاخصهای شناسایی دیگر به کار نمیآیند. برای مثال، ابزارهایی که پلک زدن طبیعی در تصویر ایجاد میکنند.
اگرچه جعل عمیق در بسیاری از موارد برای کارهای غیرقانونی و تقلب استفاده میشود، اما در صنایعی مانند فیلمسازی، هنر و ارتباط با مشتری نیز کاربردهای بسیار مفیدی دارد و میتواند در زمان و هزینههای برندها صرفهجویی کند. برای مثال، استفاده از این فناوری در پویانمایی شخصیتها و یا در فیلمهای دوبلهشده باعث میشود لب زدن بازیگران حین بیان دیالوگها، بسیار طبیعیتر به نظر برسد.