حاضرید تا یک بازی جذاب انجام دهید؟ کار راحت است؛ فقط قرار است تشخیص دهیم که کدام عکس، چهرهای واقعی انسان است و کدام تصویر توسط هوش مصنوعی خلق شده است.
هوش مصنوعی در سالهای اخیر پیشرفتهای چشمگیری داشته و روز به روز تشخیص اینکه چه چیزی توسط هوش مصنوعی ساخته شده سخت و سختتر میشود. حالا در همین راستا ما شما را به یک چالش دعوت میکنیم. میخواهیم ده تصویر که هر یک از دو عکس متفاوت تشکیل شده را برایتان به نمایش بگذاریم.
در هریک از این ده تصویر، یکی واقعی است و دیگری توسط هوش مصنوعی خلق شده و قرار است شما تشخیص دهید که کدامیک واقعی و کدامیک فیک است. در مورد هر تصویر، حدستان را روی کاغذ بنویسید؛ پاسخ درست در ادامه مقاله قرار گرفته است تا بتوانید به خودتان امتیاز دهید. پس شروع میکنیم:
تصویر یک
تصویر دو
تصویر سه
تصویر چهار
تصویر پنج
تصویر شش
تصویر هفت
تصویر هشت
تصویر نه
تصویر ده
پاسخها:
تصویر ۱- باور کنید یا نه، تصویر سمت راست واقعی است.
تصویر ۲- دوباره تصویر سمت راست واقعی است.
تصویر ۳- این بار سمت چپ واقعی است. درست حدس زدید؟
تصویر ۴- عکس سمت راست واقعی است. حدس زدن این آسان بود.
تصویر ۵- هردوی این عکسها فیک و ساخته هوش مصنوعی هستند
تصویر ۶- هر دوی این عکسها واقعی هستند
تصویر ۷- عکس سمت چپ، یک عکس واقعی است.
تصویر ۸- تصویر سمت راست، تصویری واقعی است.
تصویر ۹- هردوی این عکسها ساخته هوش مصنوعی هستند.
تصویر ۱۰- عکس سمت چپ، عکس واقعی است.
چطور حدس زدید؟ حتی اگر شانسی هم حدس زده باشید، احتمالا ۵۰% انتخابهایتان درست بوده. اگر برای تشخیص تصاویر واقعی سختی زیادی کشیدید، احساس ناامیدی نکنید؛ طبیعتا شما تنها نیستید. چرا که تصاویر تولید شده توسط هوش مصنوعی، به ویژه تصاویری از چهره انسانها، به شکل حیرتانگیزی دقیق هستند و تشخیص آنها به طرز عجیبی سخت شده است.
آن تصاویری که دیدید و توسط هوش مصنوعی ایجاد شدهاند، توسط وب سایت ThisPersonDoesNotExist.com ساخته شدهاند. هر زمان که این وب سایت را بهروزرسانی کنید، یک تصویر تصادفی که توسط هوش مصنوعی ایجاد شده را به شما نشان میدهد و به شکل شگفتانگیزی تشخیص این چهرهها سرگرم کننده و درعین حال دشوار است.
همانطور که مشاهده کردید، این چهرههای جعلی کاملا واقعی و متقاعد کننده هستند. آنقدری که بسیاری از متخصصان این رشته هم نگران چنین پدیدهای شدهاند. در حالی که این چهرهها واقعا هیجانانگیزند، ولی نگران کننده اینجاست که میتوان از این چهرههای جعلی، برای فریب دادن افراد استفاده کرد. با وجودی که مغز ما برای دریافت بسیاری از اطلاعات غیرصوتی از چهره افراد تکامل یافته، اما این امکان وجود دارد که در تشخیص واقعی بودن چهرههای تولید شده توسط هوش مصنوعی به دردسر بیفتیم.
شواهد علمی حکایت از آن دارد که اکثر مردم در شناسایی این چهرههای جعلی تولید شده توسط هوش مصنوعی به مشکل برمیخورند. به عنوان مثال، مطالعه منتشر شده در سال ۲۰۲۲ در مجله Proceedings of the National Academy of Sciences، آزمایشی مشابه، اما بسیار گستردهتر از آنچه که شما انجام دادید، بود و در آن نشان داده شد که اکثر مردم در تشخیص تصاویر چهرههای واقعی و فیک به مشکل برمیخورند.
در آن زمان نیو ساینتیست در گزارشی به این نکته اشاره کرد که دو محقق به نامهای سوفی نایتینگل و هانی فرید، مطالعهای را با ۳۱۵ شرکتکننده که از یک وبسایت انتخاب شده بودند انجام دادند. آنها از شرکتکنندگان خواستند تا بین ۸۰۰ عکس که ۴۰۰ تا واقعی و ۴۰۰ تا ساختگی بودند، عکسهای واقعی را تشخیص دهند. عکسها به مجموعهای ۱۰۰ نفری از هریک از چهار گروه قومی سفید پوست، سیاه پوست، آسیای شرقی و جنوب آسیا تعلق داشت.
از یک گروه ۱۷۶ نفری، تنها ۴۸.۲% افراد توانستند چهرههای رایانهای را به شکلی دقیق شناسایی کنند و گروه دیگر که متشکل از ۲۱۹ شرکتکننده بود، بعد از پشت سرگذاشتن دوره آموزشی تشخیص چهرههای تولید شده توسط کامپیوتر، توانستند با دقت ۵۹% چهرههای ساختگی را تشخیص دهند.
نایتنیگل به این نکته اشاره کرد که تفاوت در میزان دقت بین دو گروه ناچیز بوده است. در این بررسی مشخص شد که تشخیص واقعی یا ساختگی بودن چهرههای سفید بسیار سخت است؛ چرا که نرمافزار هوش مصنوعی برروی تعداد زیادی از چهرههای سفید آموزش دیده و همین باعث شده تا در تولید تصاویر ساختگی چهرههای سفید پوست، بیش از هر قومیت دیگری دقیق عمل کند.
محققان درعین حال در مطالعه دیگری، مجموعهای از چهرهها را در اختیار ۲۲۳ شرکتکننده قرار داده و از آنها خواستند تا میزان قابل اعتماد بودن چهرهها را در مقیاس یک تا هفت رتبهبندی کنند.
نتایج نشان داد که چهرههای جعلی به طور متوسط ۸% قابل اعتمادتر از چهرههای واقعی درنظر گرفته میشوند. طبق گفته نایتنیگل، چهرههای جعلی بیشتر شبیه چهرههای معمولی انسان هستند که مردم بیشتر به آنها اعتماد میکنند.
تولید چهرههای ساختگی شامل آموزش یک شبکه عصبی عمیق است؛ یک سیستم کامپیوتری که نحوه یادگیری مغز را تقلید میکند.
این شبکه در حقیقت در معرض مجموعهای بزرگ از دادههایی از چهرههای واقعی قرار میگیرد تا شباهتها و تفاوتهای بین چهره افراد را درک کند. با استفاده از این دادهها، شبکه عصبی میتواند کپیهایی از این چهرهها را بسازد.
پروسه تولید چهرههای واقعی، شامل شبکههای متخاصم مولد یا به اختصار GAN است. اینها مثل دو شبکه عصبی عمیق هستند که با هم رقابت کرده و در همین مسیر، یک تصویر منحصر به فرد تولید میکنند که ویژگیهایی مشابه با تصاویر آموزش دیده شده دارد.
اگر به صورت سطحی به ماجرا نگاه کنید، هیچ خطر و دغدغهای وجود ندارد. اما مشکل کجاست؟ مشکل اینجاست که از آنجا که تدریجا تشخیص تصاویر ساختگی از تصاویر واقعی سخت و غیرممکن میشود، افراد ممکن است از این تصاویر برای فعالیتهای شرورانهای مثل انتقامگیری، سرقت هویت و یا کلاهبرداریهای قدیمی و مهندسی اجتماعی استفاده کنند.
به عنوان مثال چند سال قبل، یک پروفایل جعلی در Linkedin، با یک عکس ساخته شده توسط کامپیوتر تکمیل شد و بعد از ارتباط با مقامات دولتی آمریکا و چندین فرد سرشناس در این پلتفرم، به شدت مورد توجه قرار گرفت. کارشناسان ضدجاسوسی حالا ادعا میکنند که جاسوسان خارجی با بهرهگیری از چنین تصاویر جعلیای، دائما با پروفایلهایی ساختگی برای شناسایی اهداف بالقوه در شبکههای اجتماعی وارد عمل میشوند.
دیگر مشکل بزرگ اینجاست که این چهرههای جعلی به شکلی فزاینده در فرهنگ روزمره ما رایج شدهاند. در نتیجه، متخصصان این رشته باور دارند که میبایست بیشتر مراقب نحوه استفاده از آنها در بازاریابی، تبلیغات و رسانههای اجتماعی باشیم. به علاوه این تصاویر اغلب برای اهدافی مثل تبلیغات سیاسی، جاسوسی و جنگ اطلاعاتی که به قصد تضعیف نهادها انجام میشوند، مورد استفاده قرار میگیرند.
چه باید کرد؟
نایتینگل ادامه داد: «ما به دستورالعملهای اخلاقی سختگیرانهتر و چارچوبهای قانونی بیشتری نیاز داریم؛ چرا که به ناچار افرادی هستند که از این تصاویر برای آسیبرسانی استفاده میکنند و این نگرانکننده است.»
او پیشنهاد کرد که متخصصان برای کاهش این خطرات، به تصاویرشان watermark اضافه کرده و آنها را به عنوان تصاویر جعلی علامتگذاری نمایند. پیشنهاد دیگر، تقویت و اضافه کردن الگوریتمهای پیشرفته تشخیصی در پلتفرمهای رسانههای اجتماعی است. استفاده از تکنیکهایی مثل جستجوی معکوس عکسها هم میتواند برای عموم جامعه موثر باشد.
افزایش استفاده از فناوریهای هوش مصنوعی از جمله تولید تصاویر GAN احتمالا در سالهای آینده سرعت چشمگیری خواهد داشت. از همین رو افزایش آگاهی مردم در مورد اینکه چقدر عملکرد مغز ما در تشخیص جعلی و یا واقعی بودن تصاویر ناامید کننده است، ضروری به نظر میرسد.
این در حالی است که احتمالا به زودی روشهایی فنی یا قانونی برای علامتگذاری تصاویر ساختگی توسعه خواهد یافت، ولی احتمالا برای یک مدت زمان نامعلوم، این یک مسابقه تسلیحاتی خواهد بود و تا زمانی که ما در این نبرد پیروز نشده باشیم، باید این ضربالمثل را مدنظر داشت که: "هرآنچه که میدرخشد، طلا نیست."