بعد از اینکه شرکت Samsung Semiconductor اجازه داد مهندسان این شرکت از ChatGPT برای کمک استفاده کنند، آنها شروع به استفاده از آن برای رفع سریع خطاها در کد منبع خود کردند و اطلاعات محرمانه مانند یادداشتهای جلسات داخلی و دادههای مربوط به عملکرد و بازده این شرکت به بیرون درز کرد.
پس از آنکه ایتالیا استفاده از ChatGPT را در داخل کشور ممنوع کرد، حالا نوبت به آلمان رسیده تا درباره این مدل زبانی هوش مصنوعی تصمیم بگیرد.
به گزارش همشهری آنلاین؛ از آنجا که بعضی از کارشناسان حوزههای مختلف نسبت به این پدیده شگفتانگیز ابراز نگرانی کردهاند، انتظار میرود که در آینده به تعداد کشورهایی که استفاده از این روبات چت را ممنوع کنند، اضافه شود. این نگرانیها اگرچه از سالها پیش نسبت به انواع مدلها و محصولات هوش مصنوعی وجود داشته، اما بهنظر میرسد که پس از انتشار یک نامه از سوی غولهای حوزه فناوری سیاستمداران را هم به تأمل واداشته است. روبات ChatGPT با استفاده از دیتای موجود در اینترنت میتواند به پرسشهای کاربران پاسخ دهد. در عین حال، در زمان چت میتواند به دیتاهای متفاوتی که از سوی کاربران، خواسته یا ناخواسته در اختیارش قرار میگیرد، دست یابد. شاید بزرگترین نگرانی در این میان، مسائل مربوط به حریم خصوصی و افشای اطلاعاتی باشد که امکان خطرآفرین بودن آن هم دور از ذهن نیست.
بعد از اینکه شرکت Samsung Semiconductor اجازه داد مهندسان این شرکت از ChatGPT برای کمک استفاده کنند، آنها شروع به استفاده از آن برای رفع سریع خطاها در کد منبع خود کردند و اطلاعات محرمانه مانند یادداشتهای جلسات داخلی و دادههای مربوط به عملکرد و بازده این شرکت به بیرون درز کرد.
تاکنون این شرکت ۳مورد استفاده از ChatGPT را ثبت کرده که منجر به نشت اطلاعات شده است. درحالیکه ممکن است ۳مورد زیاد بهنظر نرسد، اما همه آنها در طول ۲۰روز اتفاق افتاده که نشاندهنده وضعیت بسیار نگرانکنندهای است. در یک مورد، یکی از کارمندان سامسونگ کد منبع یک برنامه اختصاصی را برای رفع خطاها به ChatGPT ارسال کرد که اساسا کد یک برنامه فوق محرمانه را برای یک هوش مصنوعی که توسط یک شرکت خارجی اجرا میشد، فاش کرد.
مورد دوم شاید حتی نگرانکنندهتر بود، چراکه کارمند دیگری الگوهای آزمایشی را برای شناسایی تراشههای معیوب وارد و درخواست بهینهسازی کرد. توالیهای آزمایشی که برای شناسایی عیوب طراحی شدهاند کاملاً محرمانه هستند. همچنین کارمند دیگری از برنامه Naver Clova برای تبدیل صدای ضبط شده یک جلسه به متن استفاده کرد و سپس آن را برای تهیه یک «ارائه» به ChatGPT ارسال کرد.
ایتالیا نخستین کشور غربی بود که ChatGPT را بهعنوان یک روبات محبوب برای عموم مردم، مسدود کرد. پس از اینکه ChatGPT با اتهام نقض اطلاعات مربوط به مکالمات کاربران و اطلاعات پرداخت مواجه شد، دیدبان حفاظت از داده در ایتالیا اعلام کرد که تحقیقاتی را درباره شرکت OpenAI که سازنده این مدل زبانی هوش مصنوعی است، بهدلیل نگرانیهای مربوط به حفظ حریم خصوصی دادهها آغاز کرده است. حالا خبر رسیده که آلمان هم احتمالا به ایتالیا خواهد پیوست و ChatGPT را در این کشور مسدود خواهد کرد.
رئیس کمیته حفاظت از دادههای آلمان ادعا کرد که این کشور ممکن است با ممنوع کردن ChatGPT بهدلیل نگرانیهای امنیتی و اطلاعات شخصی از روش ایتالیا استفاده کند. اولریش کلبر، اعلام کرد که کشورش میتواند از ممنوعیت اخیر ChatGPT در ایتالیا پیروی و از همان روش استفاده کند. پس از آنکه آژانس حفاظت از دادههای ایتالیا تحقیقاتی را در مورد نقض مشکوک قوانین حریم خصوصی از سوی ChatGPT آغاز کرد، کلبر عنوان کرد که «در اصل، چنین اقدامی در آلمان هم امکانپذیر است». با این حال، از آنجا که آلمان دارای یک نظام سیاسی فدرال است، او صلاحیت تصمیمگیری در این مورد را در اختیار ایالتهای فدرال دانسته است.
بعضی از مسئولان معتقدند که در استفاده از فناوری ChatGPT باید جانب احتیاط را درنظر گرفت.
بهعنوان مثال، اورسولا پاچل، معاون سازمان مصرفکنندگان اروپا میگوید: «مصرفکنندگان برای این فناوری آماده نیستند. آنها متوجه نمیشوند که این چتبات چقدر میتواند فریبنده باشد.» اخیراً جو بایدن، رئیسجمهور آمریکا هم اعلام کرده که هوش مصنوعی میتواند برای کمک به حل چالشهای بزرگ مثل بیماریها و تغییرات اقلیمی مفید باشد، اما در عین حال باید پاسخی برای خطرات احتمالی علیه جامعه، اقتصاد و امنیت ملی هم داشته باشد. این در حالی است که ظهور هرگونه فناوری جدیدی با نگرانیهایی توأم بوده است.
انسان پس از ظهور هر تکنولوژی تلاش کرده با وضع قوانین و آگاهی بخشی به مردم از مخاطرات فناوری بکاهد. به همینخاطر است که بیل گیتس، بنیانگذار مایکروسافت، درباره نامه سرگشادهای که هفته گذشته منتشر و بحثبرانگیز شد، اعلام کرده که بهتر است همه تمرکز خود را بر چگونگی استفاده از پیشرفتهای هوش مصنوعی بگذاریم. او میگوید: «درک نمیکند که توقف توسعه این فناوری چطور میتواند به جهان کمک کند. فکر نمیکنم درخواست از یک گروه برای توقف توسعه چالشی را حل کند. واضح است که مزیتهای بزرگی در استفاده از این ابزارها وجود دارد. کاری که باید بکنیم شناسایی بخشهایی است که نیاز به رسیدگی بیشتر دارند.»
خبرها حاکی از تماس سازمانهای حفاظت از حریم خصوصی دادههای سایر کشورهای اتحادیه اروپا مانند فرانسه و ایرلند با رگولاتورهای ایتالیایی بهمنظور گفتگو درباره یافتههای آنهاست. سخنگوی کمیته حفاظت از دادههای ایرلند (DPC) در گفتگو با رویترز میگوید: ما در حال مذاکره با رگولاتورهای ایتالیایی هستیم تا علت و اساس اقدام آنها را بفهمیم.
آنطور که این مقام ایرلندی اعلام کرده، درباره این موضوع با همه مسئولان حفاظت از داده اتحادیه اروپا هماهنگ خواهیم بود.
درواقع، پس از تصمیم ایتالیا برای محدود کردن دسترسی به این روبات چت، سازمان مصرفکنندگان اروپا (BEUC) از همه مسئولان این اتحادیه خواسته که همه چت روباتهای اصلی هوش مصنوعی را بررسی کنند.
این در حالی است که ChatGPT اکنون در تعدادی از کشورها ازجمله چین، ایران، کرهشمالی و روسیه غیرقابل دسترسی است.