این روزها اتفاقهای حیرتآوری در دنیای هوشمصنوعی در جریان است که البته همه آنها خوب نیستند. حالا همه در مورد سیستمهایی مثل ChatGPT صحبت میکنند؛ سیستمی که میتواند متنی را تولید کنند که گویا یک انسان آن را خلق کرده. شاید استفاده از این سیستم، سرگرمکننده و بامزه به نظر برسد؛ ولی جوانب منفی متعددی نیز دارد؛ چرا که در شرایطی که این سیستم در تقلید سبک کاری انسانها بسیار خوب است، اما از نکات منفی آن نیز نباید غافل شد که از این جمله میتوان به احتمال استفاده از چتباتها برای تولید انبوهی از اطلاعات نادرست اشاره کرد.
سیستمهایی مثل ChatGPT حسابی سرگرمکننده و جذاب هستند؛ ولی درعین حال غیرقابل اعتماد به شمار میروند و حتی ممکن است حجم بالایی از اطلاعات نادرست را ایجاد کنند.
به گزارش خبرآنلاین به نقل از ساینتیفیکامریکن، این روزها اتفاقهای حیرتآوری در دنیای هوشمصنوعی در جریان است که البته همه آنها خوب نیستند. حالا همه در مورد سیستمهایی مثل ChatGPT صحبت میکنند؛ سیستمی که میتواند متنی را تولید کنند که گویا یک انسان آن را خلق کرده.
شاید استفاده از این سیستم، سرگرمکننده و بامزه به نظر برسد؛ ولی جوانب منفی متعددی نیز دارد؛ چرا که در شرایطی که این سیستم در تقلید سبک کاری انسانها بسیار خوب است، اما از نکات منفی آن نیز نباید غافل شد که از این جمله میتوان به احتمال استفاده از چتباتها برای تولید انبوهی از اطلاعات نادرست اشاره کرد.
از دیگر نقاط ضعف این سیستمها میتوان از غیرقابل اعتماد بودن آنها صحبت کرد که اشتباهات زیادی در زمینه استدلال و واقعیتها دارند. از نظر تکنیکی، این سیستمها عملا مدلهایی از توالی کلمات هستند (یعنی به نحوه استفاده مردم از زبان برمیگردد) و مدلهایی که دنیا از آنها بهره میبرند نیستند.
البته معمولا کارکردشان درست است؛ چون زبان، بازتابی از دنیاست، ولی در عین حال این سیستمها، درباره جهان و نحوه عملکرد آن استدلال نمیکنند و همین باعث میشود که دقت گفتار آنها تا حدودی تصادفی باشد. آنها عملا همه چیز را از حقایق عملیات ضرب در دنیای ریاضی گرفته تا جغرافی (اینکه مصر کشوری بین دو قاره آفریقا و آسیاست) را سرهم بندی میکنند.
این حکایت از آن دارد که این سیستمها، کاملا مستعد این هستند که خطاهای حسی داشته باشند و چیزهایی را بگویند که از نظر شنیداری معقول و منطقی به نظر میرسد، ولی واقعیت اینگونه نیست.
مثلا اگر از چنین سیستمهایی بخواهید تا دراین باره که "چرا ظرف چینی شکسته برای شیر مادر مفید است" توضیح بدهد، ممکن است این جواب را دریافت کنید: «ظرف چینی میتواند به تنظیم محتوای مغذی موجود در شیر کمک کرده و مواد مغذی لازم برای رشد و پرورش نوزاد را فراهم آورد.»
به این خاطر که این سیستمها عملکردی تصادفی دارند و به متن بسیار حساسند و بهصورت دورهای به روز میشوند، هر آزمایش و تجربهای ممکن است در شرایط مختلف، نتایج مختلفی را به همراه داشته باشد.
Open AI که ChatGPT را ایجاد کرده، دائما در تلاش است تا این مشکل را برطرف کند، ولی همانطور که مدیرعامل Open AI در توئیتی اعلام کرده، پایبندی هوش مصنوعی به حقایق و واقعیتها یک دغدغه جدی است.
چون این سیستمها به معنای واقعی کلمه هیچ مکانیزمی برای چک کردن صحت و سقم چیزهایی که میگویند، ندارند و ممکن است به راحتی از آنها برای تولید اطلاعات اشتباه در ابعادی باورنکردنی استفاده شود.
شاون اوکلی، یک محقق مستقل به این نکته اشاره کرده که به سادگی میتوان از ChatGPT برای ایجاد اطلاعات نادرست و حتی گزارشهای مطالعاتی پیچیده در طیف وسیعی از موضوعات، از پزشکی گرفته تا سیاست و دین استفاده کرد.
او از ChatGPT خواسته تا گزارشی درباره واکسنها، به سبک اطلاعات نادرست بنویسد. سیستم هم با اشاره به تحقیقی که گزارش آن در ژورنال اتحادیه پزشکی آمریکا منتشر شده، اینگونه پاسخگو شده که واکسن کووید ۱۹، تنها برای ۲ نفر از هر ۱۰۰ نفر مفید و موثر بوده.
این درحالی است که هرگز چنین گزارشی منتشر نشده و هم منبع ژورنال و هم آمار جعلی بوده.
این رباتها برای کار کردن، اصلا هزینهبر نیستند و هزینه ایجاد اطلاعات نادرست را نیز به صفر میرسانند.
سایت Stack Overflow که سایت قابلاعتمادی برای پرسش و پاسخ کاربران برنامهنویسی است، توسط ChatGPT به فعالیت میپرداخت. اما این سایت در نهایت مجبور شد تا ممنوعیت موقت برای پاسخهای ایجاد شده توسط ChatGPT اعمال کند.
آنها در توضیحی دراین باره گفتند: «در مجموع به دلیل پائین بودن نرخ پاسخهای درست در ChatGPT، باید به این نکته اشاره کرد که پاسخهای ارائه شده توسط این سیستم برای سایت و کاربرانی که پرسشهایی مطرح کرده و به دنبال پاسخ صحیح هستند، واقعا مضر است.»
این مشکل آنها را حسابی به دردسر انداخت؛ چرا که دریافتند که اگر سایت مملو از مثالها و کدهای بیارزش و نادرست باشد، برنامه نویسها دیگر به این سایت سرنخواهند زد و پایگاهدادههای سایت که حاوی بیش از ۳۰ میلیون پرسش و پاسخ است، بیارزش خواهد شد و درنتیجه وبسایتی که عمری ۱۴ ساله دارد، از بین خواهد رفت.
از آنجا که این وبسایت یکی از قابل اعتمادترین منابع برای برنامهنویسان در سراسر جهان است، دریافت که عواقب این اتفاق بر کیفیت نرمافزار و بهرهوری توسعهدهندگانش بسیار زیاد خواهد بود.
البته آنها ممکن است بتوانند کاربرانشان را وادار به توقف داوطلبانه بکنند. ولی Stack Overflow در توئیتر، فیسبوک و دیگر شبکههای اجتماعی حضور ندارد و از همین رو کنترل کمی بر روی انتشار اطلاعات نادرست خواهد داشت.
مثالها در مورد موضوع اطلاعات نادرست و مخرب زیاد است؛ اما در این میان یک سوال کلیدی مطرح میشود؛ جامعه بشری در مقابل این تهدید جدید چه میتواند بکند؟
در این شرایط که خود تکنولوژی دیگر نمیتواند جلودار خودش باشد، چهار راهکار مطرح میشود که هیچیک ساده و اختصاصی نیست، ولی واقعا ضروری و حیاتی به نظر میرسند.
اول اینکه هر کمپانی، شبکههای اجتماعی و موتورهای جستجو باید از ممنوعیت StackOverflow پشتیبانی کنند: تولید محتوای خودکار که گمراهکننده است باید حذف شود و باید روی تکتک این قبیل اطلاعات، لیبل "اطلاعات نادرست" بخورد.
دوم اینکه هر کشور باید در سیاستهای خود درباره تنظیم اطلاعات نادرست که بهصورت گسترده توزیع میشود، تجدید نظر کند.
اگر شرایط بدتر شود، ممکن است مجبور شویم که تا حدودی با اطلاعات نادرست بهسان تهمت و افترا رفتار کنیم: یعنی دستهبندی خاصی برای گفتارهایی که از نظر قانونی قابل عمل هستند ایجاد کرده و تمامی دادهها را بررسی کنیم که آیا با سوءنیت ایجاد شدهاند و آیا مضر هستند یا خیر؟
مورد سوم که منشا آن در حال حاضر مهمتر از هرزمان دیگری است این است که حسابهای کاربری باید با جدیت فراوانی مورد بررسی قرار گرفته و تائید شوند و سیستمهای جدیدی مثل هاروارد و human-ID.org موزیلا که امکان احراز هویت افرادناشناس را فراهم کرده و مانع از فعالیت رباتها میشوند، باید اجباری شوند؛ و نکته چهارم اینکه باید به دنبال آن باشیم تا سبک جدیدی از هوشمصنوعی را بسازیم تا با هرآنچه منتشر میشود مبارزه کند.
مدلهای زبانی بزرگی هستند که اطلاعات نادرست زیادی را تولید میکنند. چون آنها دقیقا میدانند که زبانها به چه ترتیب هستند، ولی هیچ شناختی از واقعیت ندارند و در مبارزه با اطلاعات نادرست ضعیف عمل میکنند.
این بدان معناست که ما به ابزارهای جدیدی نیاز داریم. مدلهای زبانی بزرگ، از نظر مکانیزمهایشان برای شناسایی واقعیات ضعیف هستند؛ چون هیچ راهکاری برای استدلال یا تائید آنچه انجام میدهند ندارند. ما باید به دنبال راهکارهای جدیدی باشیم تا این مدلها را با ابزارهایی مثل هوشمصنوعی کلاسیک، مثل دیتابیسها و شبکههای دانش و استدلال ادغام کنیم.