اگر دربارهChatGPT، ابزار هوش مصنوعی که این روزها طرفداران زیادی پیدا کرده، سوالی بپرسید جوابهایی که میگیرید فیالبداهه، قطعی و اغلب اشتباهند. ChatGPT که اخیرا نقل مجالس شده، یک چتبات «پاسخگو» است که میتواند در گفتوگوها به سوالات پیچیده مخاطب پاسخ دهد.
نسل جدید ماشین پاسخگو تحت عنوان ChatGPT، قدرتنمایی جدیدی از هوش مصنوعی را آغاز کرده، اما باعث نگرانی کارکنان در جهان شده است. لیستهایی از مشاغل، تهیه شده که با فعالیت این چتبات جدید -که قادر است به پیچیدهترین پرسش انسان، پاسخ تحلیلی دقیق بدهد- از بین خواهند رفت. مقابل این نگرانی، مهارت مدیران برای «تطبیق محیط کار با تکنولوژی جدید» قرار دارد.
به گزارش دنیا اقتصاد، طی هفتههای اخیر، انتشار ChatGPT در میان خورههای تکنولوژی سر و صدای زیادی به پا کرده است. این چتبات که یک ابزار پرسش و پاسخ مبتنی بر هوش مصنوعی است، به سوالات کاربر در طیف وسیعی از زمینهها، به شکلی دقیق، شمرده و در قالب متن پاسخ میدهد. پاسخها بسیار مشابه با پاسخ انسان هستند. به باور بسیاری از کارشناسان، این ابزار که توسط شرکت OpenAI توسعه یافته، انقلابی در حوزه تکنولوژی است. همزمان با رواج هوش مصنوعی در صنایع مختلف، نگرانیها نیز در این رابطه افزایش مییابد. هوش مصنوعی چه تهدیدهای بالقوهای به همراه دارد؟ چگونه میتوان در کنار بهرهگیری از مزایای آن، تهدیدهایش را مهار کرد؟ آیا هوش مصنوعی جای انسان را خواهد گرفت؟
ChatGPT جواب همه چیز را میداند
ساعت ۱۱:۳۰ است. دانشآموزان وارد کلاس میشوند، پشت میزهایشان مینشینند و لپتاپهایشان را بیرون میآورند. ظاهرا یک روز عادی زمستانی به نظر میرسد. «ماریسا شومان»، دبیر رشته علوم کامپیوتر، برای اولین بار در دوران تدریس خود، برنامه درسی را ننوشته. او محتوای آموزشی را با استفاده از ChatGPT آماده کرده؛ یک چتبات مبتنی بر هوش مصنوعی که پاسخ سوالات مخاطب را به صورت کاملا شفاف و در قالب متن، ارائه میکند. خانم شومان از این ابزار برای دریافت محتوای آموزشی استفاده کرد تا ببیند چقدر مفید و کاربردی است و چه ایراداتی دارد. او خطاب به دانشآموزانش گفت: «امروز میخواهیم ChatGPT را بررسی کنیم. هدف شما این است که ببینید آیا درس امروز، موثر بوده یا نه.» مدارس و دانشگاهها در ایالات متحده در درک و استفاده از چتباتها با مشکل مواجهند. بسیاری از آنها به دنبال منع استفاده از ChatGPT هستند تا دانشآموزان نتوانند با استفاده از آن تقلب کنند.
اما افرادی مثل خانم شومان از نوآوریهایی از این قبیل برای افزایش تفکر انتقادی در کلاسها استفاده میکنند. او دانشآموزان را تشویق میکند که هیجان و جوی را که حول محور ابزارهای هوش مصنوعی وجود دارد، زیر سوال ببرند و «عوارض جانبی» این تکنولوژیها را بررسی کنند. این مدرسان میگویند هدفشان، آموزش «رایانش انتقادی» به نسل آینده خالقان و کاربران تکنولوژی است. رایانش انتقادی یک رویکرد تحلیلی است که در آن، نقد الگوریتمها به اندازه یادگیری نحوه برنامهنویسی مهم است. هوش مصنوعی میتواند سوگیریها و ریسکهای احتمالی به همراه داشته باشد که در مدارس دولتی نیویورک، این موارد را به دانشآموزان کامپیوتر، آموزش میدهند.
مثلا بعضی از ابزارهای تشخیص چهره، در تشخیص چهره افراد سفیدپوست، بهتر عمل میکنند تا چهره افراد دارای پوست تیره. هوش مصنوعی قدرتمند، این امکان را دارد که خطوط قرمز اخلاقی را رد کند و به فرد در تولید ویدئوهای فیک که کاملا واقعی به نظر میرسند، کمک کند. مثلا یک سیاستمدار شناختهشده، حرفهایی را ادا کند که هرگز نزده. از سوی دیگر، برخی کارشناسان معتقدند یکی از نقاط ضعف رواج ابزارهایی مثل ChatGPT، فقدان «عامل انسانی» است. آنها میگویند نگرانیهای بسیاری در رابطه با اعتماد به هوش مصنوعی وجود دارد. چطور یک ابزار میتواند به جای انسان، بنویسد و چطور میتوان به آن اتکا کرد؟ گرچه ادبیات تولیدشده توسط این سیستمها، کاملا طبیعی به نظر میرسد اما فاقد قدرت استدلال و تحلیل هستند.
نگرانی اصلی در رابطه با ChatGPT، این است که این ابزار میتواند به صورت بالقوه، تهدیدی برای اصالت باشد. توان و ظرفیت هوش مصنوعی در تقلید از انسان، بیپایان است و میتواند به شما در نوشتن مقالات درجه یک کمک کند اما یک حلقه گمشده در این میان وجود دارد: وجه شخصی. نظر و احساس شخصی شما در مقاله لحاظ نمیشود. مقاله شما میتواند شبیه مقاله یک فرد دیگر باشد. اما «سم آلتمن»، مدیرعامل OpenAI که سازنده ChatGPT است، میگوید: «هوش مصنوعی هنوز اول راه است و سفر دور و درازی در پیش دارد. قطعا توسعه و بهبود خواهد یافت و تاثیر مثبتی بر جامعه خواهد گذاشت.»
انقلابی در تکنولوژی
اگر دربارهChatGPT، ابزار هوش مصنوعی که این روزها طرفداران زیادی پیدا کرده، سوالی بپرسید جوابهایی که میگیرید فیالبداهه، قطعی و اغلب اشتباهند. ChatGPT که اخیرا نقل مجالس شده، یک چتبات «پاسخگو» است که میتواند در گفتوگوها به سوالات پیچیده مخاطب پاسخ دهد. توسعه چنین نرمافزاری، یک انقلاب در حوزه تکنولوژی است چون این بات، آموزش دیده که «منظور انسانها» را از سوالی که میپرسند درک کند. پاسخهایی که این ابزار مبتنی بر هوش مصنوعی ارائه میدهد، کیفیت پاسخهای انسان را دارند. همین است که کاربران را شگفتزده کرده. ظهور چنین ابزاری میتواند نحوه تعامل میان انسان و کامپیوتر و بازیابی اطلاعات را دگرگون کند. صحبت با ChatGPT مثل این است که با یک اقتصاددان صحبت کنی. به دنبال خلق چنین تکنولوژیهایی، معمولا سوالاتی در ذهن مردم ایجاد میشود که پاسخ به آنها نیازمند زمان و تجربه است. اما حالا که چنین ابزاری وارد محیطهای کار شده، مدیران جزو نخستین افرادی هستند که باید این سوالات را از خود بپرسند.
هوش مصنوعی، تهدیدی برای کارکنان؟
یکی از مسائلی که ممکن است پیش بیاید، نگرانی کارمندها درباره امنیت شغلیشان است. این نگرانیها طبیعیاند. آیا این ابزار، جای انسان را خواهد گرفت؟ تکلیف شغل من چه میشود؟ نکند برای همیشه بیکار شوم؟ اینکه یک ابزار هوش مصنوعی بیاید و پردازش هزینههایتان را آسانتر کند، یک چیز است. اما اینکه مردم ترجیح دهند در مراسم شام، کنار آن بنشینند و با آن حرف بزنند، یک مقوله دیگر است. ورود چنین ابزاری به محیط کار، قطعا در زمان و انرژی صرفهجویی میکند. برای آنکه پذیرش آن میان کارکنان، ممکن شود، باید به شکلی شفاف توضیح دهیم که کارمندها این زمان و انرژی ذخیرهشده را صرف چه چیزهایی خواهند کرد. بهعلاوه، باید به آنها یک جور حس عاملیت دهیم تا حس کنند نسبت به شروع و پیامدهای اقدامات خود، کنترل دارند. تحقیقات نشریه اسلون، وابسته به دانشگاه MIT و گروه مشاوره بوستون نشان میدهد که اگر کارکنان این اجازه را داشته باشند که یک ابزار هوش مصنوعی را قبول یا رد کنند، احتمال آنکه از آن استفاده کنند، بیشتر خواهد بود.
پذیرش هوش مصنوعی به چه عواملی وابسته است؟
آیا مردم باید بدانند که درون یک ابزار هوش مصنوعی چه میگذرد؟ جوابش مشخص نیست. اما تحقیقاتی که توسط چهرههای دانشگاهی هاروارد، انستیتوی تکنولوژی ماساچوست و دانشگاه پلیتکنیک میلان انجام شده نشان میدهد که توضیح بیش از حد، خود میتواند مشکلزا باشد. پس بهتر است زیاد وارد جزئیات نشویم.
«تیپستری» که تولیدکننده طیف وسیعی از محصولات لوکس است، یک ابزار در اختیار کارکنانش قرار داد که به آنها میگفت چطور موجودی را بین فروشگاهها تقسیم کنند. بعضیها از ابزاری استفاده کردند که منطقش، قابل تفسیر بود؛ سایرین از مدل دیگری استفاده کردند که بیشتر شبیه یک جعبه سیاه بود و مشخص نبود درون آن چه میگذرد. مشخص شد که کارمندها بیشتر بر ابزارهایی مسلط میشدند (منظور این است که به آن ابزارها سلطه پیدا میکردند)، که توان درکشان را داشتند چون نسبت به درک شهودی خود، مطمئن بودند، هرچند به اشتباه. اما آنها بیشتر تصمیمات ابزاری را میپذیرفتند که از آن سر درنمیآوردند چون به تخصص افرادی که آن مدل را ساخته بودند، اطمینان داشتند. پس اینکه چه کسی و با چه اعتباری یک ابزار هوش مصنوعی را بسازد، در میزان پذیرش آن از سوی افراد، تاثیر دارد و بسیار حائز اهمیت است.
نحوه پاسخ انسان نسبت به انسان و الگوریتم، موضوع طیف وسیعی از تحقیقات بوده است. «گیزم یالچین» از دانشگاه تگزاس و همکارش در تحقیقاتی، به بررسی این سوال پرداختهاند: «آیا مشتریها، وقتی تصمیمی توسط یک ماشین یا یک فرد گرفته میشود، واکنش متفاوتی نشان میدهند؟» مثلا تصمیم بر سر تایید یک وام یا اجازه عضویت در یک کلوپ. مشخص شد که افراد وقتی درخواستشان رد میشود، واکنش یکسانی نشان میدهند، صرف نظر از اینکه آن تصمیم را چه کسی گرفته. اما وقتی درخواستشان توسط یک ماشین یا الگوریتم تایید میشد، احساس مثبت کمتری نسبت به آن سازمان پیدا میکردند. دلیلش چه بود؟ چون آدمها خوب بلدند تصمیمات ناخوشایند را توجیه کنند، حالا فرقی نمیکند که چه کسی آن تصمیمات را گرفته باشد. آنها وقتی توسط یک ماشین ارزیابی میشوند، برایشان سختتر است که یک اپلیکیشن موفق را به «خودِ جذاب و دوستداشتنیشان» ربط دهند. آدمها دوست دارند احساس خاص بودن داشته باشند، نه اینکه تا حد و اندازه یک نقطه دیتا تقلیل داده شوند.
«آرتور جیگو» از دانشگاه واشنگتن و «گلن کارول» از مدرسه کسب و کار استنفورد در تحقیقاتی که به زودی منتشر خواهد شد، به این سوال پرداختهاند که «مردم تا چه حد مایلند بابت کاری که یک نفر، خودش به تنهایی انجام نداده، به او اعتبار دهند به جای آنکه اعتبار به دست آورند؟» این دو، جمعی از افراد داوطلب را گرد هم آوردند و به آنها چیزی مربوط به یک فرد را نشان دادند، مثل یک اثر هنری یا یک طرح کسب و کار. سپس فاش کردند که آن اثر، با کمک یک الگوریتم یا یک انسان، خلق شده. مخاطبان پس از شنیدن این خبر که خالق اثر، با کمک گرفتن، آن اثر را خلق کرده، به اتفاق، اعتبار کمتری به خالق بخشیدند اما وقتی شنیدند او از یک انسان کمک گرفته، این تاثیر به مراتب برجستهتر بود. یعنی وقتی متوجه شدند که خالق از یک انسان کمک خواسته، اعتبار بسیار کمتری برای او قائل شدند. شرکتکنندگان حس میکردند منصفانه نیست که کسی بابت کار یک فرد دیگر، اعتبار کسب کند.
تحقیقات دیگری توسط «آنوج کاپور» و همکارش از انستیتوی مدیریت احمدآباد منتشر شده که در آن، به این سوال پاسخ داده میشود که «کدام در کمک به افراد در کاهش وزن موثرترند؟ انسان یا هوش مصنوعی؟» این دو، نتیجه کاهش وزن مشترکان یک اپلیکیشن هندی را بررسی کردند. بعضی از مشترکان فقط از یک مربی هوش مصنوعی کمک گرفته بودند در حالی که بقیه، از یک مربی انسان نیز کمک گرفته بودند. تحقیقات نشان داد آنهایی که از یک مربی انسان کمک گرفتند، وزن بیشتری کم کردند، اهداف سختگیرانهتری برای خودشان تعیین میکردند و دقت و وسواس بیشتری در رابطه با ثبت فعالیتهای خود نشان میدادند. اما افرادی که شاخص توده بدنشان (BMI) بالاتر بود به اندازه افرادی که وزن کمتری داشتند، ارتباط خوبی با مربیان انسان برقرار نمیکردند. این دو محقق گمان می کنند که افراد با وزن سنگینتر، احتمالا از اینکه با یک انسان دیگر تعامل کنند، خجالت میکشند و به همین علت، روباتها را برای تمرین انتخاب میکنند.
تصویری که از این تحقیقات به دست میآید یک تصویر درهم و برهم است: و البته پویا نیز هست. همزمان با تکامل تکنولوژی، گرایشات و طرز تفکرات و رفتارها نیز تکامل مییابند. اما یک چیز کاملا مشخص است: تاثیر ChatGPT و سایر ابزارهای هوش مصنوعی بستگی خواهد داشت به کاری که هر کدام از این ابزارها میتوانند انجام دهند و البته، به احساسی که در مردم ایجاد خواهند کرد. شاید باید به گفتههای سم آلتمن اتکا کنیم چون هوش مصنوعی، تازه اول راه است.