چرا نباید به چت باتها اعتماد کنید؟
مایکروسافت و گوگل معتقدند هوش مصنوعی جستجو را برای همیشه تغییر خواهد داد. تاکنون هیچ دلیلی برای باور چنین موضوعی وجود ندارد.
فرارو: مایکروسافت و گوگل معتقدند هوش مصنوعی جستجو را برای همیشه تغییر خواهد داد. تاکنون هیچ دلیلی برای باور چنین موضوعی وجود ندارد.
هفته گذشته مایکروسافت و گوگل اعلام کردند که برنامههای مبتنی بر هوش مصنوعی مشابه چت جی پی تی (Chat GPT) را در موتورهای جستجوی خود قرار میدهند برنامهای برای تبدیل نحوه یافتن اطلاعات آنلاین به مکالمه با یک چت بات دانای کل. با این وجود، یک مشکل در اینجا وجود دارد: این مدلهای زبانی اسطورهای بدنام هستند.
به نقل از آتلانتیک، در یک ویدئوی تبلیغاتی چت بات "بارد" ساخت گوگل در مورد نجوم اشتباه فاحشی را مرتکب شد. این چت بات در پاسخگویی بازه زمانی بیش از یک دهه را در مورد پاسخگویی درباره زمان ثبت اولین عکس از سیارهای خارج از منظومه خورشیدی اشتباه کرد. این اشتباه در پاسخگویی باعث شد ارزش سهام شرکت مادر گوگل تا ۹ درصد کاهش یابد.
نمایش زنده "بینگ" که از نسخه پیشرفتهتر چت جی پی تی برخوردار است نیز با اشتباهات شرم آوری همراه بود. حتی در چند ماه گذشته بسیاری معتقد بودند که هوش مصنوعی در نهایت با نام خود عمل خواهد کرد. با این وجود، اکنون محدودیتهای اساسی این فناوری نشان میدهد که اکثر پیش بینیها درباره آن در بدترین خالت علمی – تخیلی و در بهترین حالت یک بهبود تدریجی در فناوری همراه با گردابی از اشکلات برطرف نشده است.
مشکل از زمانی آغاز میشود که شرکتها و کاربران به برنامههایی مانند چت جی پی تی برای تجزیه و تحلیل امور مالی، برنامه ریزی سفر و وعدههای غذایی و یا ارائه اطلاعات اولیه اعتماد میکنند. این مشکل بدان خاطر روی میدهد که ما چت باتها را نه صرفا به عنوان رباتهای جستجوگر بلکه به عنوان چیزی شبیه به مغز قلمداد میکنیم.
مایکروسافت و گوگل به جای وادار کردن کاربران به خواندن سایر صفحات اینترنتی آیندهای را پیشنهاد کردهاند که در آن موتورهای جستجو از هوش مصنوعی برای ترکیب کردن اطلاعات و تبدیل و بسته بندی آن به نثر اولیه مانند اوراکلهای سیلکونی استفاده میکنند. واقعیت آن است که برنامههایی که از آن تحت عنوان "مدلهای زبان بزرگ" یاد میشود و در حال حاضر این تغییر را ایجاد میکنند در تولید جملات ساده عملکرد خوبی دارند، اما در هر مورد دیگری عملکردی بسیار وخشتناک را از خود نشان داده اند.
این مدلها با شناسایی و بازیابی الگوها در زبان مانند یک تصحیح خودکار فوقالعاده قدرتمند کار میکنند. نرمافزاری مانند چت جی پی تی ابتدا حجم عظیمی از دروس، کتب، صفحات ویکیپدیا، روزنامهها و پستهای رسانههای اجتماعی را مورد تجزیه و تحلیل قرار میدهد و سپس از آن دادهها برای پیش بینی واژگان و عبارات استفاده میکند.
این برنامهها زبان موجود را مدل سازی میکنند بدان معنا که نمیتوانند ایدههای تازه ارائه کنند و اتکای این برنامهها به نظم آماری بدان معناست که تمایل دارند نسخههای ارزانتر و تخریب شده اطلاعات اصلی را تولید کنند چیزی شبیه نسخههای معیوب زیراکس.
حتی اگر چت جی پی تی و برنامههای مشابه آن یاد گرفته بودند که واژگان را به خوبی پیش بینی کنند باز هم فاقد مهارت اساسی دیگر بودند. برای مثال، این برنامهها دنیای فیزیکی یا نحوه استفاده از منطق را نمیدانند، در ریاضیات وحشتناک هستند و در اکثر موارد مربوط به جستجو در اینترنت خود قادر به بررسی نیستند. همین دیروز Chat GPT به ما گفت که شش حرف در نام اش وجود دارد!
این برنامههای زبانی چیزهای "جدید" را مینویسند که به آن توهم میگویند، اما میتوان از آن تحت عنوان دروغ نیز یاد کرد. درست مانند تصحیح خودکار در درست کردن حروف این مدلها کل جملات و پاراگرافها را به هم میریزند. گزارش شده که بینگ جدید در پاسخ به پرسش درباره سالها گفته که سال ۲۰۲۲ پس از سال ۲۰۲۳ میلادی از راه میرسد و سپس اعلام کرده که اکنون در سال ۲۰۲۲ به سر میبریم! با توجه به اشکالات موجود سخنگوی مایکروسافت گفته است: "با توجه به آن که این یک پیش نمایش اولیه از بینگ جدید است گاهی اوقات میتواند پاسخهای ناردست یا غیر منتظرهای ارائه دهد. ما در حال تنظیم پاسخهای آن برای ایجاد انسجام و مرتبط ساختن پاسخ به پرسش هستیم".
یکی از سخنگویان گوگل در پاسخ به پرسش مطرح شده از سوی "آتلانتیک" گفته است: "ما در حال بهبود جنبههای مهم بارد هستیم تا اطمینان حاصل کنیم که برای کاربران مان آماده است".
به عبارت دیگر، سازندگان بینگ و بارد جدید علیرغم تبلیغاتی که انجام داده اند خود میدانند که محصولات شان برای استفاده توسط کاربران جهانی آماده نیستند. اگر ذکر این اشتباهات در پاسخگویی و اشکالات موجود در فناوری مبتنی بر هوش مصنوعی برای شما متقاعد کننده نیست این موضوع را در نظر بگیرید که آموزش یک هوش مصنوعی به مقدار زیادی داده و زمان نیاز دارد.
برای مثال، چت جی پی تی از سال ۲۰۲۱ میلادی به این سو در مورد هیچ چیزی آموزش ندیده است و در نتیجه درباره مسائل مرتبط با پس از سال ۲۰۲۱ میلادی هیچ اطلاعاتی ندارد. هم چنین، به روز رسانی هر مدلی با هر دقیقه اخبار اگر ناممکن نباشد اقدامی غیر عملی است. ظاهرا بینگ جدید در مورد اخبار فوری یا رویدادهای ورزشی آتی درخواست کاربر را از طریق موتور جستجوی بینگ قدیمی اجرا میکند و از آن نتایج همراه با هوش مصنوعی برای نوشتن پاسخ استفاده مینماید که چیزی شبیه یک عروسک روسی یا شاید یک مجسمه با روکش طلایی به نظر میرسد: در نتیجه، در بخش زیرین لایه بیرونی و درخشان هوش مصنوعی همان بینگ لکه دار و قدیمی وجود دارد که همگان آن را میشناسیم و هرگز از آن استفاده نمیکنیم.
نکتهای که بر شک و تردیدها میافزاید آن است که مایکروسافت و گوگل چیز زیادی در مورد نحوه عملکرد این ابزارهای جستجوی مبتنی بر هوش مصنوعی نگفته اند. شاید آنان در حال ترکیب نرم افزارهای دیگری برای بهبود قابلیت اطمینان بخشی چت باتها هستند تا نگرانیها را برطرف سازند.
در واقع، دو شرکت بزرگ فناوری در جهان اساسا از کاربران میخواهند که به کار آنان ایمان باشند و اعتماد کنند گویی که خدایان عصر باستان هستند و چت باتهای شان مانند آپولو از طریق یک کاهن در معبد دلفی صحبت میکنند. این باتهای جستجوی مبتنی بر هوش مصنوعی به زودی برای استفاده همگان در دسترس خواهند بود.
با این وجود، ما نباید برای انجام فعالیتهای زندگی مان به این فناوری خودکار در ظاهر شکوهمند اعتماد کنیم. کمتر از یک دهه پیش جهان متوجه شد که فیس بوک کمتر یک شبکه اجتماعی سرگرم کننده و بیشتر یک ماشین تخریب دموکراسی است. در نتیجه، درباره اعتماد به فناوریهای غولهای این عرصه عجله نداشته باشیم.
ارسال نظر