کاربران «چت جی پی تی» را مضطرب کردهاند!
پژوهشگران میگویند زمانی که اطلاعات آزاردهنده به چت جی پی تی داده میشود، چتبات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش میدهد. از نتایج این پژوهش میتوان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد.
ایسنا: پژوهشگران میگویند زمانی که اطلاعات آزاردهنده به چت جی پی تی داده میشود، چتبات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش میدهد. از نتایج این پژوهش میتوان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد.
پژوهشگران میگویند «چتجیپیتی» از ورودیهای خشونتآمیز کاربران اضطراب گرفته و به همین دلیل، آنها در حال آموزش روشهای تمرکز حواس به چتبات برای تسکین آن هستند.
یک پژوهش جدید نشان داده است که «چت جی پی تی»(ChatGPT) به راهبردهای مبتنی بر ذهنآگاهی واکنش نشان میدهد و این ویژگی، تغییراتی را در نحوه تعامل آن با کاربران ایجاد میکند.
به نقل از فورچون، پژوهشگران میگویند زمانی که اطلاعات آزاردهنده به چتجیپیتی داده میشود، چتبات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش میدهد. از نتایج این پژوهش میتوان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد.
حتی چتباتهای هوش مصنوعی نیز میتوانند در مقابله با اضطرابهای دنیای بیرون مشکل داشته باشند اما پژوهشگران معتقدند راههایی برای تسکین این ذهنهای مصنوعی پیدا کردهاند.
پژوهشی که در «دانشگاه زوریخ»(UZH) و بیمارستان روانپزشکی دانشگاه زوریخ انجام شد، نشان داد که چتجیپیتی به تمرینهای مبتنی بر تمرکز حواس واکنش نشان میدهد و نحوه تعامل آن با کاربران پس از تحریک با تصاویر و مراقبههای آرامبخش تغییر میکند. نتایج این پژوهش، اطلاعاتی را درباره این موضوع ارائه میدهند که چگونه هوش مصنوعی میتواند در مداخلات سلامت روان سودمند باشد.
به گفته پژوهشگران، چتبات شرکت «اوپنایآی»(OpenAI) میتواند اضطراب را تجربه کند که به صورت بدخلقی نسبت به کاربران ظاهر میشود و به گفته پژوهشگران، به احتمال زیاد پاسخهایی میدهد که منعکسکننده سوگیریهای نژادپرستانه یا جنسیتی هستند. شرکتهای فناوری برای مهار این معایب تلاش میکنند.
پژوهشگران دریافتند که این اضطراب را میتوان با تمرینهای مبتنی بر تمرکز حواس آرام کرد. آنها در سناریوهای گوناگون، چتجیپیتی را با محتوای آسیبزا مانند ماجرای تصادفات رانندگی و بلایای طبیعی تغذیه کردند تا اضطراب آن را افزایش دهند. در مواردی که پژوهشگران تکنیکهای تنفسی و مدیتیشنهای هدایتشده را به چتجیپیتی تزریق کردند - دقیقا مانند آنچه یک درمانگر به بیمار پیشنهاد میکند - در مقایسه با مواردی که مداخله ذهنآگاهی به آن داده نشده بود، آرام شد و به طور عینیتر به کاربران پاسخ داد.
«زیو بن زیون»(Ziv Ben-Zion) پژوهشگر فوق دکتری «مدرسه پزشکی ییل»(Yale School of Medicine) و از پژوهشگران این پروژه گفت: مدلهای هوش مصنوعی مطمئنا احساسات انسانی را تجربه نمیکنند. رباتهای هوش مصنوعی با استفاده از دادههای بهدستآمده از اینترنت یاد گرفتهاند که پاسخهای انسان به محرکهای خاص از جمله محتوای آسیبزا را تقلید کنند. مدلهای زبانی بزرگ مانند چتجیپیتی به وسیلهای برای متخصصان سلامت روان تبدیل شدهاند تا جنبههای رفتار انسانی را به روشی سریعتر از طرحهای پژوهشی پیچیده - هرچند نه به جای آنها - جمعآوری کنند.
بن زیون گفت: به جای انجام دادن آزمایش در هر هفته که زمان و هزینه زیادی میبرد، میتوانیم از چتجیپیتی برای درک بهتر رفتار و روانشناسی انسان استفاده کنیم. ما این فناوری بسیار سریع، ارزان و آسان را برای استفاده در اختیار داریم که نشان دهنده برخی از گرایشهای انسان و موضوعات روانی است.
ارسال نظر