آموزش هنجارهای اجتماعی به روباتها
ابزارهای هوشمند و روبات ها به عنوان همکارانی ایمن و قابلاعتماد برای انسانها در نظر گرفته میشوند. با وجود این روباتها باید بتوانند ارزیابی سریعی از وضعیتی که در آن قرار دارند داشته و هنجارهای اجتماعی انسانی را به کار بگیرند.
پیشرفت در زمینهی هوش مصنوعی باعث به وجود آمدن دستیاران مجازی و روباتیکی شده است که به صورت روزافزون میتوانند وظایف پیچیدهتری را انجام بدهند. این ابزارهای هوشمند به عنوان همکارانی ایمن و قابلاعتماد برای انسانها در نظر گرفته میشوند. با وجود این روباتها باید بتوانند ارزیابی سریعی از وضعیتی که در آن قرار دارند داشته و هنجارهای اجتماعی انسانی را به کار بگیرند. چنین هنجارهایی برای بیشتر مردم کاملاً مشخص هستند. به عنوان مثال از همان کودکی به انسانها نحوهی رفتار آنها در جامعه، حضور در گروهها یا عکسالعمل نشان دادن در شرایط مختلف آموزش داده میشود؛ اما یاد دادن این موارد به روباتها یک چالش جدید به شمار میرود.
برای برطرف کردن چالش بالا، محققانی با حمایت مالی دارپا اخیراً پروژهای را به انجام رساندند که هدف آن ارائه چارچوبی نظری و رسمی در خصوص هنجارها و شبکههای هنجاری بود. این تحقیقات نحوهی انجام فعل و انفعالات نسبت به هنجارها را در ذهن انسان مطالعه کرده و بررسی میکند چگونه میتوان این هنجارها را از طریق الگوریتمهای تعاملی جدید آموزش داد.
با توجه به اسناد منتشر شده پژوهشگران موفق به ایجاد یک مدل محاسبات شناختی (cognitive-computational model) از هنجارهای انسانی شدهاند که میتواند آنها را در ابزارهای هوشمند کدگذاری کند. به علاوه آنها الگوریتم یادگیری ماشینی جدیدی توسعه دادند که به ماشینها اجازه میدهد حتی در شرایطی که برای آنها ناشناخته است با توجه به دادههای انسانی هنجارها را یاد بگیرند.
پژوهشگران معتقدند تحقیقات بالا از اهمیت زیادی برخوردار است؛ زیرا باعث توسعه و به وجود آمدن سامانههای آگاهی میشود که با اطمینان بسیار مناسبی میتوانند نوع رفتار مردم نسبت به هنجارها را در شرایط خاص درک کنند و بر اساس آن عمل کنند.
رضا قنادان (Reza Ghanadan)، مدیر برنامهی دارپا گفت: «هدف از پژوه یاد شده درک و رسمی کردن سامانههای هنجاری انسانی و بررسی نحوهی هدایت انسانها توسط آنها است. در نتیجه ما میتوانیم دستورالعملهای جدید برای نحوهی ساخت نسلهای آیندهی هوش مصنوعی ایجاد بکنیم که قادر هستند به شکل مؤثرتری با انسانها تعامل کنند.»
برای نمونه انسانها با توجه به این که در محیط آرامی مانند کتابخانه قرار دارند زنگ تلفنهای همراه خود را خاموش کرده و این هنجار را مستقیماً به اجرا میگذارند. اگر تماسی با یک فرد برقرار شود سعی میکند هر چه سریعتر صدای تلفن خود را قطع کرد و با صدایی آهسته به مخاطب بگوید ادامهی مکالمه را در خارج از ساختمان انجام خواهد داد. در مقابل هوشهای مصنوعی به کار رفته در این ابزارها نمیتوانند به شکل خودکار به چنین هنجارهای اجتماعی حساسی واکنش نشان بدهند.
وی با اشاره به اینکه در بیشتر مسائل پیچیده، هنجارها به سرعت فعال میشوند افزود: «این چیزی است که همهی ما با آن آشنا هستیم. مردم نقض هنجارها را به سرعت تشخیص میدهند. برای مردم، آموختن هنجارهای جدید یا پیششرطهای آنها برای فعالسازی، در کنار شبکه هنجاری پیچیدهای که هماکنون وجود دارد صورت میگیرد؛ آن هم نه از یک روش، بلکه بهروشهای متعددی مانند مشاهده، استنباط و آموزش. عدم اطمینان در دادههای ورودی توسط انسانها یادگیری هنجارها را برای الگوریتمهای یادگیری ماشینی بسیار پیچیده و دشوار است.»
وی توضیح داد برای ایجاد یک روبات اجتماعی یا حتی اخلاق مدار، آنها نیاز به ظرفیت بالایی در یادگیری و اعمال حجم عظیمی از هنجارهایی دارند که مردم آنها را به رسمیت شناخته و انتظار دارند از آنها اطلاعات بشود. این کار نسبت به ایجاد سامانههای امروزی که تنها محتوای عکس را تشخیص میدهد بسیار پیچیدهتر است؛ اما با ارائهی یک چارچوب برای توسعه و آزمایش الگوریتمهای پیچیده، سرعت ایجاد سامانههایی که به بهترین شکل ممکن از رفتار انسانها تقلید میکنند، بهبود مییابد.
قنادان ادامه داد: «اگر ما قرار است با روباتها، خودروهای بی راننده و دستیارهای صوتی آیندهی موجود در تلفن یا خانهی خود مطابق امروز ارتباط برقرار کنیم، این دستیارها باید بتوانند از هنجارهای ما پیروی کرده و مشابه آن رفتار کنند.»
برای نمونه روباتی که در آینده در کتابخانه به کار گرفته میشود، ممکن است انگشت خود را به نشانهی سکوت بالا بیاورد.
البته باید متذکر شد چنین مسئلهای از مدتها قبل در خودروهای بی راننده نیز وجود داشته است. برای نمونه اگر یک خودروی بی راننده با تعدادی عابر پیاده و مانع در مقابل خود مواجه شود، چه اقدامی باید بکند. آیا باید به مانع برخورد کرده و سرنشینان خود را از بین ببرد یا با برخورد به عابران، سرنشینان خود را از مرگ حتمی برهاند؟ این گونه تصمیمها و هنجارها اخلاقی را چه فرد یا افرادی تعیین میکند. آیا تضمینی وجود دارد که برنامه نویسان، هنجارها را مطابق با نظر و خواستهی خود به روباتها آموزش ندهند؟ همچنین ممکن است با سو استفاده از چارچوب جدید یاد شده یا هک و جایگذاری هنجارهای جدید و نادرست در این سامانهها، آنها را تشویق به آسیبرسانی به مردم یا انجام اعمال مجرمانه کرد.
ارسال نظر