۵۴۳۳۶۲
۵۰۰۹
۵۰۰۹
پ

آموزش هنجارهای اجتماعی به روبات‌ها

ابزارهای هوشمند و روبات ها به عنوان همکارانی ایمن و قابل‌اعتماد برای انسان‌ها در نظر گرفته می‌شوند. با وجود این روبات‌ها باید بتوانند ارزیابی سریعی از وضعیتی که در آن قرار دارند داشته و هنجارهای اجتماعی انسانی را به کار بگیرند.

وب سایت سایبربان: محققان موفق به تولید روشی شده‌اند که به روبات‌ها کمک می‌کند در تعامل با انسان‌ها رفتاری اجتماعی‌تر را از خود به نمایش بگذارند.

آموزش هنجارهای اجتماعی به روبات‌ها

پیشرفت در زمینه‌ی هوش مصنوعی باعث به وجود آمدن دستیاران مجازی و روباتیکی شده است که به صورت روزافزون می‌توانند وظایف پیچیده‌تری را انجام بدهند. این ابزارهای هوشمند به عنوان همکارانی ایمن و قابل‌اعتماد برای انسان‌ها در نظر گرفته می‌شوند. با وجود این روبات‌ها باید بتوانند ارزیابی سریعی از وضعیتی که در آن قرار دارند داشته و هنجارهای اجتماعی انسانی را به کار بگیرند. چنین هنجارهایی برای بیشتر مردم کاملاً مشخص هستند. به عنوان مثال از همان کودکی به انسان‌ها نحوه‌ی رفتار آن‌ها در جامعه، حضور در گروه‌ها یا عکس‌العمل نشان دادن در شرایط مختلف آموزش داده می‌شود؛ اما یاد دادن این موارد به روبات‌ها یک چالش جدید به شمار می‌رود.

برای برطرف کردن چالش بالا، محققانی با حمایت مالی دارپا اخیراً پروژه‌ای را به انجام رساندند که هدف آن ارائه چارچوبی نظری و رسمی در خصوص هنجارها و شبکه‌های هنجاری بود. این تحقیقات نحوه‌ی انجام فعل و انفعالات نسبت به هنجارها را در ذهن انسان مطالعه کرده و بررسی می‌کند چگونه می‌توان این هنجارها را از طریق الگوریتم‌های تعاملی جدید آموزش داد.

با توجه به اسناد منتشر شده پژوهشگران موفق به ایجاد یک مدل محاسبات شناختی (cognitive-computational model) از هنجارهای انسانی شده‌اند که می‌تواند آن‌ها را در ابزارهای هوشمند کدگذاری کند. به علاوه آن‌ها الگوریتم یادگیری ماشینی جدیدی توسعه دادند که به ماشین‌ها اجازه می‌دهد حتی در شرایطی که برای آن‌ها ناشناخته است با توجه به داده‌های انسانی هنجارها را یاد بگیرند.

پژوهشگران معتقدند تحقیقات بالا از اهمیت زیادی برخوردار است؛ زیرا باعث توسعه و به وجود آمدن سامانه‌های آگاهی می‌شود که با اطمینان بسیار مناسبی می‌توانند نوع رفتار مردم نسبت به هنجارها را در شرایط خاص درک کنند و بر اساس آن عمل کنند.

رضا قنادان (Reza Ghanadan)، مدیر برنامه‌ی دارپا گفت: «هدف از پژوه یاد شده درک و رسمی کردن سامانه‌های هنجاری انسانی و بررسی نحوه‌ی هدایت انسان‌ها توسط آن‌ها است. در نتیجه ما می‌توانیم دستورالعمل‌های جدید برای نحوه‌ی ساخت نسل‌های آینده‌ی هوش مصنوعی ایجاد بکنیم که قادر هستند به شکل مؤثرتری با انسان‌ها تعامل کنند.»

برای نمونه انسان‌ها با توجه به این که در محیط آرامی مانند کتابخانه قرار دارند زنگ تلفن‌های همراه خود را خاموش کرده و این هنجار را مستقیماً به اجرا می‌گذارند. اگر تماسی با یک فرد برقرار شود سعی می‌کند هر چه سریع‌تر صدای تلفن خود را قطع کرد و با صدایی آهسته به مخاطب بگوید ادامه‌ی مکالمه را در خارج از ساختمان انجام خواهد داد. در مقابل هوش‌های مصنوعی به کار رفته در این ابزارها نمی‌توانند به شکل خودکار به چنین هنجارهای اجتماعی حساسی واکنش نشان بدهند.

وی با اشاره به اینکه در بیشتر مسائل پیچیده، هنجارها به سرعت فعال می‌شوند افزود: «این چیزی است که همه‌ی ما با آن آشنا هستیم. مردم نقض هنجارها را به سرعت تشخیص می‌دهند. برای مردم، آموختن هنجارهای جدید یا پیش‌شرط‌های آن‌ها برای فعال‌سازی، در کنار شبکه هنجاری پیچیده‌ای که هم‌اکنون وجود دارد صورت می‌گیرد؛ آن هم نه از یک روش، بلکه بهروش‌های متعددی مانند مشاهده، استنباط و آموزش. عدم اطمینان در داده‌های ورودی توسط انسان‌ها یادگیری هنجارها را برای الگوریتم‌های یادگیری ماشینی بسیار پیچیده و دشوار است.»

وی توضیح داد برای ایجاد یک روبات اجتماعی یا حتی اخلاق مدار، آن‌ها نیاز به ظرفیت بالایی در یادگیری و اعمال حجم عظیمی از هنجارهایی دارند که مردم آن‌ها را به رسمیت شناخته و انتظار دارند از آن‌ها اطلاعات بشود. این کار نسبت به ایجاد سامانه‌های امروزی که تنها محتوای عکس را تشخیص می‌دهد بسیار پیچیده‌تر است؛ اما با ارائه‌ی یک چارچوب برای توسعه و آزمایش الگوریتم‌های پیچیده، سرعت ایجاد سامانه‌هایی که به بهترین شکل ممکن از رفتار انسان‌ها تقلید می‌کنند، بهبود می‌یابد.

قنادان ادامه داد: «اگر ما قرار است با روبات‌ها، خودروهای بی راننده و دستیارهای صوتی آینده‌ی موجود در تلفن یا خانه‌ی خود مطابق امروز ارتباط برقرار کنیم، این دستیارها باید بتوانند از هنجارهای ما پیروی کرده و مشابه آن رفتار کنند.»

برای نمونه روباتی که در آینده در کتابخانه به کار گرفته می‌شود، ممکن است انگشت خود را به نشانه‌ی سکوت بالا بیاورد.

البته باید متذکر شد چنین مسئله‌ای از مدت‌ها قبل در خودروهای بی راننده نیز وجود داشته است. برای نمونه اگر یک خودروی بی راننده با تعدادی عابر پیاده و مانع در مقابل خود مواجه شود، چه اقدامی باید بکند. آیا باید به مانع برخورد کرده و سرنشینان خود را از بین ببرد یا با برخورد به عابران، سرنشینان خود را از مرگ حتمی برهاند؟ این گونه تصمیم‌ها و هنجارها اخلاقی را چه فرد یا افرادی تعیین می‌کند. آیا تضمینی وجود دارد که برنامه نویسان، هنجارها را مطابق با نظر و خواسته‌ی خود به روبات‌ها آموزش ندهند؟ همچنین ممکن است با سو استفاده از چارچوب جدید یاد شده یا هک و جایگذاری هنجارهای جدید و نادرست در این سامانه‌ها، آن‌ها را تشویق به آسیب‌رسانی به مردم یا انجام اعمال مجرمانه کرد.
پ
برای دسترسی سریع به تازه‌ترین اخبار و تحلیل‌ رویدادهای ایران و جهان اپلیکیشن برترین ها را نصب کنید.

همراه با تضمین و گارانتی ضمانت کیفیت

پرداخت اقساطی و توسط متخصص مجرب

ايمپلنت با 15 سال گارانتی 10/5 ميليون تومان

>> ویزیت و مشاوره رایگان <<
ظرفیت و مدت محدود

محتوای حمایت شده

تبلیغات متنی

ارسال نظر

لطفا از نوشتن با حروف لاتین (فینگلیش) خودداری نمایید.

از ارسال دیدگاه های نامرتبط با متن خبر، تکرار نظر دیگران، توهین به سایر کاربران و ارسال متن های طولانی خودداری نمایید.

لطفا نظرات بدون بی احترامی، افترا و توهین به مسئولان، اقلیت ها، قومیت ها و ... باشد و به طور کلی مغایرتی با اصول اخلاقی و قوانین کشور نداشته باشد.

در غیر این صورت، «برترین ها» مطلب مورد نظر را رد یا بنا به تشخیص خود با ممیزی منتشر خواهد کرد.

بانک اطلاعات مشاغل تهران و کرج