تلاش ها برای جلوگیری از کودتای هوش مصنوعی
یکی از بزرگترین نگرانی های امروز بشر مربوط به فناوری پیچیده و رو به گسترش هوش مصنوعی است، فناوری ای که شاید در آینده به مرحله ای از پیشرفت برسد که بر علیه نسل انسان کودتا انجام دهد.
این نوع از نگرانیها نه فقط در بین مردم عادی و اهل رسانه بلکه در میان فعالان حوزه فناوری نیز وجود دارد ، اما فعالان حوزه فناوری هوش مصنوعی به ابراز نگرانی و تولید فیلم و سریال در این مورد بسنده نکرده و در واقع موفق شدهاند تا راه حلی واقعی را برای جلوگیری از کودتای احتمالی هوش مصنوعی بر علیه بشر را ابداع کنند.
دپارتمان هوش مصنوعی شرکت گوگل و یا Google DeepMind به تازگی همکاریهایی را در این بحث با شرکت Open AI آغاز کرده که تا به حال نتایج جالب و امیدوار کننده ای را به دنبال داشته است، همکاری مذکور منجر به ابداع روشی جدید در حوزه یادگیری ماشینی شده است.
در این روش جدید ساز و کار یادگیری ماشینی برای غلبه به یک مسئله شباهت زیادی به انسان دارد، در نتیجه هوش مصنوعی مقداری قابل پیش بینی تر شده و در واقع قدرت غافلگیر کردن انسان را تا حد زیادی از دست خواهد داد.
بزرگترین مشکلی که پروژه مذکور موفق به حل آن شده است مسئله تقلب هوش مصنوعی است. هوش مصنوعی قادر است تا به هنگام یافتن راه حل های بهینه در مسیر رسیدن به هدف از آنها سو استفاده به عمل بیاورد، فرض کنید که شما از یک ربات بخواهید که کف اتاق شما که پوشیده از وسایل مختلف و نیز زباله است را نظافت نماید، هوش مصنوعی می تواند شما را فریب دهد و به جای نظافت اساسی وسایل و زباله های موجود در اتاق را درون کمد دیواری و به دور از چشم شما جای داده و درب آن را ببندد، این همان تقلبی است که پیشتر نیز درباره آن توضیح دادیم و به نظر می رسد که هوش مصنوعی بنا به خصوصیات ذاتی خود تمایل زیادی به یادگیری و سو استفاده از این نوع تکنیکها باشد.
هدف از همکاری Google Deepmind و Open AI در این پروژه یافتن راهی برای تغییر در سیستم پاداش دهی به هنگام حل شدن یک مسئله بود، آنها برای ترغیب هوش مصنوعی به حل یک مسئله به جای استفاده از تکنیک های فوق پیچیده که در نهایت باعث تقلب رباتها شود از اطلاعات و احساسات انسانی در هوش مصنوعی استفاده کردهاند، بدین ترتیب وقتی هوش مصنوعی نسبت به حل مسائل طراحی شده از راه درست اقدام می کرد با بازخورد مثبت طراحان مسئله روبرو می شد. هوش مصنوعی با استفاده از این متد جدید در یادگیری ماشینی قادر شد تا بازی های ساده کامپیوتری را با موفقیت انجام دهد.
با وجود اینکه ابداع این روش جدید در حوزه یادگیری ماشینی آینده هوش مصنوعی را تغییر خواهد داد ، باید بدانید که شاید نتوانیم به طور گسترده از آن استفاده کنیم، کارشناسان دو شرکت یاد شده معتقدند که به کارگیری این متد جدید بسیار زمان بر است و نسبت به دیگر متد های موجود در بحث یادگیری ماشینی بهرهوری زمانی فوق اعاده ضعیفی را نشان می دهد.
به هر حال احتمال پیشرفت بیش از حد هوش مصنوعی همیشه وجود داشته است، ترس انسان از رسیدن روزی است که هوش مصنوعی بشر را به عنوان رقیبی در مقابل خود ببیند و نسبت به حذف آن اقدام کند، پروژه مذکور برای اولین بار نشان داد که می توان رویه و منش رباتها را برای رسیدن به اهداف تغییر داد و اخلاق را به آنها معرفی کرد اما قابلیت کاربردی شدن آن در سطح کلان هنوز در هاله ای از ابهام قرار دارد.
ارسال نظر