خطرهای هوش مصنوعی
هوش مصنوعی اگر چه کارکرد های مفید زیادی برای بشر داشته اما به نظر می رسد خطرهایی هم دارد با این خطرها آشنا شوید
خراسان: هم اکنون هوش مصنوعی یکی از بزرگ ترین ابزارهای پیشرفت در جهان به شمار می رود. این دستاورد توانسته تحول بزرگی در صنایع ایجاد کند ولی این تکنولوژی، با همه دستاوردهایش هنوز گام های نخست را طی می کند و به همین دلیل خطاهای زیادی دارد و ممکن است خطراتی را هم برای بشر به همراه داشته باشد. به جز خطراتی که خود هوش مصنوعی دارد، استفاده های نادرست از آن هم میتواند برای نسل بشر خطر آفرین شود. امروز باهم برخی از خطراتی را که هوش مصنوعی می تواند برای انسان به همراه داشته باشد، مرور می کنیم.
هوش مصنوعی خیلی ساده گول می خورد
با وجود پیشرفت چشمگیر سیستم بینایی ماشین های هوشمندطی سال های اخیر، همچنان احتمال بروز خطاهای جدی توسط آن وجود دارد. این خطاها آن قدر زیاد است که می تواند رانندگی با خودروهای خودران را بسیار خطرناک کند. به طور مثال روی یک سیب نوشته اند آی پد و هوش مصنوعی ۹۹ درصد آن را آی پد تشخیص داده است. البته این خطاها به صورت طبیعی و با عکس های معمولی هم رخ داده است که باعث نگرانی بیشتر می شود چون نشان می دهد احتمال بروز خطاهای واقعی و برنامه ریزی نشده در چنین سیستم هایی وجود دارد.
محققانی از دانشگاه های برکلی، واشنگتن و شیکاگو، دیتابیسی از 7500 عکس متضاد طبیعی را با چندین سیستم بینایی ماشین امتحان کردند و متوجه شدند دقتشان بیش از 90 درصد افت می کند و در برخی موارد نرم افزار تنها قادر به تشخیص 2 تا 3درصد تصاویر است. برای مثال در عکس های زیر، هوش مصنوعی از چپ به راست سوژه تصاویر را راسو، موز، شیر دریایی و دستگیره آشپزخانه تشخیص داده این در حالی است که دیدن سنجاقک در این تصاویر برای ما انسان ها بسیار ساده است.
چنگاندازی هوش مصنوعی به حریم خصوصی
جدای از خطر تشخیص اشتباه هوش مصنوعی باید به یکی دیگر از خطرات هوش مصنوعی اشاره کنیم. حریم خصوصی از ابتداییترین حقوق بشر است. با این همه، ممکن است چنین مفهومی، در آیندهای نه چندان دور، به دلیل استفاده نادرست از فناوری هوش مصنوعی کاملا پایمال شود. امروزه، به لطف پیشرفت در هوش مصنوعی، ردیابی افراد به سادگی آب خوردن شده است.
با فناوری تشخیص چهره، شناسایی شما در انبوهی از جمعیت به سادگی امکانپذیر است و برخی دوربینهای امنیتی در برخی کشورها به این فناوری مجهز هستند. توانایی گردآوری دادههای هوش مصنوعی این امکان را برای وبسایتهای فراهمآورنده و شبکههای مختلف اجتماعی به وجود میآورد که یک جدول زمانی از فعالیتهای روزانه شما را در اختیار داشته باشند. البته در گزارشی در همین صفحه از اشتباهات نژاد پرستانه ای نوشته ایم که هوش مصنوعی در تشخیص چهره تاکنون داشته است.
جنگ روبات های سرباز
روبات های کشنده، روباتهای سربازی هستند که میتوانند مطابق برنامه از پیش تعیین شده هدف خود را جستوجو کنند یا به صورت کاملا مستقل عملیات هدف گذاری را انجام دهند. طبق گزارش ها، کمابیش تولید چنین روباتهایی در دستور کار همه کشورهای پیشرفته قرار گرفته است.
برپایه گفتههای یک مقام ارشد نظامی چینی، پیش بینی شده جنگهای آینده به دست انسان انجام نمیشود بلکه گرداننده آنها روباتهای سرباز خواهند بود. به کارگیری چنین جنگافزارهایی، از دیگر نگرانیهای موجود در زمینه هوش مصنوعی است. چه میشود اگر این روباتها سرکشی کنند و کارهای خطرآفرینی انجام دهند یا اگر نتوانند میان اهداف خود و افراد بیگناه تمیز قایل شوند؟ در این حالت، چه کسی پاسخگوی این پیشامد خواهد بود؟
هوش مصنوعی و از بین رفتن شغل انسان ها
براساس گزارش منتشر شده توسط سازمان جهانی Mckinsey، حدود۸۰۰ میلیون کار و پیشه در سراسر جهان تا سال ۲۰۳۰ توسط هوش مصنوعی انجام خواهد شد. حال این پرسش به وجود می آید چه بر سر انسانهایی خواهد آمد که قبلا این 800 میلیون شغل را داشته اند؟ البته در این میان برخی بر این باورند که شغل های جدید بسیاری به خاطر وجود هوش مصنوعی ایجاد خواهند شد، بنابراین، یک ترازی بین مشاغل از دست رفته و مشاغل جدید ایجاد میشود. این افرادبر این باورند که بعد از این، مردم به جای انجام پیشههای زمانبر و سخت، زمان بیشتری را برای انجام کارهای مهم و گذراندن وقت با دوستان و خانوادههایشان خواهند داشت.
استفاده تروریستی از هوش مصنوعی
درحالی که هوش مصنوعی میتواند تا اندازه چشمگیری در انجام کارهای سخت و طاقت فرسا به یاری آدمی بشتابد، متاسفانه در مقابل میتواند در دست افراد بی صلاحیت قرار گیرد و کمک بزرگی برای تروریستها در انجام حملات دهشتناک باشد. هم اکنون، برخی از بنگاههای تروریستی برای انجام حملات خود در دیگر کشورها، از هواپیماهای بدون سرنشین بهرهبرداری میکنند. ISIS (داعش) نخستین حمله پهپادی موفق خود را در سال ۲۰۱۶ انجام داد که منجر به کشته شدن دو نفر در عراق شد. این مسئله اهمیت وضع قوانینی سختگیرانه برای استفاده از هوش مصنوعی و دسترسی افراد به آن را چندین برابر میکند.
تاثیر تعصبات نژاد پرستانه بر هوش مصنوعی
حقیقت تلخی وجود دارد که گهگاه آدمی درخصوص یک مذهب، باور، ملت یا نژاد تعصباتی خشمگینانه و گاهی بیرحمانه دارد. چنین تعصباتی کاملا ناآگاهانه نیز میتواند توسط افرادی متعصب به سامانههای هوش مصنوعی (که به دست انسان گسترش داده میشوند) وارد و باعث سوگیریهای نادرستی شود. برای مثال، آمازون به تازگی آگاه شده که یک مدل یادگیری ماشین بر پایه الگوریتم استخدام، کاملا علیه زنان و مغرضانه است.
این الگوریتم با توجه به شمار زیاد رزومه کاری کارمندان استخدام شده در ۱۰ سال گذشته، آموزش داده و طراحی شده است. از آن جا که بیشتر کارمندان، آقایان بودند، در این الگوریتم مردها ارزشمندتر از زنان در نظر گرفته شدهاند. در نمونه دیگری گوگل با به کارگیری فناوری پردازش تصویر، عکسهای دو فرد با نژاد آفریقایی-آمریکایی را با تگ «گوریل» ذخیره کرده که نشانه واضح از تعصب و خشکاندیشی نژادی است.
ارسال نظر