۴۱۳۵۲۷
۱ نظر
۵۷۲۲
۱ نظر
۵۷۲۲
پ

هشدار دوباره هاوکینگ در مورد هوش مصنوعی

استیون هاوکینگ یکبار دیگر از توسعه بیش از حد هوش مصنوعی ابراز نگرانی کرد. دو سال پیش بود که این فیزیکدان مشهور برای اولین بار پیشرفت هوش مصنوعی را برابر با نابودی بشریت دانست.

وب سایت گجت نیوز - مصطفی معصوم پور: استیون هاوکینگ یکبار دیگر از توسعه بیش از حد هوش مصنوعی ابراز نگرانی کرد. دو سال پیش بود که این فیزیکدان مشهور برای اولین بار پیشرفت هوش مصنوعی را برابر با نابودی بشریت دانست. اخیرا نیز مرکزی برای بررسی پیامدهای هوش مصنوعی افتتاح شده است.
هشدار دوباره هاوکینگ در مورد هوش مصنوعی

علاوه بر استیون هاوکینگ، چهره‌های مشهور دیگری همچون ایلان ماسک، بیل گیتس و استیو ووزنیاک در خصوص پیشرفت هوش مصنوعی هشدار داده‌اند؛ اما تصویری که استیون هاوکینگ از این اتفاق در نظر دارد کمی آخرالزمانی‌تر است. وی دنیایی را تصور می‌کند که دیگر ربات‌ها به انسان‌ها نیازی نداشته باشند.

هاوکینگ و سایر افراد مذکور قصد دارند به جهان در خصوص پیشرفت روزافزون علم هشدار داده و دیگران را نیز با خود همراه کنند و تا حدودی هم موفق بودند؛ چرا که اخیرا مرکزی با نام «مرکز آینده‌ی هوش» در دانشگاه کمبریج افتتاح شده است. این مرکز با این هدف راه اندازی شد تا پیامدهای هوش مصنوعی را بررسی کند. استیون هاوکینگ نیز در این مرکز حضور داشته و عنوان کرد که به خاطر جدی گرفته شدن حرف‌هایش خوشحال است.

هشدار دوباره هاوکینگ در مورد هوش مصنوعی

هاوکینگ در این مرکز به بیان فرصت‌ها و تهدیدهای تکنولوژی پرداخت و برخی از دستاوردهای تازه در خودروها از جمله اتومبیل‌های خودران را مثال زد. وی گفت: «به نظر من بین کاری که مغز انجام می‌دهد و کاری که یک کامپیوتر می‌تواند انجام دهد تفاوتی وجود ندارد. کامپیوترها در تئوری می‌توانند هوش انسان را تقلید کنند و حتی از آن پیشی بگیرند.»

پیشرفت هوش مصنوعی می‌تواند بهترین یا بدترین اتفاق برای بشریت باشد

استیون هاوکینگ معتقد است که چنین پیشرفتی می‌تواند فقر و بیماری‌ها را از بین ببرد و حتی معضلی مانند تغییرات اقلیمی زمین را حل کند؛ اما این علم ممکن است منجر به تولید سلاح‌های خود مختار، ایجاد بحران‌های اقتصادی و یا تولید ماشین‌هایی شود که به مقابله با انسان‌ها می‌پردازند. به گفته‌ی هاوکینگ، پیشرفت هوش مصنوعی می‌تواند بهترین اتفاق برای بشریت باشد و شاید هم به بدترین اتفاق برای نسل بشر تبدیل شود و ما هنوز مطمئن نیستیم که کدام یک از این اتفاقات رخ خواهد داد.

مرکز آینده‌ی هوش در دانشگاه کمبریج تحقیقاتی را در این مورد انجام داده و دانشمندان، روانشناسان، وکلا و متخصصان کامپیوتر در این مرکز گرد هم آمده‌اند تا به این پرسش پاسخ دهند که هوش مصنوعی تا چه اندازه برای بشریت خطرناک است؟ نمونه‌ای از بررسی‌های این محققان در مورد اتومبیل‌های خودران است تا متوجه شویم که سیستم رانندگی خودران باید برای حفظ جان سرنشین طراحی شود یا حفظ جان عابر پیاده؟

یکی دیگر از سخنرانان مراسم افتتاحیه‌ی مرکز آینده‌ی هوش، پروفسور مگی بادن (Maggie Boden) است. او که یکی از چهره‌های برجسته در پنج دهه‌ی اخیر در زمینه‌ی هوش مصنوعی بوده، اظهار کرد: «مدت‌هاست به چنین بحثی نیاز داشتم اما هیچ‌گاه نگران انقراض نسل بشر نبودم. چرا که من برخلاف پروفسور هاوکینگ در خصوص پیشروی با سرعت زیاد به سوی آینده‌ی هوش مصنوعی متقاعد نشده‌ام.»

بیشترین نگرانی پروفسور بادن در مورد تاثیرات روزمره زندگی ماشینی بوده است. به عنوان مثال امروزه در ژاپن برای مراقبت از بیماران و سالخوردگان از ربات‌ها استفاده می‌کنند که به عقیده‌ی وی عملی غیر انسانی است. در واقع ربات‌ها در اموری که به هوش احساسی نیاز دارد نمی‌توانند جایگزین انسان‌ها شوند.
به گفته‌ی بادن، ممکن است هوش مصنوعی موجب کم شدن هزینه‌ی سرسام آور خدمات اجتماعی برای دولت‌ها شود اما کسانی که به این کمک‌ها نیاز داشته باشند از این قضیه متضرر خواهند شد. این موضوع یکی از مسائلی است که مرکز آینده‌ی هوش به آن خواهد پرداخت و به نظر می‌رسد که اهمیت آن از تهدید احتمالی ربات‌های نابودگر در دهه‌های آینده بیشتر باشد.
پ
برای دسترسی سریع به تازه‌ترین اخبار و تحلیل‌ رویدادهای ایران و جهان اپلیکیشن برترین ها را نصب کنید.

همراه با تضمین و گارانتی ضمانت کیفیت

پرداخت اقساطی و توسط متخصص مجرب

ايمپلنت با 15 سال گارانتی 10/5 ميليون تومان

>> ویزیت و مشاوره رایگان <<
ظرفیت و مدت محدود

محتوای حمایت شده

تبلیغات متنی

نظر کاربران

  • رضا

    فکرشو بکن اگه ربات ها خود کار بشن ینی هرکاری رو که دوست دارن انجام بدن چی میشه؟ یا مثلا از دست یکی عصبانی بشن و طرف رو بگیرن بکشن
    اصلا هوش مصنوعی حتما میشه هکش کرد
    خطرات بدی درکمین است ...
    هنوز هوش مصنوعی کامل نیست

ارسال نظر

لطفا از نوشتن با حروف لاتین (فینگلیش) خودداری نمایید.

از ارسال دیدگاه های نامرتبط با متن خبر، تکرار نظر دیگران، توهین به سایر کاربران و ارسال متن های طولانی خودداری نمایید.

لطفا نظرات بدون بی احترامی، افترا و توهین به مسئولان، اقلیت ها، قومیت ها و ... باشد و به طور کلی مغایرتی با اصول اخلاقی و قوانین کشور نداشته باشد.

در غیر این صورت، «برترین ها» مطلب مورد نظر را رد یا بنا به تشخیص خود با ممیزی منتشر خواهد کرد.

بانک اطلاعات مشاغل تهران و کرج