۷۰۱۰۵۸
۵ نظر
۵۰۲۱
۵ نظر
۵۰۲۱
پ

ورود سازمان‌ ملل متحد برای کنترل روبات‌های قاتل

اگر یک روبات انسان را بکشد چه کسی مقصر است؟

روزنامه ایران - میثم لطفی: اگر یک فرد شخص دیگری را به قتل برساند قوانین مشخصی برای مجازات او وجود دارد و دادگاه بر اساس موازین موجود براحتی او را محاکمه می‌کند. با وجود این اگر یک دستگاه هوشمند الکترونیکی مانند روبات باعث قتل یک انسان شود، به نظر شما چه کسی مقصر خواهد بود؟

روزنامه ایران - میثم لطفی: اگر یک فرد شخص دیگری را به قتل برساند قوانین مشخصی برای مجازات او وجود دارد و دادگاه بر اساس موازین موجود براحتی او را محاکمه می‌کند. با وجود این اگر یک دستگاه هوشمند الکترونیکی مانند روبات باعث قتل یک انسان شود، به نظر شما چه کسی مقصر خواهد بود؟

اگرچه این روزها اخباری مبنی بر اقدامات صلح‌جویانه «کیم جونگ اون» به گوش می‌رسد، ولی بر اساس آخرین گزارش‌ها فضای بین کره شمالی و کره جنوبی پرتنش‌ترین مرز میان دو کشور در سراسر جهان معرفی شده است و در این نقطه از کره خاکی روبات‌های هوشمند بیشتر از سربازان نگهبانی می‌دهند و این احتمال وجود دارد در صورت مشاهده هرگونه تخلف، روبات‌ها به سمت انسان شلیک کنند و او را از پا دربیاورند.

قاتلی از جنس روبات

کره جنوبی بتازگی از ساخت روبات هوشمندی خبر داده است که با نام SGR-A۱ شناخته می‌شود و یکی از شعبه‌های سامسونگ وظیفه ساخت آن را برعهده داشته است. شکل ظاهری این روبات نگهبان ۱.۲ متری شبیه به چند جعبه سیاه است که در کنار یکدیگر قرار گرفته‌اند و البته در قسمت سر روبات لیزرهای مادون قرمز کار چشم را برای آن انجام می‌دهند که دشمن نتواند به مواضع آن نزدیک شود و کوچک‌ترین حرکات تا شعاع چهار کیلومتری در دید آن پنهان نماند. این روبات در اصل یک سرباز بسیار ماهر است که در صورت شناسایی هر گونه تخلف دست به کار می‌شود.

در مرحله کنونی، این روبات به گونه‌ای آموزش دیده است که هنگام مشاهده نیروهای دشمن آن را به فرمانده خود که در مرکز کنترل قرار دارد، گزارش می‌دهد. اگر در مرکز کنترل به او دستور داده شود، روبات می‌تواند دشمن را به گلوله ببندد. برای SGR-A۱ همچنین قابلیتی در نظر گرفته شده است تا به صورت خودکار عمل کند و هر زمان مناسب دید، بدون نیاز به دریافت مجوز وارد عمل شود و مواضع دشمن را به رگبار ببندد. پنتاگون و دیگر ارتش‌های بزرگ جهان به صورت گسترده در حال توسعه سلاح‌های هوشمندی هستند که قدرتمندتر از پهپادهای کنترلی واشنگتن در پاکستان، افغانستان و... عمل می‌کنند. پیشرفت‌های فناوری به این دسته از سلاح‌ها امکان می‌دهد تا بتوانند اهداف خود را بدرستی شناسایی کنند و بدون دخالت انسان آنها را از بین ببرند. وزارت دفاع امریکا پیش‌بینی کرده است که این سلاح‌ها در آینده نه چندان دور می‌توانند دوش به دوش انسان‌ها در خط مقدم میدان‌های جنگ حاضر شوند.
موضوع روبات‌های قاتل از جمله بحث‌هایی است که برای انسان چندان خوشایند به نظر نمی‌رسد. این هفته کنفرانس ائتلاف بین‌المللی توسعه‌دهندگان روبات، دانشگاه‌ها و فعالان حقوق بشر با نام «کمپین نه به روبات‌های قاتل» در مقر سازمان ملل متحد برگزار شد و سیاستمداران را مورد هدف قرار داد. این گروه از افراد در جریان برگزاری کنفرانس مذکور سعی کردند ساخت و استفاده از «سلاح‌های خودکار مرگبار» متوقف شود و البته این اتفاق در حالی صورت گرفت که با وجود توسعه فناوری، این سلاح‌ها هنوز به صورت رسمی استفاده نشده‌اند.

نه به روبات‌های قاتل

«پیتر آسارو» از محققان حوزه رسانه در مرکز «نیو اِسکول» شهر نیویورک و سخنگوی فراخوان «نه به روبات‌های قاتل» در این خصوص گفت: «سؤالی که در اینجا مطرح می‌شود این است که آیا ماشین‌ها اجازه دارند جان انسان را بگیرند و حتی اگر این اتفاق نیفتد، ساخت چنین دستگاه‌هایی نمی‌تواند ارزش و هویت انسان را زیر پا بگذارد؟».

این همان سؤالی است که فیلسوفان، کارشناسان علوم حقوقی و محققان اجتماعی از مدت‌ها قبل مطرح کردند و هشدار دادند توسعه فناوری می‌تواند در آینده نزدیک روبات‌ها را به قدری قدرتمند کند که مرگ و زندگی انسان به دست آنها مشخص شود. روبات‌ها این روزها با هدف مراقبت از سالمندان، آموزش کودکان اوتیسمی، رانندگی در اتومبیل، انجام جراحی‌های پزشکی و... توسعه می یابند. اگرچه این روبات‌ها برای کشتن انسان‌ها طراحی نشده‌اند، ولی هم‌اکنون این سؤال از مراجع قضایی مطرح شده است که: اگر یک عابر پیاده پس از برخورد با اتومبیل خودران جان خود را از دست دهد چه کسی مقصر خواهد بود؟ اگر یک روبات هوشمند پزشکی با تجویز اشتباه دارو باعث مرگ بیمار شود چه کسی پاسخگو است؟ اگر اشتباه یک روبات نگهبان در شلیک به مواضع دشمن باعث آغاز جنگ میان دو کشور شود چه اتفاقی صورت می‌گیرد. چندی پیش در برخی خبرها گفته شد که یک روبات هوشمند مخصوص تمیز کردن خانه، موهای فردی را که روی مبل دراز کشیده بود به داخل خود کشید و باعث ایجاد آسیب جدی در وی شد. در این حالت چه کسی مقصر است؟

پروفسور آسارو و اعضای گروه او که چندین فعال حقوق بشر را شامل می‌شوند بر این مسأله تأکید دارند که اگر یک سیستم رایانه‌ای خودکار مانند روبات برنامه‌ریزی شده مخصوص تشخیص نیروهای دشمن از غیرنظامیان بدون کنترل انسان باعث مرگ یک نفر شود، بسیار دشوار است که بتوان یک فرد یا گروه را در این زمینه مقصر دانست. این همان خلأ بزرگی است که هنوز در این زمینه برطرف نشده است.

خلأ قانونی

براساس تئوری‌های کنونی گفته می‌شود که اگر یک روبات خودکار وارد روستا شود و همه اهالی آن را به قتل برساند، هیچ دادگاه یا مرکز قضایی وجود ندارد که یک جسم بی‌جان را مجازات کند و «دادگاه جنایی بین‌المللی» نیز قانون مشخصی در این خصوص وضع نکرده است. برخی کارشناسان بر این باورند که هنگام بروز اتفاق مذکور نمی‌توان طراحان و سازندگان روبات را هم مقصر دانست، زیرا ممکن است در برنامه‌ریزی‌های اولیه هرگز برای روبات تعریف نشده باشد که تمام اهالی یک روستا را به قتل برساند. دادگاه‌ها بر اساس قوانین کیفری موجود نیازمند آن هستند تا با بررسی پرونده مربوطه ذهن آگاه عامل جنایت را شناسایی کنند. با وجود این زمانی که دادگاه با یک روبات مواجه می‌شود این مشکل وجود دارد که چگونه به ذهنیت و هدف از جنایت او پی ببرد، زیرا برای روبات هوش مصنوعی تعریف شده است و افکار و احساسات انسانی را درک نمی‌کند. ممکن است طراحان یا سازندگان روبات مسئولیت مدنی در قبال روبات خود داشته باشند و به‌عنوان مثال اگر بررسی‌های صورت گرفته ثابت کند که اختلال نرم‌افزاری یا سخت‌افزاری باعث اعمال روبات شده است، آنها می‌توانند محاکمه شوند ولی این قبیل مجازات‌ها نمی‌تواند جلوی حضور روبات‌های قاتل را بگیرد و ادامه فعالیت آنها را متوقف کند.

روبات‌های قاتل می‌توانند در اشکال مختلف ظاهر شوند و از هواپیماهای بدون سرنشین گرفته تا ماشین‌های مریخ‌نورد، به اسلحه مجهز شوند. وزارت دفاع ایالات متحده در سال 2012 میلادی بر اساس دستورالعمل جامع خود اعلام کرد تمامی سیستم‌های خودکار باید به گونه‌ای طراحی شوند که فرماندهان و اپراتورها بتوانند سطوح مناسب قضاوت در مورد استفاده از اسلحه در آنها را کنترل کنند. وزارت دفاع کانادا نیز چندی پیش اظهار داشت: «در حال حاضر هیچ گونه سلاحی که به صورت خودکار و بدون دخالت انسان بتواند شلیک کند و جان فردی را بگیرد در دست نداریم». با وجود این آژانس تحقیقاتی وابسته به این وزارتخانه «برنامه فعال مطالعاتی در حوزه سیستم‌های هوشمند غیرانسانی» را پیش می‌برد.

شرکت «کلییرپَث» که دفتر مرکزی آن در شهر اونتاریو واقع شده است از نخستین مراکز جهان محسوب می‌شود که در مقابل توسعه روبات‌های قاتل گام برداشته است تا از این طریق بتواند در مقابل آزمایشگاه تحقیقاتی روبات‌های هوشمند کانادا گام بردارد.

«رایان گریپی» بنیانگذار این مرکز توضیح داد روبات‌های مین‌یاب یا روبات‌های ناجی از جمله روبات‌های نظامی محسوب می‌شوند که با اهداف انساندوستانه توسعه یافته‌اند و هرگز به سمت انسان اسلحه نمی‌کشند. حضور این قبیل روبات‌ها در میادین نبرد می‌توانند بدون خونریزی جان افراد زیاد را نجات دهند و بهتر است این دسته روبات‌های نظامی توسعه یابند. به هر حال، هنوز بدرستی مشخص نشده است که سازمان ملل متحد و دیگر مراکز جهانی در مقابل روبات‌های قاتل چه موضعی دارند و چگونه با وضع قوانین جدید می‌توانند جلوی توسعه آنها را بگیرند.

نیم‌نگاه

موضوع روبات‌های قاتل از جمله بحث‌هایی است که برای انسان چندان خوشایند به نظر نمی‌رسد. این هفته کنفرانس ائتلاف بین‌المللی توسعه‌دهندگان روبات، دانشگاه‌ها و فعالان حقوق بشر با نام «کمپین نه به روبات‌های قاتل» در مقر سازمان ملل متحد برگزار شد و سیاستمداران را مورد هدف قرار داد

اگر یک روبات خودکار وارد روستا شود و همه اهالی آن را به قتل برساند، هیچ دادگاه یا مرکز قضایی وجود ندارد که یک جسم بی‌جان را مجازات کند و «دادگاه جنایی بین‌المللی» نیز قانون مشخصی در این خصوص وضع نکرده است

پ
برای دسترسی سریع به تازه‌ترین اخبار و تحلیل‌ رویدادهای ایران و جهان اپلیکیشن برترین ها را نصب کنید.

همراه با تضمین و گارانتی ضمانت کیفیت

پرداخت اقساطی و توسط متخصص مجرب

ايمپلنت با 15 سال گارانتی 10/5 ميليون تومان

>> ویزیت و مشاوره رایگان <<
ظرفیت و مدت محدود

محتوای حمایت شده

تبلیغات متنی

نظر کاربران

  • بدون نام

    صاحبش

    پاسخ ها

    • دیوید

      اگر صاحبش معلوم نباشه چی؟

    • بدون نام

      کارخانه اش

  • بدون نام

    حتما احمدی نژاد

  • بدون نام

    خودشا بادستگاه برش ببرید

ارسال نظر

لطفا از نوشتن با حروف لاتین (فینگلیش) خودداری نمایید.

از ارسال دیدگاه های نامرتبط با متن خبر، تکرار نظر دیگران، توهین به سایر کاربران و ارسال متن های طولانی خودداری نمایید.

لطفا نظرات بدون بی احترامی، افترا و توهین به مسئولان، اقلیت ها، قومیت ها و ... باشد و به طور کلی مغایرتی با اصول اخلاقی و قوانین کشور نداشته باشد.

در غیر این صورت، «برترین ها» مطلب مورد نظر را رد یا بنا به تشخیص خود با ممیزی منتشر خواهد کرد.

بانک اطلاعات مشاغل تهران و کرج