خودروهای خودران هم باید اخلاق داشته باشند!
شاید برایتان سوال باشد که آیا یک ماشین خودران هم نیاز به اخلاق دارد؟ جواب این سوال مثبت است، اخلاق گستره وسیعی از تصمیمگیریها است، تصمیمگیری در مواقع سخت، برای حفظ جان خودمان یا دیگران .اما یک ماشین خودران چطور این تصمیم را میگیرد.
برای درک بهتر موضوع خانوادهای را تصور کنید که برای گذارندن تعطیلات در حال سفر با ماشین داخل یک جاده هستند. آفتاب مدتی است غروب کرده و پدر خانواده در حال رانندگی است در حالی که همسر و فرزندش روی صندلی کناری و عقب در خواب هستند.
امیدواریم که این سناریوی فرضی هیچگاه برای ما رخ ندهد، اما هر رانندهای ممکن است روزی مجبور به انتخاب بین مرگ و زندگی در زمانی کوتاه شود. این تصمیم از منطق، واکنش و یک تعادل ظریف بین نوع دوستی و خودخواهی تشکیل شده که در همه ما وجود دارد. برای همسر و فرزند پدرخانواده ما، او به طور قطع یک قهرمان خواهد بود،هرچند در نهایت چیزی بیشتر از یک انسان نیست. حالا اما ما در نقطهای ایستادهایم که چنین تصمیم گیریهایی در حال واگذاری به ماشینها است، در چنین حالتی مقدم بر پیچیدگیهای فنی، سوال اساسی این است که چطور چنین اخلاقیاتی را به این ماشینها یاد بدهیم. برای ماشین تفاوتی بین جان پدر، مادر و فرزند وجود ندارد و آیا باید وجود داشته باشد؟ او چطور میتواند بین جان آنها یا حتی انبوهی از رهگذاران یا چند رهگذر، یکی را انتخاب کند؟
حتما مثال مشهور قطار را شنیدهاید؛ شما سوزنبان ریلی هستید و یک قطار ترمز بریده در حال نزدیک شدن به نقطه تغییر مسیر است. اگر قطار به راهش ادامه دهد، ۵ نفر را خواهد کشت و اگر شما مسیر را عوض کنید، ۲ نفر میمیرند. تصمیم شما چه خواهد بود؟
بسیاری بدون تردید میگویند، جان ۵ نفر به جان ۲ نفر ارجحیت دارد، اما موضوع به این سادگیها نیست. اگر یکی از آن دو نفر دانشمند بسیار مهمی باشد که در آستانه یک کشف مهم قرار داشته باشد چطور؟ کشفی که میتواند جان هزاران نفر را حفظ کند.
میبینید که این تصمیمگیریهای اخلاقی همیشه برای خود ما هم ساده نیستند و جواب مشخصی ندارند. حال ما چطور باید به ماشینها چیزی را یاد بدهیم که خودمان هم جواب درستی برایش نداریم.
قوانین آسیموف
ایلان ماسک کارآفرین آمریکایی وصاحب شرکتهایی که در زمینه هوش مصنوعی هم کار میکنند، زمانی در توییترش نوشت:« این ماشینها میتوانند از بمب اتمی هم خطرناکتر باشند». منظور از ماشین البته هوش مصنوعی منهای اخلاقیات است. سالها پیش از این، آیزاک آسیموف نویسنده مشهور رمانهای علمی و تخیلی با تدوین قوانینی برای رباتهای داستانش، کدهایی اخلاقی در این زمینه به وجود آورد، که حتی گاهی در صنعت هم رعایت میشوند. قوانین آسیموف میگویند؛
۰- یک ربات نباید به بشریت آسیب بزند.
۱-یک ربات نباید با ارتکاب عملی یا خودداری از انجام عملی باعث آسیبدیدن یک انسان شود مگر اینکه قانون صفرم نقض شود.
۲-یک ربات باید از فرمانهای انسانها تبعیت کند مگر اینکه آن فرمانها در تعارض با قانون نخست باشد.
۳-تا هنگامی که قانون صفرم یا نخست یا دوم زیرپا گذاشته نشدهاست ربات باید وجود خود را حفظ کرده و در بقای خود بکوشد.
اما آیا این قوانین برای هوش مصنوعی مدرن و جدید و شرایط پیچیده کفایت میکنند. مثلا اگر ربات یا همان هوش مصنوعی مجبور به انتخاب بین جان دو فرد مختلف شود و برای این کار دست به انتخابی بزند که باعث آسیب به یک انسان دیگر شود چطور؟
به نظر میرسد، این قوانین ناکافی هستند و نوعی اخلاقیات برای هوش مصنوعی ضروری است. شاید در نگاه نخست هدف بسیار ساده باشد. همه حالتهای ممکن را برای هوش مصنوعی برنامهریزی کنید و انتخابها را هم مشخص کنید. مثلا به ربات یاد بدهید که حفظ جان یک زن باردار در ماشین مقدم به حفظ جان بقیه است.
نظر کاربران
به امید روزی که پراید هم خودران شود