چرا خودروهای خودران تصادف می کنند؟
تصادف تسلا مدل اس در حالت رانندگی خودران که سبب فوت راننده شد، بحثهای زیادی پیرامون این تکنولوژی به وجود آورده است. در این مقاله به بررسی این موضوع میپردازیم که سیستمهای هوشمند خودران، چه زمانی دچار اشتباه میشوند.

آموزش ماشینی میتواند راه راحتتری را برای برنامهریزی کردن کامپیوترها برای انجام کارهایی که کد نویسی آنها به صورت دستی بسیار مشکل است، ارائه دهد. برای مثال آموزش یک شبکه عصبی مصنوعی میتواند برای تشخیص سگها در عکسها یا فیلمهای ویدیوئی با دقت قابل توجهی تعلیم داده شود. وجه تلنگر برای این سیستمها، فهم چگونگی کارکرد این سیستمهای پیچیده است. شبکه عصبی مصنوعی میتواند برای تامین اندازه اطمینان خود در دستهبندی طراحی شوند، اما پیچیدگی محاسبات ریاضی موجود به این معنا است که این شبکه برای فهم چگونگی تصمیمگیری شبکه را از هم جدا نمیکند.
از آنجایی که این الگوریتم متداولتر است، رگلاتورهای آن نیاز به در نظر گرفتن اینکه چگونه باید ارزیای شود، دارد. خودروسازان آگاه هستنند که افزایش پیچیدگی و خودکارسازی خودروها کار کاوش را برای رگلاتورها دشوارتر میکند. تویوتا بودجه یک پروژه تحقیقاتی در دانشگاه MIT که کار بررسی عملکرد وسایل نقلیه خودکار بعد از وقوع حادثه را انجام میدهد، تامین کرده است. این تامین بودجه توسط خودروسازان ژاپنی در چندین پروژه مرتبط با خودروهای خودران را انجام میشود.

یادگیری عمیق (deep learning) می تواند با کنترل خودرو در پاسخ به اطلاعات سنسور، در پشت شناسایی اشیاء در تصاویر مورد استفاده قرار گیرد. تیمی در دانشگاه پرینستون (Princeton) یک سیستم رانندگی خودکار بر پایه یادگیری عمیق طراحی کردهاند. همچنین تحقیقات انجام گرفته در شرکت Nvidia (شرکت تولید کننده تراشه) که طیفی از سختافزارها را برای خودروسازها تولید میکند، سبب تولید یک خودرو خودران بر پایه یادگیری عمیق شده است.
کارل ایگنا (Karl Iagnemma) یکی از محققان اصلی دانشگاه MIT و کاشف Nutonomy، استارتاپ کار روی تاکسیهای خودران، معتقد است تحقق سیستم یادگیری عمیق end-to-end بسیار دشوار است. این محقق می گوید: «شما در ارتقاء دادن یک الگوریتم جعبه سیاه هستید که بر پایه مثالهایی از زانندگی امن آموزش داده شده است، اما خروجی آن بسیار مرموز و نامطئن است.» سیلویو ساورس (Silvio Saverse) دانشیار متخصص بینایی ماشین (machine vision) در دانشگاه استنفورد میگوید: «یک مشکل آموزش ماشین مرسوم این است که فاقد توانایی انسان در نتیجهگیری از اشکالات مختلف اطلاعاتی است. حتی اگر یک وسیله نقلیه به طور موقت مسدود شود. ما از تعداد بیشماری اطلاعات متنی استفاده میکنیم و مکانیزم یادگیری فعای این را به خوبی اجام نمیدهد.»
تحقیقات تسلا از نزدیک توسط افراد و محققانی که در توسعه تکنولوژی خودرو خودران کار میکنند، به صورت کامل دنبال میشود. در هر صورت، نگرانی در مورد درک عمومی از فنآوری و ایمنی وجود دارد.
ایگنما نمیخواهد شاهد واکنش سریع تصادف باشد. او میگوید: «ما در لحظهای هستیم که این مسئله میتواند فرآیند را متفوق سازد. اگر خرد جمعی گمان برد که یک تصادف یعنی خودروسازها بسیار بیپروا هستند، پس یک مانع بسیار بزرگ ایجاد شده است.»
ارسال نظر