پیشبینی اتفاق هولناک در تقابل انسان با هوش مصنوعی
وقتی صحبت از هوش مصنوعی قابل توضیح و شفاف به میان میآید داستان شبکههای عصبی به ما میگوید که احتمالا در آینده به جای نزدیک شدن از آن هدف دور خواهیم شد.
فرارو- "جک دی کُوان" ریاضیدان و زیست شناس نظری در سال ۱۹۵۶ میلادی در جریان یک سفر یک ساله به لندن و در اوایل دهه ۲۰ زندگی اش با "ویلفرد تیلور" ملاقات کرد و ماشین یادگیری تازه او را از نزدیک مشاهده نمود. او در بدو ورود از مشاهده "بانک عظیم ماشین یادگیری" که با آن مواجه شده بود گیج شد.
به گزارش فرارو به نقل از کانورسیشن؛ کوان تنها میتوانست بایستد و ماشینی که خود در حال انجام کارش بود را تماشا کند کاری که به نظر میرسید انجام میداد اجرای یک "طرح حافظه انجمنی" بود به نظر میرسید که میتوانست یاد بگیرد که چگونه اتصالات را پیدا کند و دادهها را مورد بازیابی قرار دهد.
شاید شبیه بلوکهای مدار ناهمواری به نظر میرسید که با دست در انبوهی از سیمها و جعبهها به هم لحیم شدهاند، اما چیزی که کوان شاهد آن بود یک شکل مشابه اولیه از یک شبکه عصبی به نظر میرسید یک پیشرو برای پیشرفتهترین هوش مصنوعی امروزی از جمله چت جی پی تی (Chat GPT) که به دلیل توانایی در تولید محتوای نوشتار در پاسخ به تقریبا هر دستوری بسیار مورد بحث قرار گرفته است. فناوری زیربنایی چت جی پی تی یک شبکه عصبی است.
همان طور که کوان و تیلور ایستاده بودند و کار ماشین را تماشا میکردند واقعا نمیدانستند که چگونه این کار را انجام میدهد. پاسخ به مغز ماشین مرموز تیلور را میتوان جایی در "نورونهای آنالوگ" در ارتباطهای ایجاد شده توسط حافظه دستگاه آن و مهمتر از همه در این واقعیت یافت که عملکرد خودکار آن را واقعا نمیتوان به طور کامل توضیح داد. دههها به طول میانجامد تا این سیستمها هدف خود را پیدا کنند و آن قدرت باز شود.
اصطلاح "شبکه عصبی" طیف گستردهای از سیستمها را در بر میگیرد، اما به طور مرکزی به گفته IBM این شبکههای عصبی هم چنین به عنوان شبکههای عصبی مصنوعی (ANN) یا شبکههای عصبی شبیه سازی شده (SNN) شناخته میشوند که زیرمجموعهای از یادگیری ماشین هستند و در قلب الگوریتمهای یادگیری عمیق قرار دارند. مهم این است که خود این اصطلاح و شکل و ساختار آن از مغز انسان الهام گرفته شده و از روشی که نورونهای بیولوژیکی به یکدیگر سیگنال میدهند تقلید میکند.
ممکن است در مراحل اولیه شک و تردیدی در مورد ارزش آن وجود داشته باشد، اما با گذشت سالها مُدهای هوش مصنوعی به شدت به سمت شبکههای عصبی حرکت کرده اند. اکنون اغلب تصور میشود که آنها آینده هوش مصنوعی هستند. آنها پیامدهای بزرگی برای ما و معنای انسان بودن دارند. ما اخیرا پژواک این نگرانیها را شنیدهایم و درخواستهایی به منظور توقف توسعههای جدید هوش مصنوعی برای یک دوره شش ماهه به منظور کسب اطمینان از پیامدهای آن مطرح شده اند.
مطمئنا اشتباه است که شبکه عصبی را صرفا به عنوان ابزارهای جدید براق و چشم نواز رد کنیم. آنان در حال حاضر به خوبی در زندگی ما جا افتادهاند. برخی در عملی بودن خود قدرتمند هستند. اطلاعیه اخیر مایکروسافت مبنی بر آن که جستجوهای موتور جستجوی بینگ با مجهز شدن به هوش مصنوعی تقویت میشود و این که آن را به کمک خلبانی برای وب تبدیل میکند نشان میدهد که چگونه چیزهایی که ما کشف کرده و درک میکنیم محصول این نوع اتوماسیون (خودکاری شدن) هستند.
هوش مصنوعی با استفاده از دادههای گسترده برای یافتن الگوها میتواند به طور مشابه برای انجام کارهایی مانند تشخیص تصویر با سرعت آموزش داده شود. برای مثال، آن را در تشخیص چهره ادغام میکند. این توانایی در شناسایی الگوها منجر به کاربردهای بسیار دیگری مانند پیش بینی بازارهای سهام شده است.
شبکههای عصبی نحوه تفسیر و ارتباط ما را نیز تغییر میدهند. گوگل ترنسلیت که توسط تیم مغز گوگل توسعه یافته است یکی دیگر از برنامههای برجسته شبکه عصبی است.
لایههای مرموز "ناشناختنی"
نگاهی به تاریخچه شبکههای عصبی به ما نکته مهمی در مورد تصمیمات خودکاری که زمانه فعلی ما را تعریف میکنند یا تصمیماتی که احتمالا تاثیر عمیق تری در آینده خواهند داشت را میگویند. حضور آنها هم چنین میگوید که ما احتمالا تصمیمات و تاثیرات هوش مصنوعی را در طول زمان حتی کمتر درک میکنیم. این سیستمها صرفا جعبههای سیاه نیستند آن صرفا قطعات مخفی یک سیستم نیستند که قابل مشاهده یا درک نباشند.
این چیزی متفاوت است چیزی که ریشه در اهداف و طراحی خود این سیستمها دارد. یک تعقیب طولانی مدت وجود دارد. هرچه غیر شفافتر باشد سیستم معتبرتر و پیشرفتهتر تصور میشود. این صرفا در مورد پیچیدهتر شدن سیستمها یا محدود کردن دسترسی به کنترل مالکیت معنوی نیست (اگرچه این موارد بخشی از آن هستند). در عوض، میتوان گفت اخلاقی که آنها را هدایت میکند علاقهای خاص و نهفته به "ناشناخته ماندن" دارد.
این رمز و راز حتی در قالب و گفتمان شبکه عصبی رمزگذاری شده است. آنها دارای لایههای عمیق انباشته شده هستند از این رو عبارت یادگیری عمیق و در درون آن اعماق "لایههای پنهان" حتی اسرارآمیزتر هستند. اسرار این سیستمها در اعماق زیر سطح قرار دارند.
این احتمال وجود دارد که هر چه تاثیر هوش مصنوعی در زندگی ما بیشتر باشد کمتر متوجه چگونگی و چرایی آن شویم. امروزه فشاری قوی برای قابل توضیح شدن هوش مصنوعی وجود دارد. ما میخواهیم بدانیم هوش مصنوعی چگونه کار میکند و چگونه به تصمیمات و نتایج میرسد.
اتحادیه اروپا به قدری نگران "خطرات غیرقابل قبول" و حتی برنامههای کاربردی "خطرناک" است که در حال حاضر در حال پیشبرد قانون جدید هوش مصنوعی با هدف تعیین "استاندارد جهانی" برای "توسعه هوش مصنوعی ایمن، قابل اعتماد و اخلاقی" میباشد. اتحادیه اروپا در این باره نگرانی دارد که سیستمهایی که در آینده ظهور میکنند پیامدهایی برای حقوق بشر داشته باشند.
این بخشی از فراخوانهای گستردهتر برای شفافیت در حوزه هوش مصنوعی است تا بتوان فعالیتهای آن را بررسی، ممیزی و ارزیابی کرد. مثال دیگر، جلسه توجیهی انجمن سلطنتی بریتانیا در مورد هوش مصنوعی قابل توضیح است که در آن اشاره شده که "مناظرههای مرتبط با سیاستگذاری در سراسر جهان به طور فزایندهای نیاز به نوعی توضیح پذیری هوش مصنوعی دارند".
با این وجود، داستان شبکههای عصبی به ما میگوید که احتمالا در آینده به جای نزدیکتر شدن از آن هدف دورتر خواهیم شد.
با الهام از مغز انسان
این شبکههای عصبی ممکن است سیستمهای پیچیدهای باشند، اما برخی از اصول اصلی را دارند. آنها با الهام از مغز انسان به دنبال کپی یا شبیه سازی اشکال تفکر بیولوژیکی و انسانی هستند. از نظر ساختار و طراحی همانطور که IBM نیز توضیح میدهد از "لایههای گره، حاوی یک لایه ورودی، یک یا چند لایه پنهان و یک لایه خروجی" تشکیل شده اند و هرگره یا نورون مصنوعی به گره یا نورون مصنوعی دیگری متصل میشود. از آنجایی که آنها برای ایجاد خروجیها به ورودیها و اطلاعات نیاز دارند "به دادههای آموزشی برای یادگیری و بهبود دقت خود در طول زمان متکی هستند".
این جزئیات فنی مهم هستند، اما تمایل به مدل سازی این سیستمها بر اساس پیچیدگیهای مغز انسان نیز اهمیت دارد. درک جاه طلبی پشت این سیستمها برای درک آن چه که این جزئیات فنی به همراه دارند حیاتی میباشد.
"تئو کوهونن" دانشمند شبکه عصبی در مصاحبهای در سال ۱۹۹۳ میلادی به این نتیجه رسیده بود که یک سیستم "خودسازمانده" "رویای من است" که "چیزی شبیه به آن چه که سیستم عصبی ما به طور غریزی انجام میدهد" خواهد بود. برای مثال کوهونن این تصور را مطرح کرد که چگونه یک سیستم "خودسازماندهی" سیستمی که خود را نظارت و مدیریت میکند "می تواند به عنوان یک تابلوی نظارت برای هر ماشینی در هر هواپیما یا هر نیروگاه هستهای استفاده شود". او فکر میکرد که این بدان معناست که در آینده "شما میتوانید بلافاصله ببینید که سیستم در چه شرایطی قرار دارد".
هدف اصلی این بود که سیستمی داشته باشیم که بتواند با محیط اطراف خود سازگار شود. آن رویا این بود که سیستمهایی بتوانند بدون نیاز به دخالت زیاد انسان خود را مدیریت کنند و این که پیچیدگیها و ناشناختههای مغز سیستم عصبی و دنیای واقعی به زودی به توسعه و طراحی شبکههای عصبی میرسند.
چیزی عجیب در مورد آن با این وجود، با بازگشت به سال ۱۹۵۶ میلادی و آن ماشین یادگیری عجیب این رویکرد عملی که تیلور هنگام ساخت آن اتخاذ کرده بود بلافاصله توجه کوان را به خود جلب کرد. کوان در مصاحبهای گفت که تیلور کار را براساس تئوری و روی رایانه انجام نداده در عوض با استفاده از ابزارهایی که در دست داشته در واقع با استفاده از سخت افزار کار را انجام داده بود. این یک چیز مادی بود ترکیبی از قطعات شاید حتی یک ابزار. کوان خاطرنشان میکند که "همه کارها با مدارهای آنالوگ انجام شد چندین سال به طول انجامید تا تیلور آن را بسازد و با آن بازی کند". در واقع، یک مورد آزمون و خطا بود. قابل درک است که کوان میخواست با آن چه میدید کنار بیاید.
او سعی کرد از تیلور بخواهد که این ماشین یادگیری را برایش توضیح دهد. با این وجود، شفاف سازیای صورت نگرفت و کوان نتوانست تیلور را وادار به توضیح درباره چگونگی کار کند. نورونهای آنالوگ یک راز باقی ماندند. کوان فکر کرد مشکل شگفت انگیزتر این بود که تیلور "واقعا خود نمیدانست که چه اتفاقی در حال رخ دادن است".
ارسال نظر