چرا هوش مصنوعی «نفهم» باقی میماند؟
جان سرل (John Searle)، فیلسوف آمریکایی، استدلال میکند که هوش مصنوعی هرگز نمیتواند واقعا فکر کند بلکه نهایتا فقط میتواند یک جور تظاهر به شناخت باشد. او این مطلب را از طریق مثال معروف به «اتاق چینی» بیان میکند.
فرادید: امروزه استفاده از هوش مصنوعی برای مقاصد گوناگون در حال فراگیر شدن است؛ از ماشینهای خودران گرفته تا خلق نقاشیها و تصاویر شگفتانگیز، تحلیل میلیونها توییت در یک زمان کوتاه و حتی نوشتن مقاله. نمیتوان انکار کرد که تولید فزایندۀ دادههای دیجیتال و پیشرفتهای کامپیوتری مختلف تا حد زیادی زندگیها ما را تغییر داده و بر روی مفهوم ذهنی ما از «هوش» تاثیر گذاشته است.
برخی اندیشمندان مثل نیکولاس کریستیکاس، جامعهشناس آمریکایی، هوش مصنوعی را یکی از اساسیترین فناوریهایی میدانند که تعاملات بشری را برای همیشه دگرگون خواهند کرد. اما از طرف دیگر فیلسوفی مثل جان سرل معتقد است که هوش مصنوعی هرگز نمیتواند واقعا مثل انسانها فکر کند. او برای اثبات این عقیده مثالی دارد که به «استدلال اتاق چینی» معروف شده است.
سرل در کتاب «ذهنها، بدنها و علم» مینویسد که برنامههای کامپیوتری میتوانند از فرایندهای ذهنی انسان تقلید کنند، اما فقط به طور «صوری» و نه حقیقی؛ یعنی هوش مصنوعی هرگز نمیتواند «بفهمد» که دارد چه کاری انجام میدهد. به عبارت دیگر هوش مصنوعی فقط میتواند از یک مجموعه قواعد پیروی کند بدون اینکه معنای آنها را بفهمد. برای روشن شدن این ادعا سرل مثال اتاق چینی را مطرح میکند.
فرض کنید که شما در یک اتاق تنها هستید. در اتاق بسته است و در داخل آن سبدی هست که پر از علامتها و نمادهای زبان چینی است (با این فرض که شما چینی بلد نیستید). به غیر از این نمادها، یک کتابچۀ قواعد هم در اتاق هست که به زبان خود شما نوشته شده است. در این کتاب شرح داده شده که شما چطور باید از نمادهای چینی استفاده کنید. مثلا در کتاب نوشته شده که «اگر علامت ایکس را دیدید، با علامت ایگرگ جواب بدهید» و از این قبیل دستورالعملها.
حالا فرض کنید که یک نفر یک علامت چینی را از زیر در اتاق به داخل میاندازد. شما هم بر طبق دستورالعمل کتاب، علامتی را که باید در پاسخ به آن نشان بدهید، از داخل سبد برمیدارید و از زیر در به بیرون میفرستید. فرض کنید دستورالعملهای کتاب آنقدر دقیق و روشن هستند که شما خیلی زود میتوانید پاسخ مناسب به هر نوشتهای که به داخل میآید را پیدا کنید و بیرون بفرستید. حالا آن کسی که بیرون ایستاده دربارۀ شما چه فکری میکند؟ احتمالا او تصور میکند که شما زبان چینی را بلد هستید. این در حالی است که شما کوچکترین فهمی از این زبان ندارید و تنها بر حسب قاعدههای مشخص عمل میکنید.
از نظر سرل این همان اتفاقی است که در مورد هوش مصنوعی میافتد. هوش مصنوعی هیچ چیز نمیفهمد بلکه تنها بر طبق قاعدههایی عمل میکند که توسط انسان طراحی شدهاند. مهم نیست که چقدر عملکرد هوش مصنوعی پیچیده باشد؛ هرچقدر هم که پیشرفتهای آیندۀ تکنولوژی بتواند عملکردهای پیچیدهتری را برای هوش مصنوعی فراهم کند، باز هم ذات و ماهیت فاقد فهمِ هوش مصنوعی تغییری نمیکند.
از ماشینحسابهای دیجیتالی ساده که میتوانستند جمع دو عدد را به ما بگویند تا چت جی پی تی که میتواند مقاله بنویسد، راه درازی طی شده و پیشرفتهای بزرگی حاصل شده است؛ اما چت جی پی تی درست به اندازۀ ماشینحساب «بدون فهم» است. اگر در اتاق چینی چندین کتابچۀ راهنما اضافه شود که باعث شوند شما عملکردها و پاسخهای پیچیدهتری داشته باشید، باز هم در این واقعیت که شما زبان چینی بلد نیستید تغییری به وجود نمیآید.
برای اینکه ما بتوانیم اموری مثل «فهم»، «یادگیری» و «اختیار» را به ماشینها منتقل کنیم، میبایست ابتدا خودمان فهم کامل و شفافی از این امور داشته باشیم تا بتوانیم آنها را به صورت کدگذاری شده به ماشین ارائه کنیم. اما چه کسی میداند واقعا اختیار و فهم بشری چه ساز و کاری دارد؟ ما میتوانیم برنامههایی طراحی کنیم که از برخی جهات خاص (مثل شطرنج بازی کردن یا تولید محتوای متنی یا رانندگی و . . .) ادای فهم را دربیاورند، اما نمیتوانیم ماشینی بسازیم که واقعا بفهمد.
شاید بیش از آنکه هوش مصنوعی واقعا تعجبآور و حیرتانگیز باشد، در واقع این خود ما هستیم که علاقه داریم شگفتزده شویم. انگار فیلمها و داستانهای علمیتخیلی دربارۀ آیندۀ هوش مصنوعی و شورش ماشینها، ذهنهای خیالپرداز ما را مستعد این کردهاند که با هر پیشرفتی در عرصۀ هوش مصنوعی، خودمان را به آخرالزمان روباتهای هوشمند نزدیکتر ببینیم. اما نباید فراموش کنیم که هر فاجعه یا خطایی هم که از هوش مصنوعی سر بزند، این فاجعه نه حاصل «تصمیم» ماشینها بلکه حاصل قاعدهها و دستورالعملهای نابهجایی است که عروسکگردانان هوش مصنوعی به آن دادهاند.
ارسال نظر