واهمه از هوش مصنوعی

واهمه از هوش مصنوعی

نظرات گروهی از برترین ذهن های جهان در مورد آینده هوش مصنوعی

این مطلب یکی از مقالات درج شده در وبسایت تکنولوژی ریویو MIT است که بنظر من جالب آمد و برای شما هم ترجمه کردم. اگر اشتباهی در ترجمه وجود دارد پیشاپیش عذرخواهی می کنم. متن انگلیسی مقاله را می توانید با استفاده از لینک در ادامه مطلب مشاهده کنید.
سالها پیش بطور تصادفی با یکی از دوستان که مؤسس یکی از شرکت های نوپای آن زمان هم بود برخورد کردم. او تازه چهل سالش شده بود. پدرش بیمار بود، کمرش درد می کرد و خود را در برابر فشار زندگی ناتوان می دید. ولی در عین حال می گفت: “به وضع من نخندید، آخه من روی تئوری یکتایی (Singularity) حساب کرده بودم”.
دوست من در زمینه تکنولوژی فعالیت می کرد. او تغییراتی را که ریزپردازنده ها و شبکه های پر سرعت در جهان اطراف ما ایجاد کرده بودند را با چشمان خود دیده بود. این امر که در آستانه میان سالگیش ممکن است هوش ماشین ها از هوش انسان فراتر برود برای او دور از ذهن نبود (لحظه ای که آینده نگران از آن به عنوان یکتایی یاد می کنند). یک هوش مصنوعی خیر خواه بشر که ممکن است کد ژنتیکی انسان را با سرعت بسیار بالا تجزیه و تحلیل کرده و بالاخره رمز حیات جاودانه را کشف کند. یا حداقل درمان کمر درد را پیدا کند.
حالا آمدیم و اینقدرها هم خیر خواه نبود آنوقت چه؟ پروفسور نیک بوستروم، یکی از فیلسوفان مطرح و مدیر “انجمن آینده نوع بشر” در دانشگاه آکسفورد، سناریوی زیر را در کتاب خود با نام هوش فوق بَشری (که بانی مناظره ها و بحث های بسیاری در زمینه آینده هوش مصنوعی بوده است) شرح می دهد:
تصور کنید ماشینی داریم با نام “۰۳۹;گیره ساز بزرگ” و وظیفه گیره ساز بزرگ این است که تاجایی که می تواند گیره کاغذ تولید کند. حالا تصور کنید که این ماشین به هر طریقی فوق العاده هوشمند شود. خوب با توجه به اهدافش ممکن است تصمیم بگیرد که ماشین هایی با قابلیت گیره سازی بالا تولید کند، تا جایی که مانند شاه میداس که به هرجه دست می زد طلا می شد، همه چیز را به گیره کاغذ تبدیل کند.
ممکن است بگویید خوب این که نگرانی ندارد: می توانیم ماشین را طوری برنامه نویسی کنیم که دقیقا یک میلیون گیره ساخته و متوقف شود. اما اگر اول همه گیره ها را ساخت و سپس تصمیم گرفت کار خودش را چک کند چه؟ آیا درست شمرده است؟ قطعا برای اطمینان از جواب این سوالات باید باهوش تر شود. ممکن است این ماشین ابر هوشمند یک ماده خام محاسباتی (مثلا کامپوترونیوم) را کشف کرده و از آن برای چک کردن هر یک از این تردید ها استفاده نماید. ولی همانطور که می دانید هر تردید جدید تردید های دیجیتال بیشتری را بهمراه دارد و این فرایند آنقدر ادامه پیدا خواهد کرد تا تمام کره زمین با ماده کامپیوترونیوم پوشیده شود. بجز آن یک میلیون گیره کاغذی که هدف ابتدایی ماشین بوده اند.
البته بوستروم فکر نمی کند که حتما چنین ماشین گیره سازی، به این شکل ساخته خواهد شد. این مسئله یک آزمایش ذهنی برای اثبات این نکته است که “حتی دقیق ترین طراحی ها هم نمی توانند بطور کامل یک ماشین هوشمند و تندرو را کنترل کنند”. اما وی عقیده دارد که هوش فوق بشری ممکن است پدیدار شود و با اینکه می تواند برای انسان منافع زیادی به همراه داشته باشد، ممکن است تصمیم بگیرد که دیگر نیازی به وجود بشریت نیست و یا سرخود کارهایی انجام دهد که موجب نابودی جهان شوند. فصل هشتم کتاب بوستروم “آیا نتیجه نابودی است؟” نام گذاری شده است.
اگر این ایده بنظر شما مضحک و دور از ذهن می آید، تنها نیستید. منتقدانی مثل رادنی بروکس که یکی از پیشگامان صنعت روباتیک به حساب می آید می گویند: کسانی که از یک ماشین هوشمند فراری وحشت دارند، منظور ما را از هوش مصنوعی و تفکر یک ماشین درک نکرده اند و اگر بخواهیم اینگونه فکر کنیم، بوجود آمدن هوش فرا انسانی توصیف شده توسط بوستروم، در آینده های بسیار دور ممکن خواهد شد و شاید هم اصلا محال باشد. در عین حال و با وجود همه این صحبت ها هنوز هم بسیاری از روشنفکران با بوستروم موافق هستند و از آینده هوش مصنوعی بیم دارند. براستی دلیل این همه ترس چیست؟

اراده انسان

این پرسش که “آیا کامپیوترها قادر به تفکر هستند یا خیر؟” از ابتدا علوم کامپیوتر را تحت شعاع قرار داده است. آلن تورینگ در سال ۱۹۵۰ این ایده را مطرح کرد که “می توان به یک ماشین مانند یک کودک چیز یاد داد”؛ جان مکارتی خالق زبان برنامه نویسی LISP، اصطلاح هوش مصنوعی را در سال ۱۹۹۵ مطرح نمود. با گذر زمان که محققان هوش مصنوعی شروع به استفاده از کامپیوترها برای تشخیص تصاویر، ترجمه زبان ها و درک دستورالعمل ها به زبان عادی و نه فقط کد کردند، این ایده که کامپیوترها ممکن است بزودی قابلیت صحبت کردن و تفکر را بدست آورند در ذهن مردم عادی هم شکل گرفت. این افکار حتی از HAL ماشین هوشمند فیلم ۲۰۰۱:اودیسه فضایی (۱۹۶۸) و فیلم غول: پروژه ممنوعه که در آن یک کامپیوتر پردازنده مرکزی دنیا را در آستانه نابودی هسته ای قرار می دهد، فراتر رفته و ۱۳ سال بعد از آن هم شاهد تم مشابهی در فیلم معروف WarGames بودیم که در آن همان اندرویدهای غربی سال ۱۹۷۳، دیوانه شده و شروع به کشت و کشتار می کنند.
رادنی بروکس می نویسد:
پیشگویی های افراطی در مورد هوش مصنوعی را می توان به پیشگویی ها در مورد موتورهای احتراق داخلی تشبیه کرد… برخی از آنها هم به این نتیجه رسیده اند که موتورهای با سرعت نور (Warp Drives) بصورت خلق الساعه تولید خواهند شد.
وقتی تحقیقات روی مقوله هوش مصنوعی نتوانست به اهداف بلند پروازانه مورد انتظار پژوهشگران برسد، میزان بودجه اختصاص داده شده به آن هم بتدریج کمتر و کمتر شد و کار به جایی رسید که در دهه های ۸۰ و ۹۰ میلادی تنها کسانی که در مورد ماشین های هوشمند صحبت می کردند، نویسندگان داستان های علمی تخیلی، از جمله پروفسور ورنور وینج که مفهوم یکتایی را یک تنه معروف کرد؛ محققانی چون هانس موراوک متخصص در صنایع روباتیک و بینایی کامپیوتر؛ و رِی کورزویل مهندس و پیشگام در علوم کامپیوتری و نویسنده کتاب “عصر ماشین های معنوی” در سال ۱۹۹۹ بودند. وینچ، موراوک کورزویل از تفکر تورینگ که هوش کامپیوتر را در حد هوش انسان قرار داده بود هم فراتر رفتند. از نظر آنها وقتی یک کامپیوتر به چنان درجه ای از درایت برسد که بتواند جهت دسترسی به اهداف خود، راه های مختلفی را امتحان کند؛ احتمالا قادر به درون گرایی هم خواهد بود و در نتیجه می تواند نرم افزار خود را دستکاری کرده، هوشمند تر شود. چنین کامپیوتری طبیعتا خواهد توانست، پس از مدت کوتاهی سخت افزار خود را هم طراحی کند.
کورزویل عقیده دارد که این تغییرات آغازگر دوره جدید و زیبایی خواهد بود و چنین ماشین هایی، به چنان درجه ای از بینش درونی و بردباری (البته در حد تریلیونیوم ثانیه) می رسند که خواهند توانست مسائل برجسته نانو تکنولوژی و پرواز در فضا را حل کنند. آنها شرایط زندگی انسان را بهبود می بخشند و حتی به ما اجازه خواهند داد تا هوشیاری (Consciousness) خود را روی آنها آپلود کرده و به حیات جاودانه به شکل دیجیتال دست پیدا کنیم!!! و اینگونه می شود که جهان هستی در آگاهی و بینش غرق خواهد شد.
البته نقطه مقابلی هم برای این همه خوش بینی وجود دارد. از نقطه نظر استیون هاوکینگ، چون نوع بشر نخواهد توانست با چنین هوش مصنوعی قدرتمندی برابری کند، چنین جهانی محکوم به نابودی است. الون ماسک یکی از پیشگامان علوم کامپیوتر بعد از خواندن کتاب هوش فوق بشری در توییتر خود می نویسد: “فقط امیدوارم که ما به سوخت بیولوژیکی برای تغذیه این هوش فرابشری دیجیتال تبدیل نشویم. متاسفانه این امر با پیشرفت علم روز به روز بیشتر محتمل می شود.” ماسک سپس یک کمک هزینه تحصیلی به مبلغ ۱۰ میلیون دلار به “انجمن آینده زندگی” اعطا نمود (این انجمن با انجمن آینده نوع بشر بوستروم فرق می کند). بر اساس گفته خودشان این سازمان قصد دارد تا از خطراتی که ممکن است بر اثر خلق یک هوش مصنوعی با قدرت ذهنی همطراز انسان بوجود آید جلوگیری کند.
البته تا بحال هیچ کس ادعا نکرده است که چنین هوش مصنوعی با قدرت فرا انسانی وجود دارد. در حقیقت ما کماکان در ابتدای راه هستیم و حتی یک ماشین عمومی با هوش مصنوعی توصیف شده در بالا هم نداریم. پیشرفت های اخیر در هوش مصنوعی از برنامه های کمک رسانی اتوماتیک مانند SIRI گرفته تا اتوموبیل های بدون سرنشین گوگل، محدودیت های فاحش این تکنولوژی را به نمایش گذاشته اند. بطوری که هر دوی آنها ممکن است با قرار گرفتن در شرایطی که قبلا با آن برخورد نداشته اند از کار بیفتند. اخیرا نمونه هایی از شبکه های عصبی مصنوعی هم بوجود آمده اند که می توانند یاد بگیرند تا تصویر گربه را از میان چندین تصویر دیگر تشخیص دهند. اما برای این کار باید صدها هزار نمونه مختلف را به آنها نشان داد تا شاید در حد یک کودک نوپا تصویر گربه را تشخیص دهند.
همینجاست که بدبین هایی مانند بروکس بنیان گذار iRobot و صنایع روباتیک Rethink پیدایشان می شود و می گویند: “با اینکه چنین تکنولوژی های تاثیر گذاری (با توجه به کامپیوتر های ابتدایی) بوجود آمده اند، یک کامپیوتر هنوز هم برای تشخیص تصویر گربه هیچ اراده و بصیرتی از خود ندارد و از درک این امر که یک گربه واقعا چیست و آن تصویر دارد چه چیزی را توصیف می کند، عاجز است. با در نظر گرفتن این دیدگاه هوش مصنوعی ممکن است به ساخت ماشین های ابر انسانی ختم شود ولی خیلی بیشتر از چیزی که امثال بوستروم فکر می کنند کار خواهد برد. و حتی اگر هم چنین چیزی اتفاق بیوفتد، تیز هوشی لزوما به ادراک نمی انجامد”. بروکس اخیرا در وبسایت Edge.org می نویسد: اگر بخواهیم از روی وضعیت فعلی هوش مصنوعی نتیجه گیری کنیم که با یک ماشین هوشمند ابر انسانی مواجه خواهیم شد، مثل این است که از پیشرفت تکنولوژی موتورهای احتراق داخلی و اینکه روز به روز سرعت آنها بیشتر می شود، پیشبینی کنیم که عنقریب موتورهای سرعت نور (Warp Drives) ساخته خواهند شد (و ما خواهیم توانست در زمان سفر کنیم). او می گوید: “حداقل تا صد سال آینده نمی خواهد کسی نگران یک هوش مصنوعی بد تینت باشد”.

بیمه بشریت (پیشگیری بهتر از درمان است)

حتی اگر فکر کنیم که امکان برخاستن یک هوش فرا انسانی دور از ذهن است، بی توجهی به آن ممکن است کار درستی نباشد. یکی از کسانی که با نظرات بوستروم موافق است پروفسور استوارت .جی. راسل استاد علوم کامپیوتر در دانشگاه برکلی کالیفرنیاست. راسل همراه با پیتر نوروینگ (یکی از همکاران کورزویل در گوگل) نویسندگان کتاب هوش مصنوعی: نگرش مدرن هستند. کتابی که در طول دو دهه گذشته در دانشگاه های معتبر جهان تدریس می شود.
راسل می گوید: “تعداد زیادی از به اصطلاح روشنفکران حال حاضر دنیا این موضوع را درک نمی کنند”. هوش مصنوعی در دهه گذشته پیشرفت های شگرفی نموده است ولی مردم عادی که به پیشرفت کامپیوتر از نقطه نظر قانون مور (هرچه سرعت کامپیوتر بیشتر باشد کار بیشتری انجام می دهد) نگاه می کنند ممکن است متوجه این ترقی بنیادی در زمینه هوش مصنوعی نشوند. تکنیک هایی مانند یادگیری عمقی (Deep Learning) زمینه لازم برای بوجود آمدن کامپیوترهایی را فراهم می سازد که قادر به افزایش درک خود از جهان اطراف هستند.
کتاب بوستروم راه کارهایی را برای هم سو کردن کامپیوتر ها با نیازهای انسانی ارائه می دهد. در اصل ما به یک موجود فرا انسانی یاد می دهیم که چگونه با ما رفتار کند.
راسل از آنجا که گوگل، فیسبوک و دیگر کمپانی های بزرگ فعالانه بدنبال ساخت یک ماشین آموزشی هوشمند هستند، استدلال می کند که “یکی از کارهایی که نباید انجام دهیم، تلاش برای ساخت یک ماشین هوشمند فرا انسانی، بدون اندیشیدن در مورد تبعات و ریسک های وجودی آن است. این کار بنظر من دیوانگی است”. او سپس به مقایسه این موضوع با فیوژن (همجوشی) می پردازد و می گوید: “اینهم مثل تحقیق در مورد فیوژن است. اگر شما از یک پژوهشگر مبحث فیوژن بپرسید که دارد چکار می کند، جواب او این خواهد بود که دارم روی کنترل انرژی کار می کنم. اگر می خواهید از یک انرژی بی حد و مرز استفاده کنید بهتر است ابتدا بتوانید واکنش آن را کنترل کنید”. او می گوید: “اگر هوش بی حد و مرز می خواهید بهتر است اول راهی برای همسو سازی نیازهای کامپیوتر با انسان ها پیدا کنید”.
کتاب بوستروم دقیقا همین موضوع تحقیقاتی را پیش روی ما قرار می دهد. یک هوش مصنوعی فرا انسانی می تواند خداگونه باشد، ولی این سؤال که رفتار آن با انسان چگونه خواهد بود به قوت خود باقی است. این امر به ما (مهندسان کامپیوتر) بستگی خوهد داشت. ما باید مانند هر پدر یا مادر دلسوزی، فرزند خود را با یکسری از آموزه های اخلاقی بار بیاوریم. و باید مراقب باشیم که این آموزه ها در جهت تعالی بشریت باشند. در اصل ما داریم به یک موجود خداگونه یاد می دهیم که چگونه با ما رفتار کند. خوب حالا چگونه ادامه دهیم؟
بوستروم در کتاب خود از نظرات یکی از اندیشمندان به نام الایزر یودکوفسکی که بیشتر در مورد اراده منسجم برون گرا صحبت می کند، الگو گرفته است. ما امیدواریم و آرزو می کنیم که هوش مصنوعی در رسیدن به زندگی بهتر به ما کمک کند، کمر دردمان را درمان کند و راهی برای سفر انسان به مریخ پیدا کند. و از آنجایی که انسان ها هیچوقت سر یک موضوع با هم موافقت نخواهند کرد، گاهی هم بین ما داوری کند تا همیشه بهترین تصمیم ها برای بشریت گرفته شوند. خوب حالا چگونه باید آموزه های اخلاقی خود را در این ماشین فرا انسانی فرضی، برنامه نویسی کنیم؟ و اصلا کدام شاخه از علم ریاضی می تواند این آموزه ها را توصیف کند؟ بوستروم بر این باور است که اینها مشکلاتی هستند که محققان باید روی آنها تمرکز کرده و هرچه زودتر آنها را حل کنند. او می گوید: “این واجب ترین کاری است که در این زمان می توان انجام داد”.
با وجود این همه توصیفات برای یک فرد عادی ترس از روبات های فرا انسانی معنی ندارد. چراکه در حال حاظر هیچ تکنولوژیی به آنچه در بالا توصیف کردیم نزدیک هم نشده است. در عین حال بسیاری از کمپانی های بزرگ کامپیوتری بشدت روی هوشمند سازی کامپیوترهای خود سرمایه گذاری کرده اند چون یک هوش مصنوعی واقعی می تواند هر یک از این کمپانی ها را به مدارج عالی برساند. البته این شرکت ها باید به جنبه های منفی این تکنولوژی هم توجه لازم را داشته و راه هایی برای پیشگیری از آنها پیدا کنند.
این عقیده ی تا حدودی متفاوت (و بدون وحشت از یک رستاخیر هوش مصنوعی) زمینه یک نامه سرگشاده روی وبسایت انجمن آینده زندگی (همان گروهی که ماسک ۱۰ میلیون دلار به آنها هدیه داد) شده است. این نامه بجای ترساندن مردم از یک فاجعه قریب الوقوع، محققان را تشویق به پژوهش بیشتر در زمینه روش های استفاده از مزایای هوش مصنوعی و پیشگیری از جنبه های منفی آن نموده است. این نامه نه تنها توسط مغزهایی چون استیون هاوکینگ، ماسک و بوستروم که رشته های غیر کامپیوتری دارند بلکه توسط دانشمندان برجسته علوم کامپیوتر (از جمله دمیس هاسابیس یکی از محققان برتر هوش مصنوعی) هم امضا شده است. حتما شما هم منظور این دانشمندان از نوشتن این نامه را درک می کنید. اگر این ذهن ها بالاخره بتوانند یک هوش مصنوعی فرا انسانی خلق کنند و اگر این هوش مصنوعی آموزه های اخلاقی مناسبی را دنبال نکند، خوب یعنی نتوانسته اند مخلوق خود را کنترل کنند (و این بزرگترین نگرانی یک دانشمند است).
 
مشکلات رایانه ای
سوالات رایانه ای
پاسخگویی به سوالات رایانه ای

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *