هوش مصنوعی و هوش طبیعی، تفاوت در چیست؟ ربات فاقد عاملی به اسم خلاقیت است، چیزی که جز در مخلوقی به نام انسان، جای دیگری یافت نمی‌شود و تصمیمات اخلاقی در گروی همین خلاقیت است، جایی که تضاد و تناقض شکل می‌گیرد.

قانون اساسی ربات‌‎ها از نگاه قدمای داستان‌های علمی-تخیلی

در رمان‌های علمی-تخیلی زیادی که در دوران کودکی و دوران نوجوانی خوانده‌ام، همیشه ربات‌ها بسیار پیشرفته به نظر می‌رسیدند و مشکلات کم‌رنگ بود، اما آیزاک آسیموف این نگاه را تغییر داد. آیزاک آسیموف سه قانونی و یا سه اصل کلی را برای دنیای رباتیک تعریف کرده است:

قانون اول: ربات نباید به انسان آسیب برساند، یا با عدم فعالیت و تصمیم‌گیری، موجب آسیب رسیدن به انسان شود.

قانون دوم: ربات باید از دستوراتی که صاحبش می‌دهد پیروی کند، به جز در مواردی که موجب شکسته شدن قانون اول می‌شود.

قانون سوم: ربات باید از خود محافظت کند اما تا زمانی که قانون اول و دوم شکسته نشده‌اند.

این قوانین در مورد ربات‌های فعلی که شاید بسیار ساده به نظر برسند، کاربری ندارد. موضوع و مسأله‌ی بحث‌برانگیز به ربات‌هایی با هوش مصنوعی مربوط می‌شود که قرار است سال‌ها بعد در هر گوشه و کناری دیده شوند. ربات‌هایی که کارشان مثل یک ماشین پختن غذا نیست که دکمه‌ای را فشار دهیم و نتیجه را تحویل بگیریم بلکه تا حدی آزادی عمل دارند و تا حدی تصمیم می‌گیرند.

معضل این روزهای دنیای فناوری، نباید به هوش مصنوعی بیش از این بها داد!

خب، با این حساب به نظر می‌رسد که مشکلی وجود ندارد. قوانین ساده و در عین حال کامل. البته آسیموف هم تضادهایی در قوانین خویش می‌بیند و به عنوان مثال در یکی از رمان‌های خویش به اسم Runaround یک تضاد و نه تناقض را به شکلی هوشمندانه حل می‌کند. جایی که مسافران فضایی خودشان را در خطر قرار می‌دهند تا رباتشان تصمیم مطلوب را بگیرد و اگر چنین نمی‌کردند، ربات گرفتار تضاد می‌شد و نمی‌دانست قدم از قدم بر دارد یا بهتر است بأیستد و بماند.

و مشکل امروز …. مشکلی که حتی بیل گیتس و استیون هاوکینگ در موردش اظهار نگرانی می‌کنند و آن را تهدیدی برای انسان می‌شمارند.

یک خودروی بدون راننده را در نظر بگیرید، همان خودروی بدون راننده که بحث داغ این روزهای گوگل و حتی اپل و مایکروسافت است. اگر این خودرو در خیابانی با سرعت زیاد در حرکت باشد و به ناگهان ۵ نفر جلویش ظاهر شود، چه اتفاقی می‌افتد؟ می‌تواند به سمتی بپیچد و ظاهراً مشکل حل می‌شود. اما پیچیدن خودرو به راست یا چپ هم ممکن است جان ۱ عابر را بگیرد. حالا چطور؟

هوش مصنوعی و خطرات آن

هوش مصنوعی و خطرات آن

معمای ساده‌ای است، به اعتقاد بسیاری (بیش از ۵۰ درصد) مردم، خودرو باید به عنوان یک ربات، محاسباتی در مورد میزان خسارت و صدمات انجام دهد و حداقل مرگ و میر را انتخاب کند.

اما ۵۰ درصد مردم فکر می‌کنند که این طور نیست، باید تصمیم دیگری بگیرد. شاید آنها هم مثل من می‌گویند ۵ نفری که در خیابان به ناگه ظاهر شده‌اند، مقصر هستند اما عابری قانونمند، مقصر نیست و نباید جانش را از دست بدهد.

آمار پاسخ به سوال: تصادف و مرگ 1 نفر یا 5 نفر

آمار پاسخ به سوال: تصادف و مرگ ۱ نفر یا ۵ نفر

می‌بینید که از نظر اخلاقی، جواب مسأله‌ی ساده‌ی ما یکسان نیست.

تقدیر ربات را انسان می‌نویسد، خلاقیتی وجود ندارد

ربات خلاق نیست! هوش مصنوعی مجموعه‌ی دستورات است.

یک اشکال جدی هم به تصمیم‌گیری ربات وارد است: نداشتن خلاقیت. شاید یک راه حل سومی هم به ذهن انسان برسد اما ربات بر اساس دستورات قبلی، عکس‌العمل‌هایی محدود و پیش‌بینی شده خواهد داشت. ربات شرایط را می‌بیند و درک می‌کند (البته امروز نه، فرداها) و برای تصمیم‌گیری شروط If Then به معنی اگر، آنگاه را اجرایی می‌کند.

گاهی از بررسی‌های آماری خویش هم استفاده می‌کند. مثلاً طبق برنامه‌ریزی قبلی، آمار مرگ و میر در حوادث مشابه را بررسی می‌کند و طبق آن تصمیم می‌گیرد که نتیجه‌ی احتمالی تصادف جدید، چیست و چه باید کرد. خبری از هوش و خلاقیت انسانی نیست. همه چیز تقدیر از پیش نوشته شده است، تقدیری که خدای ربات یعنی انسان برای مقدر کرده است.

سوال دوم، وقتی تضاد جدی‌تر و پیچیده‌تر می‌‎شود!

و موضوع پیچیده‌تر هم می‌شود. فرض کنید رباتی برای مادر پیر خود تهیه کرده‌اید و متأسفانه او به غذاهای شور علاقه دارد. چیزی که برای فشار خون اصلاً مناسب نیست. حال او از ربات می‌خواهد که در غذایش نمک بریزد. تصمیم چیست؟

ربات به نظر من استناد کند یا نظر شما؟

ربات باید به اخلاقیات شما استناد کند و از مادر پیرتان سلب اختیار نماید یا برعکس، اختیار کامل را به دارنده‌اش بدهد و در غذایش نمک بریزد و در واقع به صورت غیر مستقیم به خودکشی وی کمک کند؟!!!؟ موضوع را کمی بزرگ کرده‌ام، می‌دانم، قطعاً یک وعده غذای شور که فقط یک بار در هفته خورده شود، به معنی خودکشی نیست اما به مفهوم سوال توجه کنید، ربات باید طبق تفکر شما تصمیم بگیرد یا طبق نظر و سلیقه‌ی مادر پیر شما؟

ربات در خدمت صنعت رستوران و آشپزی

ربات در خدمت صنعت رستوران و آشپزی

می‌بینید که اخلاقیات در ذهن انسان تعاریف متفاوتی دارد و در قوانین ساده‌ی آیزاک آسیموف که البته نسخه‌های تصحیح شده‌ی دیگری هم دارد، دیده نمی‌شود.

از این رو برخی به کلی با رباتیک به سبک هوشمند، مخالف هستند و در مورد پیشرفت هوش مصنوعی ابزار پشیمانی و نگرانی می‌کنند.

مشکل کجاست؟ اختیار و خلاقیت انسان را چطور حل کنیم؟

اگر راننده ربات نباشد، مشکلی نیست. حتی اشتباهات وی هم بخشودنی است. مطمئناً کسی از راننده‌ای که ناگهان بر سر دوراهی گیر کرده، انتظار ندارد که مثل خودش تصمیم بگیرد. ممکن است من راننده باشم و عابرین را به کشتن بدهم و ممکن است شما راننده باشید و کسانی که ناگهان در وسط خیابان ظاهر شده‌اند را به دیار باقی بفرستید. نه من و نه شما متهم به بی دقتی و اشتباه نمی‌شویم و احتمالاً هیچ عذاب وجدانی هم نخواهیم داشت.

اما ربات چطور؟ اگر راننده‌ای از جنس هوش مصنوعی بر اساس دستورات شرطی که برایش نوشته شده، تصمیم بگیرد و آن را اجرا کند، چه کسی مسئول است؟ قطعاً برنامه‌نویسان باید پاسخ‌گو باشند اما آیا اصلاً سوالی طرح شده است که انتظار پاسخ داشته باشیم؟

به نظر من در حقیقت سوالی طرح نشده است. صرفاً یک نظرسنجی است، گویی که می‌خواهیم بنویسیم اگر این شد، آن کار را انجام بده. مسأله این است که اگر شما باشید چه می‌کنید؟ ۵ نفر وسط خیابان یا ۱ نفر در کنار خیابان؟
دمکراسی شاید بهترین پاسخ نباشد، اما باید به نتیجه احترام گذاشت.

در حقیقت می‌توان این قانون را بر حسب نظرسنجی عمومی نوشت که البته ممکن از نظر من نتیجه‌اش منطقی نباشد. من و خیلی‌های دیگر می‌گوییم پیاده‌رو حریم امن است و نباید حتی ۱ نفر کشته شود و خیلی‌های دیگر هم نظرشان مخالف است. اما در نهایت دمکراسی عمومی را باید پذیرفت حتی اگر نتیجه‌اش خوشایند نباشد و این تعریف اختیار است، موهبتی که خدا به ما داده و نباید کسی آن را از ما بگیرد.

به مورد پیچیده‌تر بعدی می‌رسیم. رباتی که در دادن و ندادن غذای شور به صاحبش گرفتار تردید است. چه کنیم؟ اختیار مادر پیرمان را بگیریم یا به تصمیم وی احترام بگذاریم؟

اختیار، اختیار، اختیار …

به نظر من مشکل در سلب اختیار است. یاد یکی از انیمه‌های جالب افتادم: دفتر مرگ.

انیمه‌ی Death Note روایتی مشابه داستان ما دارد. البته نه در مورد رباتیک و نه هوش مصنوعی. موضوع ساده‌تر از این حرف‌هاست و البته تخیلی‌تر. دانش‌آموزی باهوش یک دفتر به نام دفتر مرگ پیدا می‌کند که متعلق به یکی از خدایان مرگ (شینیگامی: شین به معنی مرگ، گامی به معنی خدا) است. او تصمیم می‌گیرد که مجرمین را با نوشتن نامشان در این دفتر عجیب، اعدام کند!

سلب اختیار انسانی، عواقب بدی دارد.

در آغاز مشکلی وجود نداشت اما اهرم قدرت انسان‌ها را عوض می‌کند. مخصوصاً اگر در ابتدای راه، مرزها را به دقت مشخص نکرده باشیم. گویی که درست زندگی کردم مثل راه رفتن بر لبه‌ی تیغ مشکل است و هوش مصنوعی و پیشرفت آن در آینده هم به همین مرزهای بسیار دقیق نیاز دارد.

اگر اغراق کنیم، ممکن است ماجرای انیمه‌ی Matrix پیش بیاید و روزی ببینیم که ربات‌ها مراقب تمام رفتار ما هستند و زندگی انسانی محدود شده است! به هر حال قصدشان هم خیر است، می‌خواهند انسان سلامت باشد، نه؟

دفتر مرگ

در درجه‌ی اول تفکر است و نه هنر و سینماداستان طولانی است و دیالوگ‌های این انیمه گاهی به قدری جالب و تفکرانگیز می‌شود که توصیه می‌کنم حداقل چند قسمت ابتدایی آن را تماشا کنید. البته اگر به IMDB هم استناد کنیم، امتیاز ۹ از ۱۰ نشان‌دهنده اثری برتر در حوزه‌ی سینماست هر چند من فکر می‌کنم امتیاز این شاهکار فکری بیش از این حرف‌هاست چرا که تفکر ایجاد می‌کند و صرفاً سرگرمی و هنر ظاهری نیست.

در Death Note پاسخی که به این تضادهای اخلاقی داده می‌شود این است که ممکن است کشته شدن یک مجرم، موجب نجات بی‌گناهان بسیاری شود، اما این کار از جمله مسئولیت‌های انسان‌های عادی نیست. حتی یک قاضی (که از شخصیت‌های جالب این انیمه است) هم حق ندارد زندانیان اسیر در زندان را با نوشتن نامشان اعدام کند و تصور کند که در جایگاه خدا قرار گرفته است.

انیمه‌ی Death Note جدالی بین اختیار و آزادی خطرناک

انیمه‌ی Death Note جدالی بین اختیار و آزادی خطرناک

حتی زندانی هم فرصت و حق زندگی دارد و ممکن است به راستی و درستی بازگردد. حکم صادر کردن از اختیارات قضات است اما حکم اعدام فقط برای جرایم خاص مجاز است.

و این گونه است که شخصیت اصلی داستان، در نمایی شیطانی نمایش داده می‌شود. کسی که به اختیار خویش در مورد دیگران حکم اعدام صادر می‌کند.

هوش مصنوعی هم ماجرای مشابهی دارد. رباتی مادر پیر ما ممکن است با کاری که می‌کند به او صدمه برساند اما به نظر من اگر پس از دادن توضیحات بسیار، نتوانستیم او را قانع کنیم که خوردن غذای شور را به صفر برساند! دیگر مداخله‌ی بیش از این جایز نیست و به عبارت ساده‌تر، نگرانی بزرگان دنیای فناوری در مورد پیشرفت هوش مصنوعی، بی‌مورد نیست.

و یک مسأله‌ی سوم: اگر قاتلی رباتی بخرد و اهداف پلید داشته باشد چطور؟

احتمالاً تمام جامعه یک پاسخ برای این سوال دارند، همان قانون اول و دوم آسیموف. ربات نباید به کسی آسیب برساند، حتی با منفعل بودن هم نباید اجازه‌ بدهد که کسی صدمه ببیند. قانون دوم هم می‌گوید از دستور پیروی کن به جز مواردی که به انسان آسیب می‌رساند.

چالش جالبی در صنعت رباتیک طرح شده و هر از گاهی اشخاص مختلف نظرات جدیدی در مورد آن می‌دهند. باید دید که در نهایت تصمیم تفکر جهانی در مورد پیشرفت هوش مصنوعی و رباتیک، به کدام سمت می‌رود و مرزها چگونه مشخص می‌شوند.

این مقاله صرفاً شامل نظرات شخصی و آماری است، شما هم نظریات خود در مورد هوش مصنوعی و قلمروی آن با ما در میان بگذارید.
8 votes, average: 5٫00 out of 58 votes, average: 5٫00 out of 58 votes, average: 5٫00 out of 58 votes, average: 5٫00 out of 58 votes, average: 5٫00 out of 5 (8 نظر، امتیاز: 5٫00 از 5)
برای نظر دادن ابتدا باید ثبت نام کنید.
Loading...
لينک کوتاه:

FacebookTwitterGoogle


بيشتر بخوانيد:

دیدگاه بگذارید

اولین دیدگاه را بنویسید!

اطلاع از
wpDiscuz

تبلیغات

ویژه‌ها

تبلیغات

تبلیغات

×