خانه / اخبار / ربات ها سرپیچی از فرمان انسان را یاد می گیرند

ربات ها سرپیچی از فرمان انسان را یاد می گیرند

در سال‌های 1940، وقتی هنوز حتی یک نمونه واقعی از ربات‌ها هم ساخته نشده بود چه برسد به هوش مصنوعی، ایزاک آسیموف (Isaac Asimov) نویسنده معروف داستان‌های علمی-تخیلی مجموعه ای از قوانین معروف به ” قوانین سه گانه رباتیک ” را تعریف کرد. این قانون‌ها به این شرح است:

1. یک ربات اجازه ندارد به انسان‌ها آسیب بزند یا با بی تفاوتی اجازه دهد آسیبی به یک انسان برسد.
2. یک ربات باید از دستوراتی که انسان به آن می‌دهد تبعیت کند، مگر این که این دستور‌ها قانون اول را نقض کند.
3. یک ربات باید از وجود خودش مراقبت کند، مگر این که این مراقبت قانون اول یا دوم را نقض کند.

از این قوانین می‌توان نتیجه گرفت که یک ربات باید در همه شرایط از انسان اطاعت کند به جز وقتی که دستوراتش به یک انسان دیگر صدمه بزند. در آزمایشگاه تعاملات انسان-ربات دانشگاه تافتس (Tufts University)، محققان از مجموعه قوانین خودشان استفاده می‌کنند. طبق این قوانین، ربات‌ها می‌توانند از دستورات سرپیچی کنند. شبیه سناریوی یک فیلم درباره نابودی انسان به دست ربات‌هاست، نه؟ اما نترسید! خطری از جانب هوش مصنوعی، انسان‌ها را تهدید نمی‌کند.
اما اگر یک لحظه فکر کنید، می‌بینید که منطقی است. انسان‌ها آن قدر هم بی نقص و منطقی نیستند و بعضی اوقات تصمیمات احمقانه ای می‌گیرند. انتقال این تصمیمات به ربات‌ها نتایج فاجعه باری به همراه خواهد داشت. محققان تافتس پیشنهاد داده اند همان روشی که انسان برای ارزیابی یک دستور استفاده می‌کند را در ربات‌ها هم اعمال کنند. به گفته IEEE، نظریه زبان شناسی می‌گوید انسان‌ها یک درخواست را با استفاده از شروط فلیسیتی (Felicity conditions) سبک سنگین می‌کنند. این شروط عبارتند از:

  1. معلومات: آیا بلدم کار X را انجام دهم؟
  2. توانایی: آیا از لحاظ فیزیکی توانایی انجام کار X را دارم؟ آیا به طور طبیعی می‌توانم کار X را انجام دهم؟
  3. اولویت و زمان بندی هدف: همین حالا می‌توانم کار X را انجام دهم؟
  4. نقش و وظیفه اجتماعی: آیا با توجه به نقش اجتماعی ام وظیفه دارم کار X را انجام دهم؟
  5. مجاز بودن با توجه به هنجار‌های جامعه : آیا با انجام کار X اصول هنجار‌های جامعه را زیر پا می‌گذارم؟

سه قانون اول که واضح هستند. شرط چهارم در واقع می‌گوید “می‌توانم به تو اعتماد کنم؟ تو کی هستی که به من بگویی چه کار کنم؟“، قانون پنجم می‌گوید: “باشه، اما اگر این کار را انجام دهم قانونی را زیر پا می‌گذارم؟“(قوانین مدنی و جنایی برای انسان‌ها و احتمالا یک نمونه تغییر یافته از مجموعه قوانین رباتیک آسیموف برای ربات‌ها).

سال‌ها پیش از این که ربات‌ها ساخته شوند، یک نویسنده علمی-تخیلی برای آن‌ها سه قانون در نظر گرفت. به نظر می‌رسد این قوانین هنوز هم مناسب هستند.
سال‌ها پیش از این که ربات‌ها ساخته شوند، یک نویسنده علمی-تخیلی برای آن‌ها سه قانون در نظر گرفت. به نظر می‌رسد این قوانین هنوز هم مناسب هستند.

در ویدئو‌های زیر محققان تافتس کار خود را به نمایش می‌گذارند.
اول از یک ربات که روی میز قرار گرفته خواسته می‌شود روی آن راه برود. اما ربات می‌فهمد که با انجام این کار سقوط کرده و صدمه می‌بیند، در نتیجه از این دستور سرپیچی می‌کند. این محقق با تغییر چارچوب کاری، این بار به ربات گفت که اگر بیفتی می‌گیرمت و ربات در کمال شگفتی قبول می‌کند. جالب است بدانید این شروط از قبل در این ربات برنامه ریزی نشده بود. پردازش زبان طبیعی به ربات اجازه می‌دهد که در حالت کلی حرف انسان را بفهمد: تو قانون X را نقض نمی‌کنی، چون شرایطی که باعث آسیب می‌شوند فراهم نیستند.

در مرحله بعد، از ربات می‌خواهند با عبور از وسط یک مانع به جلو حرکت کند. ربات هم خیلی با وقار از این دستور سرپیچی می‌کند؛ چون مجموعه ای از قوانین که می‌گوید “مانع؟ به هیچ وجه حرکت نکن!”، را نقض می‌کند. بعد، محقق از ربات می‌خواهد که سیستم تشخیص مانع خود را غیر فعال کند. در این حالت، شرط شماره چهار فلیسیتی برقرار نمی‌شود، چون انسان حق و اجازه صدور این دستور را ندارد.

در آخرین ویدئو، دوباره همین شرایط برقرار است، با این تفاوت که این بار انسانی که دستور را صادر می‌کند، اعتبار لازم برای صدور این دستور را دارد.

روزی می‌رسد که ربات‌ها خوب را از بد تشخیص دهند؟

علاوه بر این، در تافتس محققان مشغول کار روی پروژه ای به نام “صلاحیت اخلاقی در معماری‌های محاسباتی برای ربات‌ها” هستند. هدف این پروژه شناختن زیربنای منطقی، شناختی و اجتماعی صلاحیت اخلاقی انسان‌ها، نمونه قرار دادن این اصول در تعاملات انسان با ربات و نشان دادن روش‌های محاسباتی جدیدی است که ربات‌ها به وسیله آن می‌توانند در مواجهه با چالش‌های پیچیده و عملی، استدلال و برخوردی اخلاقی داشته باشند؛ در واقع ربات‌ها باید با ارزش‌های انسانی آشنا شوند.
در طول تاریخ، تکنولوژی برای این که بتواند نیاز‌های انسان را برآورده کند، فرصت‌های مهیج و چالش‌های ترسناکی را ایجاد کرده است. اخیرا، نیاز‌های ما در خانه داری، بیمارستان و بزرگراه‌ها تا حدودی به واسطه پیشرفت‌های تکنولوژی در زمینه اتوماسیون، دیجیتالی شدن و شبکه برطرف شده، اما از طرفی همین پیشرفت‌ها ارزش‌های انسانی مثل استقلال، حریم خصوصی و برابری را تهدید می‌کند.

به نظر برخی از محققان پیچیدگی‌های مسایل اخلاقی چه در ذهن انسان و چه در مقیاس بزرگ تری مثل جامعه، عملا دنبال کردن ایده تبدیل ربات‌ها به عوامل اخلاق گرا را غیر قابل تصور یا حداقل بی فایده می‌کند. این که ربات‌ها برای انجام چه کار‌هایی آزادی عمل، اختیار و یا حتی دستور دارند، هم ترس و هم خیال پردازی ما را برانگیخته است.
آیا ربات‌ها در آینده به آخرین عوامل اخلاق گرا تبدیل خواهند شد؟ فکر کنید روزی برسد که بتوانیم تمام فضائل، مسائل و اصول اخلاقی که از اعصار گذشته گردآوری شده است را در یک کامپیوتر دانلود کنیم. نتیجه می‌شود یک بودای اندرویدی! جالبه اما در عین حال نباید فراموش کنیم که حق با محققان تافتس است: در بعضی شرایط و موقعیت‌ها، ربات‌ها باید از دستورات ما سرپیچی کنند. چرا؟ چون شاید آن دستور احمقانه باشد. به همین سادگی! شاید وقت آن رسیده که در یک چارچوب قانونی و بین المللی، توسعه دهندگان هوش مصنوعی را وادار کنیم که یک سری از قوانین را در برنامه ریزی ربات‌هایشان وارد نکنند یا برعکس بعضی از الزامات را حتما پیاده سازی کنند. به نظر می‌رسد همه موافقند که این طرحی مهم و تضمینی است، البته تا زمانی که وارد حوزه نظامی‌نشود.

منبع

خلاصه مطلب
ربات‌ها سرپیچی از فرمان انسان را یاد می‌گیرند
عنوان مطلب
ربات‌ها سرپیچی از فرمان انسان را یاد می‌گیرند
توضیح کوتاه
دانشمندان می‌خواهند به ربات‌ها یاد بدهند که چطور و تحت چه شرایطی از دستورات ما سرپیچی کنند. شاید در نگاه اول خطرناک به نظر برسد، اما دستورات ما هم همیشه عاقلانه نیست و این قضیه می‌تواند به نفعمان تمام شود!
نویسنده

بیشتر بخوانید:

چشم انسان پنجره مغز است و حرف های زیادی برای گفتن دارد... مغز انسان پیچیده ترین مکانیزم شناخته شده در جهان است. مغز ما از طریق حواس پنجگانه مقادیر زیادی از اطلاعات را تجزیه و تحلیل می کند و در نتیجه ما می توا...
Li-Fi ، اینترنت را از طریق لامپ دریافت کنید !... در آینده اینترنت از طریق لامپ وارد خانه های ما می شود. اینترنت از طریق نور مرئی، Li-Fi لامپ های حبابی تنگستن خدمات زیادی را در قرن اخیر و یا از...
اخبار علمی : ساخت یک رمزخوان که افکار انسان را میخواند... یک گروه از دانشمندان موفق شده اند برای اولین بار به افکار درونی انسان گوش دهند؛ البته روش آنها با تله پاتی فرق دارد و این تیم از یک رمزخوان استفاده می...
اسکلت انسان نسبت به اسکلت اجداد شکارچی اش شکننده تر است... انسان های مدرن در مقایسه با شامپانزه ها و اجداد منقرض شده شان، اسکلت شکننده تر و سبک تری دارند. مطالعات نشان داده اند که این استخوان های سبک در اواخر ...
شایعه پراکنی می تواند یک مهارت اجتماعی مهم باشد!... شایعه پراکنی صورت خوشی ندارد و همه ما این را می دانیم و در حالی که خودمان را از لحاظ اخلاقی بی نقص می دانیم، ‏افرادی که شیفته دانستن درباره زندگی دیگر...
ناتوانی موسیقیایی : زندگی بدون لذت موسیقی... بیشتر ما دوست داریم برای آرامش، خستگی در کردن یا خوش گذراندن موسیقی گوش کنیم، یا بنوازیم. اما بعضی از افراد نمی توانند موسیقی را درک کنند، از آن لذت ب...

درباره نیلوفر نبی زادگان

نیلوفر نبی زادگان
نیلوفر نبی زادگان ، فارغ التحصیل رشته مهندسی سخت افزار و نویسنده وبسایت ساختنی است .

پیشنهاد می کنیم

ربات سوسکی حساس به نور کوچک و کارآمد بسازید

همه پروژه‌های رباتیک نیاز به مهارت پیشرفته در الکترونیک و کدنویسی ندارند. برخی از ربات‌های …

پاسخ دهید