لوگوی جشنواره وب و موبایل ایران
خانه / اخبار / ربات ها سرپیچی از فرمان انسان را یاد می گیرند

ربات ها سرپیچی از فرمان انسان را یاد می گیرند

در سال‌های 1940، وقتی هنوز حتی یک نمونه واقعی از ربات‌ها هم ساخته نشده بود چه برسد به هوش مصنوعی، ایزاک آسیموف (Isaac Asimov) نویسنده معروف داستان‌های علمی-تخیلی مجموعه ای از قوانین معروف به ” قوانین سه گانه رباتیک ” را تعریف کرد. این قانون‌ها به این شرح است:

1. یک ربات اجازه ندارد به انسان‌ها آسیب بزند یا با بی تفاوتی اجازه دهد آسیبی به یک انسان برسد.
2. یک ربات باید از دستوراتی که انسان به آن می‌دهد تبعیت کند، مگر این که این دستور‌ها قانون اول را نقض کند.
3. یک ربات باید از وجود خودش مراقبت کند، مگر این که این مراقبت قانون اول یا دوم را نقض کند.

از این قوانین می‌توان نتیجه گرفت که یک ربات باید در همه شرایط از انسان اطاعت کند به جز وقتی که دستوراتش به یک انسان دیگر صدمه بزند. در آزمایشگاه تعاملات انسان-ربات دانشگاه تافتس (Tufts University)، محققان از مجموعه قوانین خودشان استفاده می‌کنند. طبق این قوانین، ربات‌ها می‌توانند از دستورات سرپیچی کنند. شبیه سناریوی یک فیلم درباره نابودی انسان به دست ربات‌هاست، نه؟ اما نترسید! خطری از جانب هوش مصنوعی، انسان‌ها را تهدید نمی‌کند.
اما اگر یک لحظه فکر کنید، می‌بینید که منطقی است. انسان‌ها آن قدر هم بی نقص و منطقی نیستند و بعضی اوقات تصمیمات احمقانه ای می‌گیرند. انتقال این تصمیمات به ربات‌ها نتایج فاجعه باری به همراه خواهد داشت. محققان تافتس پیشنهاد داده اند همان روشی که انسان برای ارزیابی یک دستور استفاده می‌کند را در ربات‌ها هم اعمال کنند. به گفته IEEE، نظریه زبان شناسی می‌گوید انسان‌ها یک درخواست را با استفاده از شروط فلیسیتی (Felicity conditions) سبک سنگین می‌کنند. این شروط عبارتند از:

  1. معلومات: آیا بلدم کار X را انجام دهم؟
  2. توانایی: آیا از لحاظ فیزیکی توانایی انجام کار X را دارم؟ آیا به طور طبیعی می‌توانم کار X را انجام دهم؟
  3. اولویت و زمان بندی هدف: همین حالا می‌توانم کار X را انجام دهم؟
  4. نقش و وظیفه اجتماعی: آیا با توجه به نقش اجتماعی ام وظیفه دارم کار X را انجام دهم؟
  5. مجاز بودن با توجه به هنجار‌های جامعه : آیا با انجام کار X اصول هنجار‌های جامعه را زیر پا می‌گذارم؟
در ساختنی بخوانید :  اصلاح ژنتیکی انسان؛ ویرایش ژنتیکی چطور انجام می شود؟

سه قانون اول که واضح هستند. شرط چهارم در واقع می‌گوید “می‌توانم به تو اعتماد کنم؟ تو کی هستی که به من بگویی چه کار کنم؟“، قانون پنجم می‌گوید: “باشه، اما اگر این کار را انجام دهم قانونی را زیر پا می‌گذارم؟“(قوانین مدنی و جنایی برای انسان‌ها و احتمالا یک نمونه تغییر یافته از مجموعه قوانین رباتیک آسیموف برای ربات‌ها).

سال‌ها پیش از این که ربات‌ها ساخته شوند، یک نویسنده علمی-تخیلی برای آن‌ها سه قانون در نظر گرفت. به نظر می‌رسد این قوانین هنوز هم مناسب هستند.
سال‌ها پیش از این که ربات‌ها ساخته شوند، یک نویسنده علمی-تخیلی برای آن‌ها سه قانون در نظر گرفت. به نظر می‌رسد این قوانین هنوز هم مناسب هستند.

در ویدئو‌های زیر محققان تافتس کار خود را به نمایش می‌گذارند.
اول از یک ربات که روی میز قرار گرفته خواسته می‌شود روی آن راه برود. اما ربات می‌فهمد که با انجام این کار سقوط کرده و صدمه می‌بیند، در نتیجه از این دستور سرپیچی می‌کند. این محقق با تغییر چارچوب کاری، این بار به ربات گفت که اگر بیفتی می‌گیرمت و ربات در کمال شگفتی قبول می‌کند. جالب است بدانید این شروط از قبل در این ربات برنامه ریزی نشده بود. پردازش زبان طبیعی به ربات اجازه می‌دهد که در حالت کلی حرف انسان را بفهمد: تو قانون X را نقض نمی‌کنی، چون شرایطی که باعث آسیب می‌شوند فراهم نیستند.

در مرحله بعد، از ربات می‌خواهند با عبور از وسط یک مانع به جلو حرکت کند. ربات هم خیلی با وقار از این دستور سرپیچی می‌کند؛ چون مجموعه ای از قوانین که می‌گوید “مانع؟ به هیچ وجه حرکت نکن!”، را نقض می‌کند. بعد، محقق از ربات می‌خواهد که سیستم تشخیص مانع خود را غیر فعال کند. در این حالت، شرط شماره چهار فلیسیتی برقرار نمی‌شود، چون انسان حق و اجازه صدور این دستور را ندارد.

در آخرین ویدئو، دوباره همین شرایط برقرار است، با این تفاوت که این بار انسانی که دستور را صادر می‌کند، اعتبار لازم برای صدور این دستور را دارد.

روزی می‌رسد که ربات‌ها خوب را از بد تشخیص دهند؟

علاوه بر این، در تافتس محققان مشغول کار روی پروژه ای به نام “صلاحیت اخلاقی در معماری‌های محاسباتی برای ربات‌ها” هستند. هدف این پروژه شناختن زیربنای منطقی، شناختی و اجتماعی صلاحیت اخلاقی انسان‌ها، نمونه قرار دادن این اصول در تعاملات انسان با ربات و نشان دادن روش‌های محاسباتی جدیدی است که ربات‌ها به وسیله آن می‌توانند در مواجهه با چالش‌های پیچیده و عملی، استدلال و برخوردی اخلاقی داشته باشند؛ در واقع ربات‌ها باید با ارزش‌های انسانی آشنا شوند.
در طول تاریخ، تکنولوژی برای این که بتواند نیاز‌های انسان را برآورده کند، فرصت‌های مهیج و چالش‌های ترسناکی را ایجاد کرده است. اخیرا، نیاز‌های ما در خانه داری، بیمارستان و بزرگراه‌ها تا حدودی به واسطه پیشرفت‌های تکنولوژی در زمینه اتوماسیون، دیجیتالی شدن و شبکه برطرف شده، اما از طرفی همین پیشرفت‌ها ارزش‌های انسانی مثل استقلال، حریم خصوصی و برابری را تهدید می‌کند.

در ساختنی بخوانید :  آموزش ساخت : لانگ بورد الکتریکی بسازید – قسمت اول

به نظر برخی از محققان پیچیدگی‌های مسایل اخلاقی چه در ذهن انسان و چه در مقیاس بزرگ تری مثل جامعه، عملا دنبال کردن ایده تبدیل ربات‌ها به عوامل اخلاق گرا را غیر قابل تصور یا حداقل بی فایده می‌کند. این که ربات‌ها برای انجام چه کار‌هایی آزادی عمل، اختیار و یا حتی دستور دارند، هم ترس و هم خیال پردازی ما را برانگیخته است.
آیا ربات‌ها در آینده به آخرین عوامل اخلاق گرا تبدیل خواهند شد؟ فکر کنید روزی برسد که بتوانیم تمام فضائل، مسائل و اصول اخلاقی که از اعصار گذشته گردآوری شده است را در یک کامپیوتر دانلود کنیم. نتیجه می‌شود یک بودای اندرویدی! جالبه اما در عین حال نباید فراموش کنیم که حق با محققان تافتس است: در بعضی شرایط و موقعیت‌ها، ربات‌ها باید از دستورات ما سرپیچی کنند. چرا؟ چون شاید آن دستور احمقانه باشد. به همین سادگی! شاید وقت آن رسیده که در یک چارچوب قانونی و بین المللی، توسعه دهندگان هوش مصنوعی را وادار کنیم که یک سری از قوانین را در برنامه ریزی ربات‌هایشان وارد نکنند یا برعکس بعضی از الزامات را حتما پیاده سازی کنند. به نظر می‌رسد همه موافقند که این طرحی مهم و تضمینی است، البته تا زمانی که وارد حوزه نظامی‌نشود.

منبع

خلاصه مطلب
عنوان مطلب
ربات‌ها سرپیچی از فرمان انسان را یاد می‌گیرند
توضیح کوتاه
دانشمندان می‌خواهند به ربات‌ها یاد بدهند که چطور و تحت چه شرایطی از دستورات ما سرپیچی کنند. شاید در نگاه اول خطرناک به نظر برسد، اما دستورات ما هم همیشه عاقلانه نیست و این قضیه می‌تواند به نفعمان تمام شود!
نویسنده

در ساختنی بخوانید :

استخوان های شما پیچیده تر آن چیزی هستند که فکر می کنید... استخوان های ما بسیار باهوش هستند. استخوان انسان سبک و در عین حال قوی است و اگر آسیب ببیند خود به خود ترمیم می شود. یک چیز دیگر اینکه استخوان های شما ب...
خبر علمی : معمای سوپرنوا با کمک هابل حل شد... بعد از 20 سال جستجو، ستاره ندیمی که منجر به وقوع یک نوع سوپرنوای غیرمعمول شده بود مشخص شد و ایده دانشمندان درباره چگونگی بروز این پدیده را تایید کرد. ...
انیشتین در نامه ای به پسرش از بهترین روش یادگیری می گوید... در سال 1915، آلبرت انیشتین 36 ساله تازه شاهکار دو صفحه ای خود که فیزیک نوین را متحول کرد و این فیزیکدان ‏را به شهرت و افتخار جهانی رساند، یعنی نظریه ن...
ریاضیات، معمای سنگ ریزه های مریخ را حل کرد... به نظر شما چطور می توانیم فقط با داشتن یک سری عکس، از تاریخ طبیعی سنگ ها و آب دیگر سیارات اطلاع پیدا کنیم؟ خب، جواب چیزی نیست جز ریاضیات. دانشمندان ک...

درباره نیلوفر نبی زادگان

نیلوفر نبی زادگان
نیلوفر نبی زادگان ، فارغ التحصیل رشته مهندسی سخت افزار و نویسنده وبسایت ساختنی است .

پیشنهاد می کنیم

مغز مصنوعی با استفاده از ممیستور ها

با ممیستور ها یک قدم به ساختن مغز مصنوعی نزدیک تر شده ایم !

پژوهشگران موسسه فیزیک و تکنولوژی مسکو یک قدم به ساخت شبکه عصبی نزدیک شده اند …

پاسخ دهید