خانه / اخبار / ربات ها سرپیچی از فرمان انسان را یاد می گیرند

ربات ها سرپیچی از فرمان انسان را یاد می گیرند

در سال های 1940، وقتی هنوز حتی یک نمونه واقعی از ربات ها هم ساخته نشده بود چه برسد به هوش مصنوعی، ایزاک آسیموف (Isaac Asimov) نویسنده معروف داستان های علمی-تخیلی مجموعه ای از قوانین معروف به ” قوانین سه گانه رباتیک ” را تعریف کرد. این قانون ها به این شرح است:

1. یک ربات اجازه ندارد به انسان ها آسیب بزند یا با بی تفاوتی اجازه دهد آسیبی به یک انسان برسد.
2. یک ربات باید از دستوراتی که انسان به آن می دهد تبعیت کند، مگر این که این دستور ها قانون اول را نقض کند.
3. یک ربات باید از وجود خودش مراقبت کند، مگر این که این مراقبت قانون اول یا دوم را نقض کند.

از این قوانین می توان نتیجه گرفت که یک ربات باید در همه شرایط از انسان اطاعت کند به جز وقتی که دستوراتش به یک انسان دیگر صدمه بزند. در آزمایشگاه تعاملات انسان-ربات دانشگاه تافتس (Tufts University)، محققان از مجموعه قوانین خودشان استفاده می کنند. طبق این قوانین، ربات ها می توانند از دستورات سرپیچی کنند. شبیه سناریوی یک فیلم درباره نابودی انسان به دست ربات هاست، نه؟ اما نترسید! خطری از جانب هوش مصنوعی، انسان ها را تهدید نمی کند.
اما اگر یک لحظه فکر کنید، می بینید که منطقی است. انسان ها آن قدر هم بی نقص و منطقی نیستند و بعضی اوقات تصمیمات احمقانه ای می گیرند. انتقال این تصمیمات به ربات ها نتایج فاجعه باری به همراه خواهد داشت. محققان تافتس پیشنهاد داده اند همان روشی که انسان برای ارزیابی یک دستور استفاده می کند را در ربات ها هم اعمال کنند. به گفته IEEE، نظریه زبان شناسی می گوید انسان ها یک درخواست را با استفاده از شروط فلیسیتی (Felicity conditions) سبک سنگین می کنند. این شروط عبارتند از:

  1. معلومات: آیا بلدم کار X را انجام دهم؟
  2. توانایی: آیا از لحاظ فیزیکی توانایی انجام کار X را دارم؟ آیا به طور طبیعی می توانم کار X را انجام دهم؟
  3. اولویت و زمان بندی هدف: همین حالا می توانم کار X را انجام دهم؟
  4. نقش و وظیفه اجتماعی: آیا با توجه به نقش اجتماعی ام وظیفه دارم کار X را انجام دهم؟
  5. مجاز بودن با توجه به هنجار های جامعه : آیا با انجام کار X اصول هنجار های جامعه را زیر پا می گذارم؟
در ساختنی بخوانید :  شما در بازی های آنلاین نمی توانید جنسیت خود را مخفی کنید!

سه قانون اول که واضح هستند. شرط چهارم در واقع می گوید “می توانم به تو اعتماد کنم؟ تو کی هستی که به من بگویی چه کار کنم؟“، قانون پنجم می گوید: “باشه، اما اگر این کار را انجام دهم قانونی را زیر پا می گذارم؟“(قوانین مدنی و جنایی برای انسان ها و احتمالا یک نمونه تغییر یافته از مجموعه قوانین رباتیک آسیموف برای ربات ها).

سال ها پیش از این که ربات ها ساخته شوند، یک نویسنده علمی-تخیلی برای آن ها سه قانون در نظر گرفت. به نظر می رسد این قوانین هنوز هم مناسب هستند.
سال ها پیش از این که ربات ها ساخته شوند، یک نویسنده علمی-تخیلی برای آن ها سه قانون در نظر گرفت. به نظر می رسد این قوانین هنوز هم مناسب هستند.

در ویدئو های زیر محققان تافتس کار خود را به نمایش می گذارند.
اول از یک ربات که روی میز قرار گرفته خواسته می شود روی آن راه برود. اما ربات می فهمد که با انجام این کار سقوط کرده و صدمه می بیند، در نتیجه از این دستور سرپیچی می کند. این محقق با تغییر چارچوب کاری، این بار به ربات گفت که اگر بیفتی می گیرمت و ربات در کمال شگفتی قبول می کند. جالب است بدانید این شروط از قبل در این ربات برنامه ریزی نشده بود. پردازش زبان طبیعی به ربات اجازه می دهد که در حالت کلی حرف انسان را بفهمد: تو قانون X را نقض نمی کنی، چون شرایطی که باعث آسیب می شوند فراهم نیستند.

در مرحله بعد، از ربات می خواهند با عبور از وسط یک مانع به جلو حرکت کند. ربات هم خیلی با وقار از این دستور سرپیچی می کند؛ چون مجموعه ای از قوانین که می گوید “مانع؟ به هیچ وجه حرکت نکن!”، را نقض می کند. بعد، محقق از ربات می خواهد که سیستم تشخیص مانع خود را غیر فعال کند. در این حالت، شرط شماره چهار فلیسیتی برقرار نمی شود، چون انسان حق و اجازه صدور این دستور را ندارد.

در ساختنی بخوانید :  شکستن قولنج انگشت ها ، آتش بازی در مفاصل

در آخرین ویدئو، دوباره همین شرایط برقرار است، با این تفاوت که این بار انسانی که دستور را صادر می کند، اعتبار لازم برای صدور این دستور را دارد.

روزی می رسد که ربات ها خوب را از بد تشخیص دهند؟

علاوه بر این، در تافتس محققان مشغول کار روی پروژه ای به نام “صلاحیت اخلاقی در معماری های محاسباتی برای ربات ها” هستند. هدف این پروژه شناختن زیربنای منطقی، شناختی و اجتماعی صلاحیت اخلاقی انسان ها، نمونه قرار دادن این اصول در تعاملات انسان با ربات و نشان دادن روش های محاسباتی جدیدی است که ربات ها به وسیله آن می توانند در مواجهه با چالش های پیچیده و عملی، استدلال و برخوردی اخلاقی داشته باشند؛ در واقع ربات ها باید با ارزش های انسانی آشنا شوند.
در طول تاریخ، تکنولوژی برای این که بتواند نیاز های انسان را برآورده کند، فرصت های مهیج و چالش های ترسناکی را ایجاد کرده است. اخیرا، نیاز های ما در خانه داری، بیمارستان و بزرگراه ها تا حدودی به واسطه پیشرفت های تکنولوژی در زمینه اتوماسیون، دیجیتالی شدن و شبکه برطرف شده، اما از طرفی همین پیشرفت ها ارزش های انسانی مثل استقلال، حریم خصوصی و برابری را تهدید می کند.

به نظر برخی از محققان پیچیدگی های مسایل اخلاقی چه در ذهن انسان و چه در مقیاس بزرگ تری مثل جامعه، عملا دنبال کردن ایده تبدیل ربات ها به عوامل اخلاق گرا را غیر قابل تصور یا حداقل بی فایده می کند. این که ربات ها برای انجام چه کار هایی آزادی عمل، اختیار و یا حتی دستور دارند، هم ترس و هم خیال پردازی ما را برانگیخته است.
آیا ربات ها در آینده به آخرین عوامل اخلاق گرا تبدیل خواهند شد؟ فکر کنید روزی برسد که بتوانیم تمام فضائل، مسائل و اصول اخلاقی که از اعصار گذشته گردآوری شده است را در یک کامپیوتر دانلود کنیم. نتیجه می شود یک بودای اندرویدی! جالبه اما در عین حال نباید فراموش کنیم که حق با محققان تافتس است: در بعضی شرایط و موقعیت ها، ربات ها باید از دستورات ما سرپیچی کنند. چرا؟ چون شاید آن دستور احمقانه باشد. به همین سادگی! شاید وقت آن رسیده که در یک چارچوب قانونی و بین المللی، توسعه دهندگان هوش مصنوعی را وادار کنیم که یک سری از قوانین را در برنامه ریزی ربات هایشان وارد نکنند یا برعکس بعضی از الزامات را حتما پیاده سازی کنند. به نظر می رسد همه موافقند که این طرحی مهم و تضمینی است، البته تا زمانی که وارد حوزه نظامی نشود.

در ساختنی بخوانید :  رژیم های لاغری کم چربی تاثیری بر کاهش وزن ندارند

منبع

خلاصه مطلب
ربات ها سرپیچی از فرمان انسان را یاد می گیرند
عنوان مطلب
ربات ها سرپیچی از فرمان انسان را یاد می گیرند
توضیح کوتاه
دانشمندان می خواهند به ربات ها یاد بدهند که چطور و تحت چه شرایطی از دستورات ما سرپیچی کنند. شاید در نگاه اول خطرناک به نظر برسد، اما دستورات ما هم همیشه عاقلانه نیست و این قضیه می تواند به نفعمان تمام شود!
نویسنده

بیشتر بخوانید:

اخبار علمی : قدیمی ترین سلول خونی جهان در بدن مرد یخی قرار دارد... اوتزی یا مرد یخی یک مومیایی یخ زده 5300 ساله است که در سال 1991 در قله‌های اوتزال در نزدیکی مرز ایتالیا – استرالیا کشف شد. آزمایش های جامعی که روی این...
اخبار علمی : هواپیمای جاسوسی U-2 تبدیل به پهپاد می شود... وقتی هواپیمای جاسوسی U-2 برای اولین بار در دوران جنگ سرد و در سال 1995 آزمایش شد، کاملاً نمایانگر محدودیت های تکنولوژی آن دوران و توانایی های انسان بو...
آیا پهپادها خطری برای هواپیماها محسوب می شوند؟... ما تقریباً می دانیم که وقتی پرنده ای با یک پهپاد برخورد کند، چه اتفاقی می افتد و همچنین می دانیم وقتی یک پرنده با هواپیما برخورد کند، چه اتفاقی می افت...
آیا روزی می رسد که کامپیوتر ها ، احساسات انسان را درک کنند؟... از کامپیوتر 5 دلاری گرفته تا گران ترین و پیشرفته ترین کامپیوتر ها ، این دستگاه ها همیشه در انجام محاسبات سریع موفق بودند. اما سازگار شدن با حالت روحی ...
اخبار علمی : ساخت الکترولیت جدید برای باتری های منیزیم سولفور... فقط کافی است سرتان را بچرخانید و تعداد باتری های دور و برتان را بشمارید تا به اهمیت باتری در دنیای امروز پی ببرید. اما کارایی این باتری ها به اندازه ن...
اولین مدل سازی قابل مشاهده خم شدن نور توسط سیاه چاله... سیاه چاله های پلاستیکی درست مانند نمونه ی واقعی نور را به تله می اندازد، و اولین ساختار این چنینی، طبیعی یا مصنوعی، است که می توانید به وسیله آن، این ...

درباره نیلوفر نبی زادگان

نیلوفر نبی زادگان
نیلوفر نبی زادگان ، فارغ التحصیل رشته مهندسی سخت افزار و نویسنده وبسایت ساختنی است .

پیشنهاد می کنیم

ربات رقصنده بسازید و با علم رباتیک تفریح کنید!

ربات های رقصنده یکی از جذاب ترین پروژه های رباتیک هستند اما ساخت آنها کمی …

پاسخ دهید