معروف ترین میراث استاد بزرگ علمی تخیلی ایزاک آسیموف برای دنیا شاید سه قانون وی برای ربات ها باشد، طراحی قوانینی که برای محافظت و خدمت به انسان باشد. این قوانین پایه و اساس قوانین اخلاقی برای ربات ها را ساخته است که از زمانی که در سال ۱۹۴۲ برای اولین بار در داستان کوتاه “طفره” مشاهده شده است برای سال ۲۰۱۵ قرار گرفته است.
این قوانین بدین گونه اند
- یک ربات نباید با ارتکاب عملی یا خودداری از انجام عملی باعث آسیبدیدن یک انسان شود.
- یک ربات باید از فرمانهای انسانها تبعیت کند مگر اینکه آن فرمانها در تعارض با قانون نخست باشد.
- تا هنگامی که قانون نخست یا دوم زیرپا گذاشته نشدهاست ربات باید وجود خود را حفظ کرده و در بقای خود بکوشد.
حال ۲۰۱۵ است و جهان ربات دارد. شاید در مقایسه با راه رفتن و صحبت کردنِ موجودات فلزیِ تخیل ما ، اتومبیل های بدون سرنشین یا هواپیماهای بدون سرنشین ابتدایی به نظر می رسد. با این حال، از این نقطه شروع دستاوردهای بسیار بیشتری از ربات ها در حال آمدن هستند و دانشمندان در حال کار روی چگونگی اخلاقی ساختن آن ربات ها هستند. برخی از دانشمندان استدلال می کنند که روزی ربات ها در واقع می توانند اخلاقی تر از انسان ها باشند.
هر تعامل بین یک انسان و ربات یک ورودی اخلاقی دارد.
بطور مثال ربات های تجاری اندازه نوزاد نائو که برای یادآوری مصرف دارو به مردم برنامه ریزی شده است. اگرچه چنین کاری بی اهمیت بنظر می رسد اما ربات ممکن است مجبور باشد بین نگرانی از سلامت بیمار و احترام به خواسته های بیمار تصمیم گیری کند. اگر یک بیمار به نقطه ای برسد که اگر دارو نرسد آسیب جدی می بیند و همچنین او نه می گوید چه کاری باید انجام دهد؟ چه رتبه بندی برای احترام به استقلال بیمار هست؟
در مواجه با مشکلات بزرگ
یکی از بزرگترین مجموعه چالش های دانشمندان در مواجه شدن با توسعه یک ربات اخلاقی است. معضل معروف چرخ دستی است. شما راهنمای یک واگن برقی هستید . شما واگنی را هدایت می کنید که بسرعت ۵ نفر را در وسط راه آهن می بینید. شما می توانید واگن را به سمتی هدایت کنید که فقط یک نفر آنجا هست.
حتی انسان ها هم اجماعی برای این مسئله ندارند که چه چیزی درست است. ماشین رباتیک چی؟ ماشین های رباتیکی که در حال توسعه هستند با چرخ دستی های بی شماری مواجه خواهند شد. برای مثال اگر یک ماشین بدون راننده در یک موقعیت سقوط اجتناب ناپذیر قرار بگیرد آیا آن باید مسافران خود را نجات دهد یا ناظران را؟ چه می شود اگر مسافران کودک باشند؟ و چه ناظران باردار باشند؟
یک انسان ممکن است در حرارت لحظه تصمیم گیری کند اما جهت های واضح باید از پیش داخل ربات برنامه نویسی شود، یک چیز فوق العاده سخت زمانی که پاسخ های روشنی نیست.
معضلات ممکن است ماموریت های جستجو و نجات را در ربات ها به ستوه بیاورد. اگرچه آنها ممکن است مستقیما کسی را نکشند اما آنها می توانند یک فرد را نجات دهند و دیگری را رها کند تا بمیرد.
ربات شناس آلن وینفیلد از آزمایشگاه رباتیک بریستول در انگلستان پیدا کرده است که ربات ها می توانند در انتخاب بین موقعیت هایی مانند شر کمتر و بدون برد، مات و بی حرکت شوند . در یک آزمایش او برای اولین بار یک ربات برنامه ریزی کرد ، یک ربات را بعد از آسیموف ربات آ لقب داد و دیگری را ربات اچ برای انسان و نجات از سقوط به یک سوراخ را آزمایش کرد. ربات آ بی وقفه کار خود را انجام داد و ربات اچ را به دور از خطر هل داد. با این حال زمانی که ربات اچ درگیر شد در ۱۴ تا از ۳۳ تلاش ربات اچ زمان زیادی را صرف اندیشیدن برای تصمیم گیری کرد که هردو آنها به سوراخ افتادند.
شروع با یک قطب نمای اخلاقی
گرچه دانشمندان برای به چاللش کشیدن ربات ها سوالاتی را طراحی می کنند اما آنها امیدوارند که ماشین با انجام خوب بیشتر از انجام بد کار خود را به پایان برسانند.
البته یک پتانسیل برای آسیب در این سیستم ها وجود دارد، اما مردم دست به کاوش درباره آنها می زنند چون امیدوارند که منافعشان بسیار بیشتر از خطراتشان باشد. هیچ سیستمی کامل نیست اما دانشمندان امیدوارند صدمات آنها بسیار کمتر شوند. باید گفت که هیچ سیستمی کامل نیست.
یک استراتژی برای توسعه ربات های با اخلاق ، برنامه ریزی آنها برای رفتار بصورت قطب نمای اخلاقی است. بعنوان مثال ربات های نظامی ممکن است به قوانین نظامی تعامل و قوانین بشردوستانه مجهز شوند.
یک تفاوت بین ربات نظامی و انسان این است که ربات ها می توانند قوانین جنگ را پیروی کنند درحالی که انسان می تواند توسط ابرهای احساسات و ترس احاطه شود.
شرایط نامعین
مفهوم برنامه نویسی ربات ها با پاسخ های اخلاقی چالشی است که اخلاق شناس وندل والاش در دانشگاه ییل و فیلسوف کالین آلن در دانشگاه ایندیانا آنرا اخلاق عملیاتی نامیدند. آنها می گویند این سناریو می تواند موفق باشد اگر ربات تمام حقایق در مورد یک وضعیت برای تصمیم گیری اخلاقی را دریافت کند که این کار همیشه ممکن نیست.
سوالی که معمولا پیش می آید این است که طراحان ، موقعیت هایی را که ربات با آن مواجه خواهند شد را نمی دانند. این می تواند بسیار مشکل باشد که تمام عوامل در وضعیت را شناسایی کرد. حتی انسان ها هم در این کار عالی نیستند.
استراتژی قوانین از پیش تایین شده ممکن است خارج از چهارچوب نظامی خوب کار نکند. برای مثال ماشین بدون راننده که در حال حاضر هیچ نهاد بین المللی تنظیم قوانین رفتاری وجود ندارد. در نهایت ماشین های بدون راننده مانند وکلا برای انسان ها مسئولیتشان بر عهده سازنگدان آنهاست.
یادگیری برای فکر کردن برای خودشان
یک گام قبل از اخلاق عملیاتی ، اخلاق کاربردی است جایی که ربات ها به جایی حرکت می کنند که طراحانشان آن وضعیت را پیش بینی نکرده بودند. فراتز از اخلاق کاربردی ، گماشتگی کامل اخلاقی است که یک انسان عاقل را شامل می شود. اینکه بگوییم آیا ربات ها به این درجه از اخلاق خواهند رسید مانند این است که بگوییم آیا ربات ها به سطح هوش انسان خواهند رسید؟
یک استراتژِ برای توسعه یک ربات با رفتار اخلاقی در شرایط پیش بینی نشده برنامه ریزی آن برپایه قوانین نیست بلکه آن است که ربات ها یادبگیرند اخلاق مدار باشند. یکی از مهم ترین چیزها چندوظیفگی است که بطور مثال در ربات یادآور دارو باید رساندن آسیب به هرچیزی در حداقل ممکن، به یادآوردن دارو به بیماران و شارژ نگه داشتن خود باشد.
بنابراین اخلاق شناسان به سیستم خواهند گفت که پاسخ درست برای هرمورد چیست و بسیاری چیزها می تواند استنباط شود. هدف این است که ربات ها اعمال خود را توجیه کنند.
این استراتژی می تواند از سیستم مات شدن دستگاهوینفیلد جلوگیری کند چرا که هر عمل ربات توسط اصول اخلاقی رانده می شود حتی زمانی که ربات لحظاتی را صرف ایستادن می کند.
ربات ها برای نگاه کردن
ربات ها اکنون اخلاق ابتدایی دارند اما همین یکبار طراحی پرش از موانع گذشته است که در آینده می تواند حتی بیشتر از انسان اخلاقی باشد، که انسان ها هم بسیاری از معایب خود را دارند. چیزی که می خواهم بگویم این است که نهادهایی از اخلاق ایجاد می شود که از انسان اخلاقی تر هستند و در واقع می توانند بعنوان یک نمونه برای چگونگی رفتار ما نیز باشد.
و در آخر آیا این کار می تواند یک پیشرفت برای نظریه اخلاق در انسان ها باشد؟