به گزارش از تارنمای تک اسپلور، گروه تحقیقاتی “اخلاقیات ماشین های هوشمند” به سرپرستی مایکل لاکاسو دیدگاههای اخلاقی افراد را در مورد موقعیتهای نجات خیالی و امدادگر انسان یا ربات که به طور خاص برای این کار طراحی شده است، مورد بررسی قرار دادند. امدادگر باید تصمیم بگیرد که مثلاً یک قربانی بی گناه حادثه قایق را نجات دهد یا دو فردی که رفتار غیرمسئولانه آنها باعث حادثه شده است.
یوکا سوندوال نویسنده اصلی این مطالعه گفت: بحث نجات تعداد افراد بیشتر در مقابل اولویت دادن به افراد بی گناه است.
هدف این مطالعه جمعآوری دادهها در مورد عواملی است که افراد در ارزیابیهای اخلاقی خود در مورد موقعیتهای دشوار تصمیمگیری بر آنها تأکید میکنند و اینکه آیا اگر تصمیم گیری به عهده یک ربات گذاشته شود، این تاکیدات تغییر می کند یا خیر. به عبارت دیگر، آیا از ربات های امدادگر انتظار می رود به اولویت های متفاوت با انسان ها پایبند باشند؟
مهمترین یافته این تحقیق این بود که شرکت کنندگان در مطالعه و پاسخ دهندگان به یک نظرسنجی آنلاین (به زبان فنلاندی) بر بی گناهی بیشترِ افرادی که قرار بود نجات یابند، تاکید داشتند. بطور کلی از نظر مردم بهتر است یک فرد بی گناه نجات داده شود تا دو فردی که باعث حادثه شده اند، چه امدادگر انسان باشد یا ربات. پاسخ دهندگان می خواستند که امدادگر تنها در شرایطی که همه طرف های درگیر در بروز حادثه به یک اندازه مقصر هستند یا مقصر نیستند، تعداد افراد نجات یافته را به حداکثر برساند.
این مطالعه همچنین تاکید می کند که اگر امدادگر تصمیم می گرفت با نجات افراد عامل ایجاد حادثه، تعداد نجاتیافتگان را به حداکثر برساند، تصمیم رباتها بسیار بیشتر از امدادگران انسانی محکوم می شد.
نگاه انتقادیتر به رباتها
مایکل لاکاسو گفت: بر اساس نتایج این مطالعه به نظر می رسد تصمیم های ربات ها بر اساس معیارهای اخلاقی سختگیرانه تری ارزیابی می شود.
در حالی که رباتها و انسانها در معرض انتظارات اخلاقی مشابهی هستند، اما انتظار میرود رباتها در برآورده کردن این انتظارات بهتر از انسان عمل کنند.
یک دلیل احتمالی این است که مردم امیدوارند تصمیم گیری خودکار، بسیار بیشتر از تصمیم گیری افراد “درست” باشد. اگر این اتفاق نیفتد، هدف اتوماسیون و خودکارسازی را زیر سوال می برد.
ساندوال افزود: شاید تصمیم های اخلاقی ضعیفی را که انسان ها گرفته اند، بتوان اتفاقات قابل درک دانست؛ در حالی که در مورد رباتها این تصمیم ها نشانه خطا در برنامهنویسی قلمداد می شوند.
بررسی نگرشها نسبت به فناوری جدید
در سطح عملی، معیارهای اخلاقی سختگیرانهتر میتواند به واکنشهای منفی قابل توجه در شرایط زندگی واقعی منجر شود؛ جایی که نتیجه تصمیم گیری خودکار از دیدگاه شهروندان از نظر اخلاقی ضعیف است. انتظارات بالا ممکن است مانع گسترش تصمیم گیری خودکار شود.
این مطالعه بخشی از مطالعات حوزه روانشناسی اخلاقی و تعامل انسان و فناوری است و هدف آن گسترش درک ما از تفکر و نگرش اخلاقی به فناوری های جدید است.
ساندوال با تاکید بر اهمیت این مطالعه اظهار داشت: توسعه هوش مصنوعی و رباتیک در حال حاضر بحث روز است. امکان تصمیم گیری خودکار در بخش های مختلف جامعه در حال افزایش است و تلاش برای پیش بینی مشکلات مربوط به این حوزه مفید است