چهارشنبه 24 اسفند 1390   صفحه اول | درباره ما | گویا

بخوانید!
پرخواننده ترین ها

چگونه روبات اخلاق‌مدار بسازيم؟ ایسنا

با افزايش ورود روبات‌ها به جنبه‌هاي مختلف زندگي انسان، اكنون دانشمندان به زيرحوزه‌اي روي‌آورده‌اند كه به حصول اطمينان از پايبندي رفتار روباتيك با استانداردهاي معين اخلاقي مي پردازد.

به گزارش سرويس فناوري خبرگزاري دانشجويان ايران(ايسنا)، محققان موسسه فناوري جورجيا در مقاله‌اي در مورد تصميم‌گيري اخلاقي در سيستم‌هاي خودكار كه در مجموعه مقالات IEEE منتشر شده به تاكيد بر اهميت فعال و نه واكنش‌پذير بودن در اين حوزه پرداخته‌اند.

به گفته محققان، سوال بزرگ اين است كه چطور مي‌توان اطمينان حاصل كرد كه فناوري روباتيك آينده، انسانيت و ارزش‌هاي جوامع انساني را حفظ مي‌كنند؟ اين محققان در ادامه از شيوه‌هايي نام برده‌اند كه ممكن است براي اعمال رفتار اخلاقي در روبات‌ها مفيد باشند.

يكي از اين شيوه‌ها شامل يك محدودكننده اخلاقي بوده كه نام خود را از يك محدودكننده موتور بخار الهام گرفته كه از رفتار ايمن موتورهاي قدرتمند و در مرزهاي از پيش تعريف شده اجرايي اطمينان حاصل مي‌كند. براي مثال براي روبات‌هاي خودكار نظامي، اين مرزها شامل اصول برگرفته از کنوانسیون ژنو و ديگر قوانين مورد استفاده انسان‌ها خواهد بود.

روبات‌هاي غيرنظامي نيز از مرزهاي متفاوت ديگري كه مخصوص اهداف آنها طراحي شده، برخوردار خواهند بود.

به گفته دانشمندان، روبات‌ها براي تشخيص هنجارها بايد از احساسات براي اصلاح رفتار برخوردار باشند. يكي از مهمترين احساسات براي رويات‌ها بايد احساس گناه باشد كه روبات در زمان سرپيچي از محدوديت‌هاي اخلاقي خود يا در زمان انتقاد از سوي انسان، آنرا احساس كند.

فلاسفه و روانشناسان احساس گناه را به عنوان يك برانگيزاننده اساسي براي رفتار اخلاقي خوانده‌اند چرا كه منجر به اصلاحات رفتاري بر اساس عواقب رفتارهاي پيشين مي‌شود. دانشمندان در اين شيوه بر اين باورند كه زماني كه ارزش احساس گناه يك روبات از چارچوب‌هاي خاص تجاوز مي‌كند، توانايي‌هاي رويات ممكن است براي مدت كوتاهي محدود شود.




تبليغات خبرنامه گويا

advertisement@gooya.com 




اين دانشمندان همچنين معتقدند كه روبات‌ها بايد از قابليت فريب دادن انسان براي دلايل مناسب در شيوه‌هاي مناسب برخوردار باشند تا كاملا اخلاق‌گرا باشند.

به گفته دانشمندان، در دنياي حيوانات، فريب، نشانگر هوش اجتماعي بوده و مي‌تواند در شرايط درست از مزايايي برخوردار باشد. براي مثال روبات‌هاي جستجوگر و امدادرسان ممكن است براي آرام كردن يك جمعيت نياز به فريب آنها داشته باشند.

نكته پاياني اين دانشمندان در طرح خود، اطمينان از اين مساله است كه روبات‌ها به خصوص آن دسته كه به مراقبت از كودكان و سالمندان مي‌پردازند، به شان انساني از جمله استقلال، حريم خصوصي، هويت و ديگر حقوق اوليه انساني احترام بگذارند.

محققان پيش‌بيني كرده‌اند كه اعمال رفتار اخلاقي در روبات‌ها در آينده در حوزه هاي مختلف زيادي با چالش روبرو خواهد شد.

از مزاياي غير قابل انتظار از توليد يك مشاور اخلاقي براي روبات‌ها اين است كه ممكن است مشاور در زمان مواجهه انسان با تصميمات چالش‌برانگيز اخلاقي به او كمك كند. در حال حاضر مشاوره اخلاقي رايانه‌‌يي براي حقوق و اخلاق زیستی وجود داشته و دستگاه محاسباتي مشابه ممكن است بتواند رفتار اخلاقي را در روابط انساني ارتقا بخشد.


ارسال به بالاترین | ارسال به فیس بوک | نسخه قابل چاپ | بازگشت به بالای صفحه | بازگشت به صفحه اول 



















Copyright: gooya.com 2016