مسائلي از اين قبيل كه آيا از يك سامانه رايانهاي ميتوان همان كاركردهاي ذهن انسان را متوقع بود؟ اگر پاسخ آري است، آيا تمام حقوقي كه به انسان تعلق ميگيرد؛ بر آن نيز بار ميشود؟ آيا ماشين احساس دارد؟ آيا وجدان دارد؟ و آيا بايد اخلاقي عمل كند؟ غيراخلاقي عمل كردن سامانههاي رايانهاي از قبيل آدمك (روبات)ها به چه معناست؟ نقش طراحان و برنامهريزان در اينجا چه ميشود؟ آيا ما محق هستيم هر ارزش و داده اخلاقياي را در سامانههاي آنها بگنجانيم؟و… مطلب حاضر با نگاه به روند رو به افزايش سامانههاي آدمكي(روباتي) در زندگي انسان معاصر ميكوشد تا به تبيين و بررسي اين پرسشها بپردازد.
رايانه درتمام زواياي زندگي مدرن امروزي از سامانههاي خانگي گرفته كه افزارهايي براي سرگرمي، ارتباط و جستوجو هستند تا سامانههاي مالي كه ميليونها معامله را در بازارهاي جهاني، روزانه انجام ميدهند، نقش برجستهاي ايفا ميكند و در اين ميان سامانههاي روباتيك نيز در راه هستند.
آنها در سامانههاي كارخانهاي و خدماترساني بيمارستاني، راهنماي موزه، اسباب بازيها و حتي سلاحهاي مرگبار مورد استفاده در جنگ عراق و افغانستان ظاهر شدهاند و بهزودي ما شاهد خدمات روباتيك در منزل و براي سالمندان نيز خواهيم بود.
مهندسان هميشه به امنيت سامانههايي كه طراحي نموده توجه خاصي مبذول داشتهاند با اين حال طراحان سيستمهاي رايانهاي همواره قادر نيستند تاواكنشها را در شرايط و وروديهاي جديد پيشبيني كنند، بنابراين همان طور كه تكنولوژي پيچيده و پيچيدهتر ميشود و نسل جديد روباتهاي متفكر پا به عرصه ظهور ميگذارند امنيت بيش ازپيش مورد توجه قرار ميگيرد.
نتيجتا فلاسفه و مهندسان آستينها را بالا زده تا سامانههاي رايانهاي و روباتهايي را طراحي كنند كه بتوانند استدلالهاي اخلاقي و وجداني داشته باشند. گسترش روباتهاي مستقل و متفكر كه جنبههاي مثبت و منفي زيادي در زندگي انسان دارد، مبحث جديدي را مطرح ميسازد كه از آن با عناوين علم اخلاق ماشيني، هوش مصنوعي و علم اخلاق روباتيك ياد ميكنند. اين حيطه از فلسفه نوين توجه خود را روي ساخت روباتهايي كه قادرند تا تصميمات اخلاقي و عقلاني بگيرند، معطوف ساخته است.طراحي سيستمها و روباتهايي كه به انسان ضرر نميرسانند خود چالشي علميو عملي را پيش رو دارد.
علم اخلاق ماشيني در جستوجوي يافتن پاسخي براي مجهولات زير است: آيا ماشينها ابزاري هستند كه در مقام كارگزار قادرند تا تصميماتي مبني بر اخلاقيات بگيرند؟ اگر پاسخ مثبت است چرا؟ و اگرنه باز به چه علت؟آيا تصميمات اخلاقي و وجداني، ميتواند ازقاعدههاي رايانهاي و روباتيك پيروي كند؟ اگر بله، چرا؟ آيا انسان به راستي خواهان آن است كه ماشينها قادر به تصميمگيري شوند؟ چه موقع؟در چه شرايطي؟چه نوع تصميمات اخلاقي بايد عملي شود يا به مرحله اجرا درآيد؟ همانند كثرت احتمالات رايانهاي، پاسخ به اين سؤالات در فلسفه نيز جاي تفكر و تعمق بسيار دارد.
نظام اخلاق ماشيني از طريق ارزشهايي كه در سيستم آن طراحي و نصب گرديده معين ميشود. ابتدا ماشينهاي پيچيده، حيطه عمل محدودي داشتند تا طراحان بتوانند تمام موقعيتهايي كه ماشين با آن مواجه ميشود را پيشبيني كرده و در فضاي عمل محدود طراحي شده عمل كنند. با اين حال با پيشرفت تكنولوژي و پديدار شدن سيستمهاي نوظهور روباتيك طراحان ومهندسان ديگر قادر به پيشبيني دقيق در برابر وروديهاي جديد نيستند، بنا براين ماشينها نياز به نوعي اخلاقيات كارآمد دارند، بدان معني كه آنها مجموعهاي از ملاحظات اخلاقي را براي انتخاب رشته عمل خود پردازش ميكنند.
اينكه ماشين قاعدتا ميتواند يك كارفرماي مصنوعي متعهد و خودآگاه با هوشي همانند انسان باشد، موضوعي است كه تئوري پردازان با آن مخالف هستند. با اين وجود اين مباحث در حال حاضر عكس العمل بسياري از فيلسوفان، قانونگذاران و آيندهشناسان را برانگيخته است. مباحثي نظير آنكه چه موقع كارگزاران روباتيك بايد مسئوليت اعمالشان را بهعهده بگيرند و آيا آنها مستحق داشتن اموال شخصي و حقوق مدنياند يا نه، ما را در فهم حيطه عمل كارگزار مصنوعي و مسئوليتهاي قانوني او ياري ميدهد.
چالشهاي ماشين اخلاق گرا
اگر ترن به مسير فعلي خود ادامه دهد 5نفر از خدمه را در انتهاي مسير خواهد كشت.
با اين حال فردي در كنار مركز كنترل ايستاده كه ميتواند ترن را به مسير ديگري هدايت كند. متأسفانه با تغيير مسير ترن نيز تنها يك نفر كشته خواهد شد. اگر شما مسئول كنترل ترن بوديد چه ميكرديد ؟ آيا رايانه و روبات ميتواند ترن را به مسيرديگري هدايت كند ؟ بيشتر مردم در اين شرايط تصميم ميگيرند تا ترن را از ريلي به ريل ديگر تغيير مسير داده تا جان 5 نفر را نجات دهند، حتي اگر جان فرد بيگناهي به خطر بيفتد.
در وضعيتي متفاوت هيچ تغيير مسيري امكان ندارد. شما در كنار پلي در حضور مردي درشت هيكل ايستادهايد و ميتوانيد با هل دادن مرد به پايين روي ريل قطار جان 5نفر را نجات دهيد. در اين شرايط تنها درصد اندكي از مردم ميگويند كه مرد را به پايين پرت خواهند كرد.
با وارد شدن روبات به اين سناريو احتمالات جالب توجه و شايد نگران كنندهاي فرض ميشود. براي مثال فرض كنيد كه روباتي ساختهايد كه در كنار اين مرد ايستاده است. از روبات انتظار داريد چه عكسالعملي نشان دهد؟ آيا روبات را طوري برنامهريزي ميكنيد كه مرد را از بالاي پل به پايين هل دهد، حتي اگر خود حاضر به انجام چنين كاري نباشيد؟ البته ممكن است روبات، واكنشي نشان دهد كه نتيجه مشابهي در پي داشته باشد. براي مثال با پريدن به پايين، جان مسافران را نجات دهد. راه حلي كه به ذائقه ما انسانها گاهي خوش نميآيد! ترنهاي بدون راننده امروزه در فرودگاهها و و سيستم متروهاي لندن، پاريس و كپنهاك امري عادي است و احتمال دارد كه اين سيستمهاي رايانهاي روزي با چالشي نظيرآنچه كه ذكر شد مواجه شوند.
اما در حال حاضر خطراتي كه انسان را تهديد ميكند، بيشتر از جانب سيستمهايي است كه شبكههاي برق فشار قوي، سيستمهاي مالي و سلاحهاي كشنده را كنترل ميكنند. حوزه جديد اخلاق ماشيني عملا در باب پرسشهايي به كند وكاو ميپردازد كه منطبق با ساخت روباتي سازگار با وجدانيات و اخلاقيات باشد. بنابر اين ارزشهايي كه براي روبات برنامهريزي شده توسط مهندسان و طراحان وارد سيستم رايانهاي او ميشود.
براي برنامهريزي آسان طراحان و مهندسان ميتوانند تمام شرايطي كه سيستم رايانهاي با آن مواجه ميشود را پيشبيني كرده تا بتوانندعكس العمل مناسب را طرح ريزي كنند. ضرورتي ندارد كه روباتها تصميمات اخلاقي و وجداني انسان را عينا بازسازي كند با اين حال توانايي حساسيت به اين مسائل مقياسي براي ارزيابي انجام وظيفه اين كارگزاران مصنوعي اخلاق مدار (AMA ) است.حصول اطمينان از آنكه اين روباتها به راستي در گرفتن تصميمات خويش قابل اعتمادند امري ضروري است در غيراين صورت بايد از گسترش حيطه كار آنها نظير سيستمهاي مربوط به سلاحها و روباتهاي امداد رسان اجتناب كنيم.
امروزه علم اخلاق ماشيني عمدتا از يك سري مباحث فلسفي تشكيل شده كه با تجربيات محدود ابزار وسيستمهاي قادر به تصميمگيري وجداني در هم ميآميزد. با اين حال اين حيطه بسيار مورد توجه فلاسفه قرار گرفته و گستره عظيمياز مباحثات فلسفي را بهوجود آورده است. مباحثات موجود از اين جملهاند:
– روان شناسي اخلاقي روباتها: چگونه يك كارگزار مصنوعي ميتواند درستي و نادرستي، ويژگيهاي اخلاقي و انتخاب بهترين راه مواجه با چالشهاي جديد را شناسايي كند و آن را ارتقا دهد؟
– نقش احساسات: آيا نيازي هست تا احساسات انساني در روباتها نيز عينا شبيهسازي شود تا او بتواند وظايف وجداني و اخلاقي خويش را به درستي انجام دهد؟ چگونه؟ به چه منظوري؟ چه موقع؟ و شايد با نگاهي دقيقتر بتوانيم اين سؤال را اينگونه بيان كنيم: چگونه يك فرد ميتواند اثرات منفي احساسات، گرايشهاي اخلاقي و هوش هيجاني را در هنگام تصميمگيري برهم منطبق سازد ؟
– نقش وجدان: آيا يك ماشين ميتواند داراي وجدان باشد يا درك درستي از آن داشته باشد؟ آيا تجربه همراه با خودشناسي براي يك ماشين كارگزار اخلاق گرا لازم است يا نه ؟
– معياري براي تعيين محدوده اخلاقي كارفرمايان مصنوعي: يك كارفرما چه تواناييهايي نياز دارد تا بتواند مسئوليت وجداني يا تعهد قانوني خود را انجام دهد؟ آيا جامعه بايد حقوقي براي اين كارگزاران كه فرض ميشود در اعمالشان مسئولند، قائل شود ؟
اينها و ديگر سؤالات با توجه به چالشهاي عملي كه شامل ساختن روباتها و ارزيابي آنها در شرايط خاص است در حيطه AMAها قرار ميگيرد و در بخش عملي بدون شك به تجربيات فكري فلسفه نياز پيدا خواهيم كرد. همان طور كه دنيل دنت در سال 1995 ذكركرده است: سازندگان روبات، كار فلسفي انجام ميدهند، نه آنچه خود فكر ميكنند در حال انجام آن هستند در تجربيات فكري فلاسفه، خورشيد هميشه ميدرخشد، انرژي همواره در جريان است و بازيگران سينما و سينماداران همواره دقيقا آنچه را انجام ميدهند كه تئوريهاي فلسفي از آنان خواسته است.
فلاسفه هيچگاه از زاييدههاي ذهني خود متحير نميشوند و اين تحير تنها براي شنوندگان و مخاطبان است و همان طور كه رونالد دو سوسا درخطابه به ياد ماندني خويش ذكر كرده ؛ قسمت اعظم فلسفه، همانند بازي فكري تنيس بدون تور است اما چارچوب فكري شما روبات سازان داراي تور است. با اين حال اين دو از نظر درجه با يكديگر متفاوتند. اثبات افكار اغلب چيزي است كه شما براي آن درتلاشيد.
در ساختن AMA ها بين تئوريهاي فلسفي و تئوريهاي تجربي سامانههاي رايانهاي پل ارتباطي پديدار ميشود و رايانهها آماده بسترسازي و آزمايش تئوريهاي فلسفي در باب تصميمگيري و اخلاق ميشوند.
آلن كرباي
ترجمه – ساناز سرابي زاده
]]>