روباتها تصمیم اخلاقی می گیرند

مديران موفق، در شرايط اقتصادي دشوار چه مي‌كنند؟
ژوئن 1, 2012
تفاوت مدیریت در ایران و اروپا
ژوئن 1, 2012

 

ورود گسترده سامانه‌هاي رايانه‌اي به زندگاني روزانه انسان در عصر حاضر، پاره‌اي از مسائل گوناگون را در ارتباط با آن دامن زده است.

مسائلي از اين قبيل كه آيا از يك سامانه رايانه‌اي مي‌توان همان كاركردهاي ذهن انسان را متوقع بود؟ اگر پاسخ آري است، آيا تمام حقوقي كه به انسان تعلق مي‌گيرد؛ بر آن نيز بار مي‌شود؟ آيا ماشين احساس دارد؟ آيا وجدان دارد؟ و آيا بايد اخلاقي عمل كند؟ غيراخلاقي عمل كردن سامانه‌هاي رايانه‌اي از قبيل آدمك (روبات)ها به چه معناست؟ نقش طراحان و برنامه‌ريزان در اينجا چه مي‌شود؟ آيا ما محق هستيم هر ارزش و داده اخلاقي‌اي را در سامانه‌هاي آنها بگنجانيم؟و… مطلب حاضر با نگاه به روند رو به افزايش سامانه‌هاي آدمكي(روباتي) در زندگي انسان معاصر مي‌كوشد تا به تبيين و بررسي اين پرسش‌ها بپردازد.

رايانه درتمام زواياي زندگي مدرن امروزي از سامانه‌هاي خانگي گرفته كه افزار‌هايي براي سرگرمي، ارتباط و جست‌وجو هستند تا سامانه‌هاي مالي كه ميليون‌ها معامله را در  بازارهاي جهاني، روزانه انجام مي‌دهند،  نقش برجسته‌اي ايفا مي‌كند و در اين ميان  سامانه‌هاي روباتيك نيز در راه هستند.

آنها در سامانه‌هاي كارخانه‌اي و خدمات‌رساني‌ بيمارستاني،  راهنماي موزه،  اسباب بازي‌ها و حتي سلاح‌هاي مرگبار مورد استفاده در جنگ عراق و افغانستان ظاهر شده‌اند و به‌زودي ما شاهد خدمات روباتيك در منزل و براي سالمندان نيز خواهيم بود.

مهندسان هميشه به امنيت سامانه‌هايي كه طراحي نموده  توجه خاصي مبذول داشته‌اند با اين حال طراحان سيستم‌هاي رايانه‌اي همواره قادر  نيستند تاواكنش‌ها را در شرايط و ورودي‌هاي جديد پيش‌بيني كنند، بنابراين همان طور كه تكنولوژي پيچيده و پيچيده‌تر مي‌شود و نسل جديد روبات‌هاي متفكر پا به عرصه ظهور مي‌گذارند امنيت بيش ازپيش مورد توجه قرار مي‌گيرد.

نتيجتا فلاسفه و مهندسان  آستين‌ها را بالا زده تا سامانه‌هاي رايانه‌اي و روبات‌هايي را طراحي كنند كه بتوانند استدلال‌هاي اخلاقي و وجداني داشته باشند. گسترش روبات‌هاي مستقل و متفكر كه جنبه‌هاي مثبت و منفي زيادي در زندگي انسان دارد،  مبحث جديدي را مطرح مي‌سازد كه از آن با عناوين علم اخلاق ماشيني،  هوش مصنوعي و علم اخلاق روباتيك ياد مي‌كنند. اين حيطه از فلسفه نوين توجه خود را  روي ساخت روبات‌هايي كه قادرند تا تصميمات اخلاقي و عقلاني بگيرند، معطوف  ساخته است.طراحي سيستم‌ها و روبات‌هايي كه به انسان ضرر نمي‌رسانند خود چالشي علمي‌و عملي را پيش رو دارد.

علم اخلاق ماشيني در جست‌وجوي يافتن پاسخي براي مجهولات زير است: آيا ماشين‌ها ابزاري هستند كه در مقام كارگزار قادرند تا تصميماتي مبني بر اخلاقيات بگيرند؟ اگر پاسخ مثبت است چرا؟ و اگرنه باز به چه علت؟آيا تصميمات اخلاقي و وجداني، مي‌تواند ازقاعده‌هاي رايانه‌اي و روباتيك پيروي كند؟ اگر بله، چرا؟ آيا انسان به راستي خواهان آن است كه ماشين‌ها قادر به تصميم‌گيري شوند؟ چه موقع؟در چه شرايطي؟چه نوع تصميمات اخلاقي بايد عملي شود  يا به مرحله اجرا درآيد؟ همانند كثرت احتمالات رايانه‌اي،  پاسخ به اين سؤالات در فلسفه نيز جاي تفكر و تعمق بسيار دارد.

نظام اخلاق ماشيني  از طريق ارزش‌هايي كه در سيستم آن طراحي و نصب گرديده معين مي‌شود. ابتدا ماشين‌هاي پيچيده، حيطه عمل محدودي داشتند تا طراحان بتوانند  تمام موقعيت‌هايي كه ماشين با آن مواجه مي‌شود را پيش‌بيني كرده و در فضاي عمل  محدود طراحي شده عمل كنند. با اين حال با پيشرفت تكنولوژي و پديدار شدن سيستم‌هاي نوظهور روباتيك طراحان ومهندسان ديگر قادر به پيش‌بيني دقيق در برابر ورودي‌هاي جديد نيستند،  بنا براين ماشين‌ها نياز به نوعي اخلاقيات كارآمد دارند،  بدان معني كه آنها مجموعه‌اي از ملاحظات اخلاقي را براي انتخاب رشته عمل خود پردازش مي‌كنند.

اينكه ماشين قاعدتا مي‌تواند يك كارفرماي مصنوعي متعهد و خودآگاه با هوشي همانند انسان باشد، موضوعي است كه تئوري پردازان با آن مخالف هستند. با اين وجود اين مباحث در حال حاضر عكس العمل بسياري از فيلسوفان،  قانون‌گذاران و آينده‌شناسان را برانگيخته است. مباحثي نظير آنكه چه موقع كارگزاران روباتيك بايد مسئوليت اعمالشان را به‌عهده بگيرند و آيا آنها مستحق داشتن اموال شخصي و حقوق مدني‌اند يا نه،  ما را در فهم حيطه عمل كارگزار مصنوعي و مسئوليت‌هاي قانوني او ياري مي‌دهد.

چالش‌هاي ماشين اخلاق گرا

اگر ترن به مسير فعلي خود ادامه دهد 5نفر از خدمه را در انتهاي مسير خواهد كشت.
با اين حال فردي در كنار مركز كنترل ايستاده كه مي‌تواند ترن را به مسير ديگري هدايت كند. متأسفانه با تغيير مسير ترن نيز تنها يك نفر كشته خواهد شد. اگر شما مسئول كنترل ترن بوديد چه مي‌كرديد ؟ آيا رايانه و روبات مي‌تواند ترن را به مسيرديگري هدايت كند ؟ بيشتر مردم در اين شرايط تصميم مي‌گيرند تا ترن را از ريلي به ريل ديگر تغيير مسير داده تا جان 5 نفر را نجات دهند، حتي اگر جان فرد بي‌گناهي به خطر بيفتد.

در وضعيتي متفاوت هيچ تغيير مسيري امكان ندارد. شما در كنار پلي در حضور مردي درشت هيكل ايستاده‌ايد و مي‌توانيد با هل دادن مرد به پايين روي ريل قطار جان  5نفر را نجات دهيد. در اين شرايط تنها درصد اندكي از مردم مي‌گويند كه مرد را به  پايين پرت خواهند كرد.

با وارد شدن روبات به اين سناريو احتمالات جالب توجه و شايد نگران كننده‌اي فرض مي‌شود. براي مثال فرض كنيد كه روباتي ساخته‌ايد كه در كنار اين مرد ايستاده است. از روبات انتظار داريد چه عكس‌العملي نشان دهد؟ آيا روبات را طوري برنامه‌ريزي مي‌كنيد كه مرد را  از بالاي پل به پايين هل دهد، حتي اگر خود حاضر به انجام چنين كاري نباشيد؟ البته ممكن است روبات، واكنشي نشان دهد كه نتيجه مشابهي در پي  داشته باشد. براي مثال با پريدن به پايين، جان مسافران را نجات دهد. راه حلي كه به ذائقه ما انسان‌ها گاهي خوش نمي‌آيد! ترن‌هاي بدون راننده امروزه در فرودگاه‌ها و و سيستم متروهاي لندن،  پاريس و كپنهاك امري عادي است و احتمال دارد كه اين سيستم‌هاي رايانه‌اي روزي با چالشي نظيرآنچه كه ذكر شد مواجه شوند.

اما در حال حاضر خطراتي كه انسان را تهديد مي‌كند، بيشتر از جانب سيستم‌هايي است كه شبكه‌هاي برق فشار قوي،  سيستم‌هاي مالي و سلاح‌هاي كشنده را كنترل مي‌كنند. حوزه جديد اخلاق ماشيني عملا در باب پرسش‌هايي به كند وكاو مي‌پردازد كه منطبق با ساخت روباتي سازگار با وجدانيات و اخلاقيات باشد. بنابر اين ارزش‌هايي  كه براي روبات برنامه‌ريزي شده توسط مهندسان و طراحان وارد سيستم رايانه‌اي او مي‌شود.

براي برنامه‌ريزي آسان طراحان و مهندسان مي‌توانند تمام شرايطي كه سيستم رايانه‌اي با آن مواجه مي‌شود را پيش‌بيني كرده تا بتوانندعكس العمل مناسب را طرح ريزي كنند. ضرورتي ندارد كه روبات‌ها تصميمات اخلاقي و وجداني انسان را عينا بازسازي كند با اين حال توانايي حساسيت به اين مسائل مقياسي براي  ارزيابي انجام وظيفه اين كارگزاران مصنوعي اخلاق مدار (AMA )  است.حصول اطمينان از آنكه اين روبات‌ها به راستي در گرفتن تصميمات خويش قابل  اعتمادند امري ضروري است در غيراين صورت بايد از گسترش حيطه كار آنها نظير سيستم‌هاي مربوط به سلاح‌ها و روبات‌هاي امداد رسان اجتناب كنيم.

امروزه علم اخلاق ماشيني عمدتا از يك سري مباحث فلسفي تشكيل شده كه با  تجربيات محدود ابزار وسيستم‌هاي قادر به تصميم‌گيري وجداني در هم مي‌آميزد. با اين حال اين حيطه بسيار مورد توجه فلاسفه قرار گرفته و گستره عظيمي‌از مباحثات فلسفي را به‌وجود آورده است.  مباحثات موجود از اين جمله‌اند:

–  روان شناسي اخلاقي روبات‌ها: چگونه يك كارگزار مصنوعي مي‌تواند درستي و نادرستي،  ويژگي‌هاي اخلاقي و انتخاب بهترين راه مواجه با چالش‌هاي جديد را شناسايي كند و آن را ارتقا دهد؟

–  نقش احساسات: آيا نيازي هست تا احساسات انساني در روبات‌ها نيز عينا شبيه‌سازي‌ شود تا او بتواند وظايف وجداني و اخلاقي خويش را به درستي انجام دهد؟ چگونه؟ به چه منظوري؟ چه موقع؟ و شايد با نگاهي دقيق‌تر بتوانيم اين سؤال را اينگونه  بيان كنيم: چگونه يك فرد مي‌تواند اثرات منفي احساسات،  گرايش‌هاي اخلاقي و هوش هيجاني را در هنگام تصميم‌گيري برهم منطبق سازد ؟

–  نقش وجدان: آيا يك ماشين مي‌تواند داراي وجدان باشد يا درك درستي از آن داشته باشد؟ آيا تجربه همراه با خودشناسي براي يك ماشين كارگزار اخلاق گرا لازم است يا نه ؟
–  معياري براي تعيين محدوده اخلاقي كارفرمايان مصنوعي: يك كارفرما چه توانايي‌هايي نياز دارد تا بتواند مسئوليت وجداني يا تعهد قانوني خود را انجام دهد؟ آيا جامعه بايد حقوقي براي اين كارگزاران كه فرض مي‌شود در اعمالشان مسئولند،  قائل شود ؟

اين‌ها و ديگر سؤالات با توجه به چالش‌هاي عملي كه شامل ساختن روبات‌ها و ارزيابي آنها در شرايط خاص است در حيطه AMA‌ها قرار مي‌گيرد و در بخش عملي بدون شك به تجربيات فكري فلسفه نياز پيدا خواهيم كرد. همان طور كه دنيل دنت در سال 1995 ذكركرده است: سازندگان روبات، كار فلسفي انجام مي‌دهند،  نه آنچه خود فكر مي‌كنند در حال انجام آن  هستند در تجربيات فكري فلاسفه، خورشيد هميشه مي‌درخشد،  انرژي همواره در جريان است و بازيگران سينما و سينماداران همواره دقيقا آنچه را انجام مي‌دهند كه تئوري‌هاي فلسفي از آنان خواسته است.

فلاسفه هيچ‌گاه از زاييده‌هاي ذهني خود متحير نمي‌شوند و اين تحير تنها براي شنوندگان و مخاطبان است و همان طور كه  رونالد دو سوسا درخطابه  به ياد ماندني خويش ذكر كرده ؛ قسمت اعظم فلسفه، همانند  بازي فكري تنيس بدون تور است اما چارچوب فكري شما روبات سازان داراي تور است. با  اين حال اين دو از نظر درجه با يكديگر متفاوتند. اثبات افكار اغلب چيزي است كه شما براي آن درتلاشيد.

در ساختن AMA ها بين تئوري‌هاي فلسفي و تئوري‌هاي تجربي سامانه‌هاي رايانه‌اي پل ارتباطي پديدار مي‌شود و رايانه‌ها آماده بسترسازي و آزمايش تئوري‌هاي فلسفي در باب تصميم‌گيري و اخلاق مي‌شوند.

آلن كرباي

ترجمه – ساناز سرابي زاده

]]>

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *