جنرال لواء

يتعمق معهد ماساتشوستس للتكنولوجيا في أخلاقيات برمجة المركبات المستقلة في المسح العالمي

يتعمق معهد ماساتشوستس للتكنولوجيا في أخلاقيات برمجة المركبات المستقلة في المسح العالمي


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

مع اقتراب السيارات ذاتية القيادة التي تضرب شوارع المدينة من الواقع ، تثار الأسئلة حول أخلاقيات برمجة الآلات المستقلة مرارًا وتكرارًا. أظهر استطلاع جديد أجراه معهد ماساتشوستس للتكنولوجيا أن هناك بعض الاتجاهات العالمية حول أخلاقيات المركبات ذاتية القيادة ، بالإضافة إلى بعض الاختلافات المحلية المثيرة للاهتمام.

شارك في الاستطلاع أكثر من 2 مليون مشارك عبر الإنترنت من أكثر من 200 دولة شاركوا جميعًا في "مشكلة العربة" الكلاسيكية. مشكلة العربة هي سيناريو يصف عربة هاربة متجهة نحو مجموعة من الأشخاص ، ولديك القدرة على سحب مفتاح لتحويل العربة بحيث تصطدم بشخص واحد فقط. ماذا كنت ستفعل؟

إعادة تصور مشكلة الترولي للمركبات ذاتية القيادة

في حالة المركبات ذاتية القيادة ، يتم تأطير السؤال للنظر في ما إذا كان يجب أن تنحرف السيارة إلى عدد صغير من المتفرجين أو مجموعة أكبر بالإضافة إلى الاحتمالات الأخرى ذات الصلة.

يقول إدموند عوض ، باحث ما بعد الدكتوراة في MIT Media Lab والمؤلف الرئيسي لورقة بحثية جديدة تحدد نتائج المشروع: "تحاول الدراسة أساسًا فهم أنواع القرارات الأخلاقية التي قد يتعين على السيارات ذاتية القيادة اللجوء إليها". "نحن لا نعرف حتى الآن كيف ينبغي أن يفعلوا ذلك."

ومع ذلك ، يضيف عوض: "وجدنا أن هناك ثلاثة عناصر يبدو أن الناس يوافقون عليها أكثر من غيرها". وجدت الدراسة في جميع أنحاء العالم تقريبًا أن الناس يفضلون إنقاذ حياة البشر على الحيوانات ، وحياة الكثيرين على حساب عدد قليل منهم ، وحياة الصغار على كبار السن.

يلاحظ عوض أن "التفضيلات الرئيسية كانت إلى حد ما متفق عليها عالمياً". "لكن درجة موافقتهم مع هذا أو عدم موافقتهم تختلف باختلاف المجموعات أو البلدان."

يجب أن تؤخذ البرمجة المتحيزة على محمل الجد

ظهرت مشكلة البرمجة المتحيزة مرارًا وتكرارًا منذ أن تم إعطاء الخوارزميات المسؤولية عن كل شيء بدءًا من التغريد إلى التوظيف. على سبيل المثال ، تخلت أمازون عن برنامج مدعوم بالذكاء الاصطناعي كانت تستخدمه لتوظيف موظفين جدد لأنها اكتشفت أن البرنامج كان يفضل الرجال في الوظائف الفنية.

كان البرنامج الذي يقرأ الآلاف والآلاف من السير الذاتية قد علم نفسه كيف يفضل الرجال على النساء ، ربما لأنه كان يرى المزيد من السير الذاتية من الرجال التي تطابق المعايير ، وليس لأن السير الذاتية للنساء لم تكن جيدة ، كان هناك عدد أقل منها. في قصة مماثلة ، اضطرت Microsoft إلى سحب chatbot Tay من Twitter بعد أن بدأت في التغريد بتعليقات عنصرية ومتعصبة بعد 24 ساعة فقط من إطلاقها.

وُصفت بأنها تجربة في "فهم المحادثة" ، وكان من المتوقع أن يصبح تاي أكثر ذكاءً وأكثر دردشة كلما تفاعل معه. ومع ذلك ، بدأ مستخدمو Twitter في التغريد بأشياء حقيرة في Tay and well ، حيث تتعلم الروبوتات مما شاهدته وبدأت في الإرسال تلك المشاعر في العالم.

لا تتطلب أي من هذه القصص رنين أجراس الإنذار ، بل يتطلب فهمًا واعيًا للتأثير الذي يمكن أن تحدثه البرمجة وأنه يجب اتباع نهج تفاهم واسع في جميع تقنيات صنع القرار.


شاهد الفيديو: MIT Campus Tour (يوليو 2022).


تعليقات:

  1. Mikko

    أعتذر عن التدخل ... يمكنني أن أجد طريقي لحل هذا السؤال. يمكن للمرء أن يناقش.

  2. Whitman

    أؤكد. أنضم إلى كل ما سبق. دعونا نحاول مناقشة الأمر.

  3. Aescford

    لذلك يحدث. أدخل سنناقش هذا السؤال. هنا أو في PM.



اكتب رسالة