تجربة “عربة الترام” الأخلاقيّة: لو كان الذكاء الاصطناعي يقود سيّارتك، من سيقرّر أن يدهس؟

لطالما اعتبرت الفلسفة مساحةً للتأمل النظريّ المجرد، حيث تُطرح الأسئلة التي لا تنتظر إجاباتٍ عاجلة، وتُبنى المعضلات الفكرية لاختبار حدود العقل البشريّ بعيداً عن ضغوط الواقع اليوميّ المباشر. ولكن، في قفزةٍ زمنيةٍ لم تتجاوز بضعة عقود، انتقلت إحدى أشهر هذه المعضلات من أروقة الجامعات الهادئة، لتتربع على شاشات البرمجة المعقدة في وادي السيليكون، وتتحول إلى كابوسٍ هندسيٍّ وقانونيٍّ يؤرق مطوري الذكاء الاصطناعيّ في العالم. إنها “معضلة عربة الترام” (The Trolley Problem)، تلك التجربة الذهنية التي صاغتها الفيلسوفة البريطانية “فيليبا فوت” عام 1967، لتصبح اليوم المحكّ الفعليّ والأخطر لمستقبل السيارات ذاتية القيادة. الفكرة في أصلها بسيطةٌ في طرحها، ومرعبةٌ في تبعاتها: ترام فقد مكابحه ويندفع نحو خمسة عمال مقيدين على السكة، وأنت تقف بجوار رافعة تحويل المسار، حيث يمكنك تحويل الترام ليدهس شخصاً واحداً فقط على سكةٍ فرعية؛ فهل تتدخل لتقتل واحداً وتنقذ خمسة، أم تقف مكتوف الأيدي تاركاً القدر يأخذ مجراه؟ هذا السؤال الذي استهلك ملايين الساعات من النقاش الأكاديميّ، لم يعد اليوم ترفاً فكرياً، بل أصبح “كوداً برمجياً” يجب أن يُكتب ويُعتمد ليحدد قرارات الآلة في أجزاء من الألف من الثانية، حين تجد السيارة الذكية نفسها أمام خيارٍ حتميٍّ بين دهس أطفالٍ يقطعون الطريق فجأةً، أو الانحراف والاصطدام بحائطٍ صلبٍ يودي بحياة ركابها.

عندما تنتقل عجلة القيادة من قبضة الإنسان المُحملة بالغرائز وسرعة البديهة والهلع، إلى معالجات السيليكون الباردة التي لا تعرف سوى لغة الأرقام وخوارزميات الاحتمالات، فإننا لا نقوم فقط بأتمتة القيادة، بل نقوم بأتمتة “الأخلاق” نفسها. السائق البشريّ الذي يتفاجأ بعقبةٍ في الطريق يتصرف بدافع الغريزة ورد الفعل الانعكاسيّ (Reflex)، وإذا تسبب في حادثة سير، فإن القانون يتفهم حالة “الذعر” وانعدام القصد الجنائيّ، ويعتبرها مأساةً نتجت عن خطأ بشريّ في لحظة ضعف. أما السيارة ذاتية القيادة، فهي لا تُصاب بالذعر، ولا تمتلك ردود أفعالٍ عشوائية؛ بل هي تقوم بمسح البيئة المحيطة ملايين المرات في الثانية، وتحسب مسافات التوقف وسرعة الاصطدام ومسارات الانحراف المحتملة، ثم تتخذ قراراً محسوباً وواضحاً. هذا يعني أن قرار قتل المارّة أو التضحية بالراكب ليس مجرد حادثٍ عرضيّ، بل هو “قرارٌ مسبق” اتُّخذ في مختبرات البرمجة قبل أشهرٍ أو سنواتٍ من وقوع الحادث الفعليّ. هنا تتصادم الفلسفة مع الهندسة، ونجد أنفسنا مضطرين للإجابة عن سؤالٍ لم نجرؤ يوماً على حسمه: كيف نبرمج الضمير، وما هي المعادلة الرياضية لقيمة الحياة البشرية؟

أتمتة الموت: بين الفلسفة النفعية وخوارزميات الواجب

لترجمة الأخلاق إلى أسطرٍ برمجيةٍ تفهمها الآلة، يجد مهندسو الذكاء الاصطناعي أنفسهم أمام مدرستين فلسفيتين متناحرتين، لا يمكن التوفيق بينهما بسهولة. المدرسة الأولى هي “النفعية” (Utilitarianism)، التي أسسها أمثال جيريمي بنثام وجون ستيوارت ميل، والتي ترى أن الفعل الأخلاقيّ الصحيح هو الذي يحقق أكبر قدرٍ من المنفعة (أو أقل قدرٍ من الضرر) لأكبر عددٍ من الناس. وفقاً لهذه المدرسة، من المنطقيّ جداً والمبرر أخلاقياً للسيارة الذكية أن تنحرف لتصدم شخصاً واحداً (أو حتى تضحي بالسائق) من أجل إنقاذ مجموعةٍ من المشاة، لأن لغة الرياضيات الباردة تقول إن خسارة روحٍ واحدة أفضل من خسارة خمسة. هذه النظرة تبدو برمجياً الأكثر قابليةً للتطبيق والأسهل في تحويلها إلى خوارزميات تحسين (Optimization Algorithms)، حيث يتم إعطاء كل كائن بشريّ “قيمة نقطية”، وتقوم السيارة باختيار المسار الذي يسجل أقل عددٍ من الخسائر المادية والبشرية معاً.

ولكن، سرعان ما تصطدم هذه البرودة النفعية بجدار المدرسة الفلسفية “الواجبية” (Deontology)، التي يتزعمها إيمانويل كانط، والتي ترفض تماماً مبدأ تحويل الإنسان إلى مجرد “وسيلة” أو رقمٍ في معادلة. بالنسبة لكانط، لا يمكنك ارتكاب جريمة قتلٍ متعمدة (تحويل مسار السيارة عمداً لدهس شخص بريء على الرصيف) لإنقاذ أشخاص آخرين؛ لأن الفعل بحد ذاته غير أخلاقيّ ولا يمكن تبريره بنتائجه. علاوةً على ذلك، تبرز معضلةٌ استهلاكيةٌ مرعبة: إذا علم المشتري أن سيارته الباهظة الثمن تمتلك كوداً برمجياً مستعداً للتضحية به وبعائلته من أجل إنقاذ مشاةٍ أخطأوا بقطع الطريق في غير المكان المخصص، فهل سيشتري هذه السيارة أصلاً؟ لقد أظهرت استطلاعات الرأي تناقضاً بشرياً صارخاً؛ فالناس يؤيدون نظرياً أن تُبرمج السيارات لإنقاذ أكبر عددٍ من الأرواح (كمبدأ عام)، لكنهم في الوقت ذاته يصرحون بأنهم لن يشتروا سيارةً لا تضع سلامتهم هم وعائلاتهم كأولويةٍ قصوى وفوق كل اعتبار، مما يضع الشركات المصنعة في مأزقٍ رأسماليٍّ وأخلاقيٍّ خانق.

“الآلة الأخلاقية”: هل نمتلك جغرافيا للضمير الإنساني؟

في محاولةٍ لفهم كيفية استجابة البشر لهذه السيناريوهات المعقدة لو كانوا هم من يضعون القواعد للآلات، أطلق معهد ماساتشوستس للتكنولوجيا (MIT) تجربةً عالميةً ضخمة عُرفت باسم “الآلة الأخلاقية” (Moral Machine). جمعت هذه المنصة التفاعلية ملايين القرارات من مستخدمين في أكثر من 200 دولة، ووضعتهم أمام سيناريوهاتٍ حتميةٍ تفرض عليهم الاختيار بين من يعيش ومن يموت في حوادث سيارات ذاتية القيادة متخيلة. هل تنقذ طفلاً أم رجلاً عجوزاً؟ طبيباً أم لصاً؟ ذكراً أم أنثى؟ حيواناً أليفاً أم إنساناً متشرداً؟ لم تكن المفاجأة في صعوبة الاختيارات، بل في الاختلافات الثقافية الجغرافية العميقة التي فضحت عدم وجود “كود أخلاقيّ عالميّ” يمكن برمجته في سيارةٍ تُباع في كل مكان. لقد أثبتت التجربة أن الأخلاق ليست معادلةً كونيةً ثابتة، بل هي نسيجٌ معقدٌ من العادات والدين والموروثات الاجتماعية التي تتغير بمجرد عبورك للحدود.

لتبسيط هذه التباينات، صنف الباحثون العالم إلى ثلاث كتلٍ ثقافيةٍ كبرى، وجاءت تفضيلاتهم الأخلاقية متباينةً بشكلٍ صادم:

الكتلة الثقافية / الجغرافيةالفلسفة الأخلاقية السائدة في التجربةالتفضيلات الواضحة في خيارات النجاة
الدول الغربية (أمريكا وأوروبا)نزعة فردية ونفعية واضحةتفضيل صارم لإنقاذ الأطفال والشباب على حساب كبار السن، وتفضيل إنقاذ العدد الأكبر دائمًا.
الدول الشرقية (آسيا والشرق الأوسط)احترام الهرمية الاجتماعية والسنتفضيل ملحوظ لإنقاذ كبار السن احتراماً لرمزيتهم، وميل أقل للتضحية بالسائق من أجل المشاة المخطئين.
الدول الجنوبية (أمريكا اللاتينية وأفريقيا)نزعة عاطفية واجتماعيةتفضيل لإنقاذ الإناث على الذكور، والأشخاص ذوي المكانة الاجتماعية العالية والمظهر الجيد على غيرهم.

هذا الجدول يضع صُناع السيارات العالمية أمام جدارٍ مسدود. إذا أرادت شركة مثل “تيسلا” أو “مرسيدس” إطلاق سيارة ذاتية القيادة للأسواق العالمية، فهل يجب عليها إصدار تحديثاتٍ برمجيةٍ للأخلاق (Ethical Updates) تتغير بناءً على الـ GPS؟ هل تتصرف السيارة بنفعيةٍ بحتة في شوارع نيويورك لتدهس عجوزاً وتنقذ شاباً، ثم تتغير برمجة ذات السيارة فور دخولها شوارع طوكيو لتنحرف وتضحي بالشاب احتراماً لحياة العجوز؟ إن فكرة تصميم “أخلاقٍ قابلة للتخصيص” (Customizable Morality) تبدو عبثيةً وتنسف فكرة العدالة من جذورها، مما يؤكد أن التكنولوجيا تستطيع حل المشاكل الهندسية ببراعة، لكنها تعجز تماماً عن حل التناقضات الثقافية البشرية المتجذرة منذ آلاف السنين.

سبق الإصرار البرمجي: من يتحمل خطيئة الخوارزمية؟

بعيداً عن الجدل الثقافيّ، نجد أنفسنا أمام معضلةٍ قانونيةٍ لم تعهدها المحاكم في تاريخ البشرية: تحديد هوية القاتل حين يكون الفاعل آلة. في حوادث السير التقليدية، يتم تحديد المسؤولية بناءً على الإهمال، السرعة، أو مخالفة القوانين من قبل السائق؛ وهناك دائماً “فاعلٌ ماديّ” يحمل وعياً وإرادةً يمكن محاسبته. لكن عندما تقوم سيارةٌ ذكية، ببرمجةٍ سليمة تماماً، باتخاذ قرارٍ مدروس بالتضحية بأحد المشاة لتفادي حافلةٍ مدرسيةٍ انحرفت فجأة، فمن الذي نرسله إلى السجن؟ هل نحاكم المبرمج الذي كتب الخوارزمية قبل سنوات في مقر الشركة، رغم أنه لم يتنبأ بتفاصيل هذا الحادث المعين؟ أم نحاكم الشركة المصنعة التي وافقت على سياسة التسعير الأخلاقي للآلة؟ أم نحاكم السائق الذي كان يجلس في المقعد الخلفي يقرأ كتاباً واثقاً من وعود الشركة بالسلامة التامة؟

إن القانون الجنائيّ التقليديّ يعتمد بشكلٍ أساسيٍّ على مفهوم (Mens Rea) أو “القصد الجنائيّ”، وهو ما تستحيل إثباته على خوارزميةٍ تتكون من أصفارٍ وآحاد. الذكاء الاصطناعي لا يمتلك “نيةً” سيئة أو حسنة، بل ينفذ أشجار قراراتٍ (Decision Trees) معقدة بناءً على بيانات الاستشعار اللحظية. ولتجاوز هذه الفجوة العميقة، بدأ بعض فلاسفة القانون باقتراح نماذج قانونيةٍ جديدة وثورية، مثل منح أنظمة الذكاء الاصطناعي المستقلة “شخصيةً قانونيةً إلكترونية” (Electronic Personhood)، تشبه إلى حدٍ ما الشخصية الاعتبارية للشركات؛ بحيث يتم تعويض الضحايا من صناديق تأمينٍ ضخمةٍ تُموَّل من صُناع هذه السيارات، دون السعي لإيجاد “مذنبٍ أخلاقيّ” بالمعنى الكلاسيكيّ. هذا التوجه يحول الموت على الطُرقات من جريمةٍ أو خطأ فرديٍّ يستوجب العقاب، إلى مجرد “ضريبةٍ إحصائيةٍ” حتميةٍ يدفعها المجتمع ككل مقابل رفاهية التكنولوجيا المتطورة.

في النهاية، ما تخبرنا به معضلة “عربة الترام” في عصر الذكاء الاصطناعيّ هو أقلُّ ارتباطاً بذكاء الآلات، وأكثر كشفاً لهشاشة قناعاتنا الإنسانية. نحن نطلب من خوارزميات الكمبيوتر أن تتصرف بكمالٍ أخلاقيٍّ وحكمةٍ ملائكية لم نستطع نحن البشر أن نتفق عليها عبر آلاف السنين من تاريخنا الدامي. إننا لا نسعى حقاً إلى جعل الآلات “أخلاقية”، بل نحاول باستماتةٍ أن نُلقي بعبء اتخاذ القرارات المرعبة والمستحيلة على كاهل الآلة، لكي نغسل أيدينا من دماء الاختيارات الصعبة. طالما بقيت الحياة البشرية عرضةً للصدف القاتلة والتقاطعات المأساوية، ستبقى الآلة مجرد مرآةٍ باردة، تعكس صورتنا الأخلاقية المشوهة، وتذكرنا بأن التكنولوجيا مهما بلغت من تطور، لا يمكنها أن تمنحنا إجابةً سهلةً لسؤالٍ يتعلق بمعنى الحياة وقيمتها العميقة.

المراجع والمصادر التأسيسية:

  • فوت، فيليبا (1967). “مشكلة الإجهاض وعقيدة التأثير المزدوج”. مجلة أكسفورد للفلسفة (The Problem of Abortion and the Doctrine of the Double Effect).
  • عواد، إياد وآخرون (2018). تجربة “الآلة الأخلاقية”: كيف تتباين الأخلاق حول العالم. دورية “نيتشر” (Nature) العلمية، معهد ماساتشوستس للتكنولوجيا (MIT).
  • بنثام، جيريمي (1789). “مقدمة في مبادئ الأخلاق والتشريع” (نظريات المنفعة العامة وتطبيقها الخوارزمي).
  • كانط، إيمانويل (1785). “تأسيس ميتافيزيقا الأخلاق” (مفهوم الضرورة الحتمية ورفض تبرير الوسيلة بالغاية).
  • لين، باتريك، وأبني، كيث، وبيكي، جورج أ. (2014). “أخلاقيات الروبوتات: العواقب الأخلاقية والاجتماعية للروبوتات” (Robot Ethics: The Ethical and Social Implications of Robotics). مطبعة معهد ماساتشوستس للتكنولوجيا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Scroll to Top