آلات سيئة السلوك: أخلاقيات الذكاء الصناعي
يبدأ توبي والش كتابه «آلات سيئة السلوك» بتوضيح أن «الذكاء الصناعي في الواقع ليس روبوتاً واعياً (...) ولليوم، لا يمكننا بناء آلات تضاهي ذكاء طفل بعمر السنتين (...) وتؤدي الحواسيب المبرمجة مهام محدودة ومركزة» (ص.1). والذكاء الصناعي مثل آلة صنع القهوة لا يملك أخلاقيات. ومع ذلك، كلّما طرح أحد سؤالاً على سيري (Siri) - مساعد أبل الافتراضي - فإنه يستخدم الذكاء الصناعي. وفي الوقت نفسه، يعتمد الذكاء الصناعي على «خوارزميات التعلّم الآلي التي (يمكنها أيضاً على سبيل المثال) التنبؤ بالمجرمين الذين سيعاودون ارتكاب الجرائم» (ص.2)، وهو ما يمثّل إشكالية بالنسبة إلى والش.
يرى والش بحقّ أن هناك «سوءَ فهم شائع (...) مفاده أنّ الذكاء الصناعي شيء واحد. لكن الذكاء الصناعي اليوم حشد تكنولوجيات مختلفة، شأنه شأن ذكائنا الذي هو عبارة عن مجموعة من الفروق». والمدهش، بعد عقود من البحث في مجال الذكاء الصناعي، أنّ والش يعترف صراحة وبحقّ بأننا «لم نحرز أي تقدم لافت في بناء ذكاء عام جامع يمكنه أن يتصدى لطيف واسع من المشكلات» (ص.3).
مع ذلك، فإن للذكاء الصناعي تأثيره في المجتمع. ويشدِّد المؤلِّف أننا « في العام 2016 دخلنا إلى حقل ألغام سياسي. أولاً، مع الاستفتاء على خروج بريطانيا من الاتحاد الأوروبي (البريكست)، وثمّ مع انتخاب دونالد ترامب في الولايات المتحدة. والآن، غالباً ما تعامل الآلات البشر ميكانيكياً وتتحكّم بهم سياسياً». والأسوأ من ذلك أنه «يمكن استخدام فايسبوك لتغيير الرأي العام في أي حملة سياسية».(ص.11)
عند كتابة خوارزميّة للذكاء الصناعي، فإن أولئك الذين يكتبون هذه الرموز غالباً ما ينضوون تحت جناح رأس المال المخاطر الذي يحوّل الذكاء الصناعي إلى أرباح
ليت الأمر وقف عند فايسبوك. ففي لحظة معيّنة، وبتواطؤ مع كامبريدج أناليتيكا(Cambridge Analytica)، يشير والش إلى واحدة من المشاكل الأخلاقية الجوهرية في الذكاء الصناعي، وهي «الحقيقة الخطيرة التي يغفلها المعلنون والمستطلعون السياسيون. إذ يمكن اختراق العقول البشرية بسهولة. وأدوات الذكاء الصناعي، شأنها شأن التعلّم الآلي، تطرح هذه المشكلة بصورة حادة ومتطرفة. يمكننا جمع البيانات عن البشر وتغيير آرائهم على نطاق واسع وبسرعة وبأقل التكلفة» (ص.11).
بيد أنّه عند كتابة خوارزميّة للذكاء الصناعي، فإن أولئك الذين يكتبون هذه الرموز غالباً ما ينضوون تحت جناح رأس المال المخاطر الذي يحوّل الذكاء الصناعي إلى أرباح. ويمكن تقسيم شركات رأس المال المخاطر هذه إلى «ثلاثة أجزاء متساوية الحجم تقريباً: وادي السيليكون (الذي تمدّد الآن إلى منطقة خليج سان فرانسيسكو)، وبقية الولايات المتحدة، وبقية العالم» (ص.21). بالنسبة إلى كثير من هؤلاء «الرجال البيض مفرطي التأنّق» العاملين في مجال الذكاء الصناعي، تقدّم الفيلسوفة آين راند خلفية شبه عقلانية. ويلاحظ والش أن «جميع قرّاء روايتها Atlas Shrugged لاسيما بين جماعة التكنولوجيا، يرتبطون بفلسفة القبيلة الموصوفة في هذا الكتاب الديستوبي». يعتقد مبرمجو الذكاء الصناعي حقًا أن «غايتنا الأخلاقية هي اتّباع مصلحتنا الذاتية الفردية» (ص.23).
الشركات هي التي سيطرت في مرحلة معينة. ونرى اليوم، على سبيل المثال، أنّ «حجم مبيعات شركة أبل أكبر من الناتج المحلي الإجمالي للبرتغال». والأسوأ أنّ معظم شركات التكنولوجيا الكبرى تجلس على جبال من الأموال
نتيجة اتّباع هذه الأيديولوجية، صار كثيرٌ من «الرجال مفرطي التأنّق» العاملين في مجال الذكاء الصناعي «ليبرتاريين تكنولوجيين يرغبون في تقويض القوانين [ويعتقدون أنّ] الحل الأفضل هو سوق حرة». وظهرت أيديولوجيا راند، داخل الذكاء الصناعي، مع كتاب جون بيري بارلو في العام 1996 Declaration of the Independence of Cyberspace (إعلان استقلال الفضاء السيبراني) الذي يعد ربما «الإنجيل الأساسي لليبرتارية التكنولوجية» (ص.25).
لكن الشركات هي التي سيطرت في مرحلة معينة. ونرى اليوم، على سبيل المثال، أنّ «حجم مبيعات شركة أبل أكبر من الناتج المحلي الإجمالي للبرتغال». والأسوأ أنّ معظم شركات التكنولوجيا الكبرى تجلس على جبال من الأموال. وتشير التقديرات إلى أن لدى الشركات الأميركية ما يزيد عن تريليون دولار من الأرباح مودعة في حسابات خارجية (ص.39) - وهذه كلمة لطيفة لوصف الملاذات الضريبية، وهي طريقة غير أخلاقية ومشبوهة عن مخطّطات التهرّب الضريبي.
إضافة إلى الجانب شبه الإجرامي لشركات التكنولوجيا الكبرى، لا يشعر والش بالقلق إزاء الآلات فائقة الذكاء التي تفوق البشر وتتجاوزهم. ويشير إلى أنّ كثيراً من «الذين يعملون في مجال الذكاء الصناعي، ليسوا قلقين كثيراً بشأن الآلات فائقة الذكاء. لكن الفيلسوف نيك بوستروم يخشى أن يشكّل الذكاء الفائق تهديداً وجودياً لوجود البشرية المتواصل. لنفترض أننا نريد القضاء على السرطان، فإن الذكاء الصناعي قد يقرّر ما العمل ببساطة: لا أحتاج سوى التخلّص من جميع مضيفات السرطان. ومن ثم يشرع بقتل كلّ ما هو حيّ!» (ص.43).
اللافت أننا نجد أيضاً «المبادئ الأخلاقية لوزارة الدفاع الأميركية في استخدام الذكاء الصناعي» هي التي أسقطت قنبلتين ذريتين، وشاركت في حربي كوريا وفيتنام، وأدارت سجن أبو غريب في أثناء حرب العراق
باختصار، أدّى تسويق الشركات الذكي وشديد التلاعب إلى شلّ استقلاليه الكثير من العملاء بجعل البشر مدمنين على التبغ (بدايةً) والمنصات الإلكترونية (لاحقاً). لكن بالنسبة إلى الذكاء الصناعي، يبقى استقلال البشر قضية بالغة الخطورة. ويحاجج والش إنّ «الاستقلالية […] هي مشكلة جديدة تماماً. لم نشهد قط علي آلات قادرة على اتخاذ القرارات باستقلالية عن أسيادها البشر (ص.61). وهو يُلْمِحُ بهذا إلى «معضلة عربة الترام» أو «علم عربة الترام» كما يسميها (ص.78).
يقود هذا والش إلى الآلة الأخلاقية لمعهد ماساتشوستس للتكنولوجيا التي تعاني من مشاكل أخلاقية هي ذاتها. يطلب منك موقع الآلة التابع لمعهد ماساتشوستس للتكنولوجيا أن تصوّت على «قضايا أخلاقية». لكن والش يرى أنّ التصويت على الأخلاقيات هو قضية مريبة محفوفة بالمخاطر، ويقول: «نحن البشر غالباً ما نقول شيئاً ونفعل شيئاً آخر». قد نقول إننا نريد إنقاص وزننا، لكنّنا نواصل التهام طبق مليء بالكعك اللذيذ المغطّى بالكريما» (ص.83). وثمّة مشكلة أخرى أيضاً. بخلاف التصويت، فإن «الآلة الأخلاقية لمعهد ماساتشوستس للتكنولوجيا ليست متوازنة ديموغرافياً» (ص.8)، وغالباً ما يستخدمها شباب ذكور من خريجي الجامعات، أي «الرجال البيض مفرطي التأنّق» بوصف والش.
الأسوأ بكثير من آلة التصويت في معهد ماساتشوستس للتكنولوجيا هو قضية «الروبوتات القاتلة» الآلية (ص.85). وفي هذا الصدد، يقتبس المؤلّف من الأمين العام للأمم المتحدة أنطونيو غوتيريش قوله: «لنسميها باسمها. إنّ احتمال أن تقوم آلات لديها الامتيازات والقدرة بقتل البشر لهو أمر شنيع أخلاقياً» (ص.86). أمّا في قضية الحرب الآلية والموجّهة بالخوارزميات، فيجد المرء أيضاً «بند مارتنز» (ص.98) الذي ينظّم الصراع المسلح. واللافت أننا نجد أيضاً «المبادئ الأخلاقية لوزارة الدفاع الأميركية في استخدام الذكاء الصناعي» (ص.101)، هي التي أسقطت قنبلتين ذريتين، وشاركت في حربي كوريا وفيتنام، وأدارت سجن أبو غريب في أثناء حرب العراق بغياب أي أسلحة للدمار الشامل.
أبعد من ذلك، إنّ مهندسي الذكاء الصناعي يهتمون كثيراً بقضية «الإنسان مقابل الآلات». وفي هذا الصدد، يقول والش: «يستطيع البشر بالفعل، أن يتصرفوا على نحو أخلاقي، وكثيراً ما يفعلون ذلك. فهل يمكننا أن نعيد إنتاج ذلك في الآلات (…) أم أن الذكاء البشري والذكاء الآلي (…) مختلفان جوهرياً؟ أحد الفروق المهمة بين البشر والآلات هو أننا أحياء فيما الآلات ليست كذلك» (ص.103). لكنّ ما يمكن أن نسمّيه حياة، يسمّيه الذكاء الصناعي «منظومات حيّة»، وهي منظومات «تحافظ على نوع من التوازن، ولها دورة حياة، وتتبدّل، ويمكنها النمو في بيئتها والتكيّف معها، ويمكنها الاستجابة للمنبهات، والتكاثر والتطور». (ص.104).
يُقدّر أنّ تدريب النموذج الضخم لـ ChatGPT-3 أنتج 85,000 كيلوغرام من ثاني أكسيد الكربون، ولكي نضع الأمور في نصابها، فإنّ هذا الكم نفسه ينتجه 4 أشخاص يسافرون ذهاباً وإياباً من لندن إلى سيدني في درجة رحال الأعمال و8 أشخاص في الدرجة الاقتصادية
بصرف النظر عن كل هذا، والش مقتنع بأنّ «لا حاجة - بل لا مكان - للإرادة الحرة». وأحد الأشياء المهمة بخصوص كتاب الآت سيئة السلوك هو أنه لا يكفّ عن تذكير القراء بأنّ «أجهزة الكمبيوتر هي آلات حتمية جبريّة نكتفي باتّباع التعليمات الموجودة في شيفرتها» (ص.106). وبعد هذه الحقيقة، قد تأتي الأخلاق مع أمر قد لا يهمّنا فعلياً على المدى القصير، ومفاده أنّ: «الآلات بمجرد أن تصبح واعية، قد تترتّب علينا تجاهها التزامات أخلاقية بشأن كيفية تعاملنا معها. على سبيل المثال، هل يمكننا الآن إيقاف تشغيلها؟» (ص.107)
الذكاء الصناعي والأخلاق بالغا الأهمية في مجال الطب لكنهما إشكاليان أيضاً (ص.140). ويقود هذا والش إلى أخلاق الإنصاف ويستخدم مكتب تنظيم المؤهلات والامتحانات في بريطانيا (Ofqual) كمثال، حيث «كان طلاب المدارس الحكومية الفقيرة أكثر عرضة لنيل درجات أدنى من طلاب المدارس الخاصة الغنية» (ص.149). كما وقعت أشياء أكثر خطورة في الشرطة. إذ يشير والش إلى أنَّ «التنبؤ بالجرائم المستقبلية [باستخدام] البيانات التاريخية لن يؤدي سوى إلى إدامة التحيزات السابقة [...] وأولئك الذين يستخدمون الذكاء الصناعي للتعلّم من التاريخ محكومون بتكراره». بل إنّ الأمر أسوأ من التكرار. فقد نبني «حلقات تغذية» خطيرة نضخّم فيها تحيزات الماضي» (ص.151). وفي ما يتعلق بمسألة الإنصاف لدى الشرطة على وجه الخصوص، هناك أيضاً خطر حدوث «خطأ شائع في التعلم الآلي حين نخلط بين الأسباب والنتائج» (ص.156). يقول والش عن أخلاق الإنصاف: «يوجد حالياً ما لا يقل عن 21 تعريفاً رياضياً مختلفاً للإنصاف تستخدمها جماعة التعلُّم الآلي» (ص.158).
غير أنّ الإنصاف يدخل أيضاً مجالاً بسيطاً كمجال التعرّف إلى الكلام. ويُدرج والش قائمة بمنظومات التعرّف إلى الكلام، كتلك التي طوّرتها شركات أمازون، وأبل، وغوغل، وآي بي إم، ومايكروسوفت، على سبيل المثال. ويشير إلى أنّ «المنظومات الخمس جميعها كان أداؤها أسوأ بكثير بالنسبة إلى المتحدثين السود مقارنة بالمتحدثين البيض». وكان متوسط معدل الخطأ في الكلمات عبر المنظومات الخمس 35% للمتحدثين السود، مقارنة بـ19% فقط للمتحدثين البيض (ص.168). بمعنى آخر، «غالباً ما تعكس منظومات الذكاء الصناعي تحيزات المجتمع الذي صُمّمت فيه» (ص.171)، بالإضافة إلى تحيز أولئك الذين يصمّمون الخوارزميات، أي «الرجال البيض مفرطي التأنّق».
يقول والش: «يمكننا أن نتوقع تسليم المزيد والمزيد من القرارات إلى الخوارزميات». (ص.179). ويحدث هذا حتى في القضية الأكثر إلحاحاً على كوكبنا - الاحتباس الحراري - حيث الرقمنة مسؤولة عن «أقل من 5% من إجمالي الكهرباء المستخدمة لتشغيل أجهزة الكمبيوتر، وهذا يعني أن أقل من 1% من استهلاك الطاقة العالمي يُصرَف على استخدام الحاسبات».(ص.211).
في هذه الأثناء، يُقدّر أنّ تدريب النموذج الضخم لـ ChatGPT-3 أنتج 85,000 كيلوغرام من ثاني أكسيد الكربون، ولكي نضع الأمور في نصابها، فإنّ هذا الكم نفسه ينتجه 4 أشخاص يسافرون ذهاباً وإياباً من لندن إلى سيدني في درجة رحال الأعمال و8 أشخاص في الدرجة الاقتصادية في الرحلة نفسها. في الممارسة العملية، يعتمد كثير من مراكز البيانات على الطاقة المتجددة. ومزودو الحوسبة السحابية الثلاثة الكبار هم Google Cloud وMicrosoft Azure وAmazon Web Services. وتزعم Google Cloud أن لديها «صافي انبعاثات كربونية صفرية» (ص،212).
«تزعم» ذلك. في الوقت نفسه، «النقل مسؤول عمّا يقرب من ربع انبعاثات ثاني أكسيد الكربون العالمية. ولذلك، يمكن أن يكون الذكاء الصناعي مصدراً نافعاً عظيماً في الحد من هذه الانبعاثات» (ص.217).
يختتم والش كتابه الرؤيوي بالقول: «يجب أن يكون واضحاً الآن أننا لا نستطيع أن نصمّم آلات أخلاقية، آلات تلتقط قيمنا الإنسانية ويمكن مساءلتها عن قراراتها (...) ستظل الآلات آلات دائماً وإلى الأبد. هي لا تملك بوصلتنا الأخلاقية (…) وإذا لم نتمكّن من تصميم آلات أخلاقية، فعلينا أن نحدّ من القرارات التي نسلّمها إلى الآلات» (ص.222). وهذا استنتاج منطقي وحتمي.
نُشِر هذا المقال في Marx and Philosophy Review of Books في 22 تشرين الأول/أكتوبر 2023، وترجم وأعيد نشره في موقع «صفر» بموجب رخصة المشاع الإبداعي.