الذكاء الاصطناعي تصنعه أيد غير موثوقة

آرثر هولاند ميشيل

يطرح أسئلة جوهرية تستلزم مجهودات متنوعة تشمل الفئات المهددة به ومشكلته ليست مجرد إساءة استخدامه.

انضم جيفري هينتون، الملقب بـ”عراب الذكاء الاصطناعي”، إلى مجموعة متنامية من الأصوات التي تدعو إلى توخي مزيد من الحذر تجاه تطور الذكاء الاصطناعي، محذرة من صعوبة “كفّ يد اللاعبين الأشرار من استخدامه لأغراض سيئة”.

وفي المقابل، ليس الطغاة والمستبدون وحدهم من يؤرقون منامي طوال الليل، بل يضاف إليهم المهندسون والمديرون التنفيذيون والسياسيون، إذ تتولى هذه المجموعة مهمة جعل الخيال العلمي حقيقة واقعة. تميل الأصوات الطاغية في النقاش الدائر بشأن الذكاء الاصطناعي إلى إبداء قدر مخيف وفي غير محله، من اليقين بشأن قدرات الذكاء الاصطناعي والسبل المختلفة التي تتيح لنا أن نتحكم بهذه التكنولوجيا.

في مشروع بحثي جديد نهض به معهد “تشاتام هاوس” في لندن، وجد أن السياسات الوطنية الخاصة بالذكاء الاصطناعي في عشرات البلدان، من الصين إلى تشيلي، مبنية على المجموعة نفسها من الافتراضات المغلوطة بشأن سبل الانتفاع من القوة المهولة التي يتسم بها الذكاء الاصطناعي، وفي الوقت عينه تقليص مخاطره. إن تلك الافتراضات تتكرر كثيراً بيد أن الأساس العلمي الذي تستند إليه ضعيف للغاية.

ومثلاً، لننظر في الادعاء بشأن قدرة الذكاء الاصطناعي في التوافق مع مبادئنا الأخلاقية نحن البشر. هل هذا صحيح؟ بينما تميل الحكومات والشركات إلى التحلي بالواقعية بشأن حقيقة الحاجة إلى بذل مجهود أكبر كي يصبح الذكاء الاصطناعي الأخلاقي [الذي يلتزم بإرشادات أخلاقية معينة] حقيقة واقعة، فإنها لا تطرح أي سؤال عن مدى قدرة التكنولوجيا فعلياً في تحقيق مفهوم الذكاء الاصطناعي الأخلاقي بحد ذاته، خصوصاً إذا تابعت شركات كـ”مايكروسوفت” عمليات الاستغناء عن فرق العمل المسؤولة عن هذه الأمور الدقيقة.

مثلاً، يبقى مفهوم الذكاء الاصطناعي “غير المتحيز” ضرباً من ضروب الخيال. لكننا مع ذلك، نحن بالكاد قد شرعنا بالانخراط بشكل كاف في الرد على الأسئلة المحرجة بشأن ما يعتبر تحيزاً مقبولاً أو غير مقبول، إضافة إلى السؤال الأكثر تعقيداً حول من يحق له أن يقرر إذا كان هذا التحيز أو ذاك مقبولاً أو غير مقبول.

بقدر ما تبدو مقيتة الدعوات إلى مناهضة الذكاء الاصطناعي اليقِظ woke AI الذي دعا إليه إيلون ماسك وآخرون غيره، فإن تلك الدعوات تسلط الضوء على حقيقة مُرَّة مفادها بأن منح أي كيان السلطة للبت في المسموح والممنوع بالنسبة إلى الذكاء الاصطناعي التوليدي، سواء في الأقوال أو الأفعال؛ سيؤدي التعارض حتماً مع المبادئ المشتركة للحرية والمساواة.

 [تذكير بأن إيلون ماسك دعا إلى صنع ذكاء اصطناعي توليدي يكون ملتزماً بطريقة تفكير “حركة اليقظة”، بمعنى التنبّه لعدم الوقوع في العنصرية والتحيّز الجنسي وغيرها]

علاوة على ذلك، شرعت بلدان عدة في اتخاذ خطوات ترمي إلى فرض أخلاقيات الذكاء الاصطناعي. ربما تبدو هذه خطوة جيدة. لكن، حينما تفكر في أن القانون في بعض تلك البلدان يتعامل مع المثلية الجنسية على أنها خيار غير أخلاقي، يبدو هذا الاحتمال أقل إثارة للبهجة.

إليكم افتراض آخر. يتحدث الجميع عن الذكاء الاصطناعي على أساس أنه سباق بين الدول والشركات، حيث تظفر بأغنى الغنائم الجهة التي تتحرك أولاً وبوتيرة أسرع. هل نحن متأكدون؟ ربما تحوز تفوقاً اقتصادياً أو عسكرياً إذ تجهد شركات عدة لديك في العمل على الذكاء الاصطناعي بأكثر مما يفعل خصومك الجيوسياسيين. لكن هل سباق التسلح هذا متوافق مع أنواع الذكاء الاصطناعي الآمن والعادل الذي لا يخدم المصالح الاقتصادية للنخبة فحسب، بل أيضاً أشد فئات المجتمع ضعفاً وحرماناً؟ ربما لا.

لدواعٍ سياسية، تتصرف بعض البلدان، من بينها المملكة المتحدة، كما لو أن في مستطاع “الذكاء الاصطناعي العام” artificial general intelligence، شكل الذكاء الاصطناعي الذي يحذر منه هينتون، أن يصبح يوماً ما حقيقياً. لكن على أي حال، فإن المديرين التنفيذيين أنفسهم في قطاع التكنولوجيا الذين نجحوا في إقناع الحكومات بتهديدات الذكاء الخارق أو الفائق، يسارعون إلى ابتكار نماذج من الذكاء الاصطناعي التي ستجعل هذه المخاطر حقيقة واقعة.

يستهوينا الاعتقاد بأن هؤلاء على صواب بشأن هذه التنبؤات، لكن ربما نتوقف قليلاً لنتساءل عما إذا كان لديهم دافع خفي في إقناعنا بأننا في مأمن من هلاك وشيك سيأتي به الذكاء الاصطناعي. في النهاية، يتمثل الجزء الرئيس من روايتهم في أن الطريقة الوحيدة لقطع يد الذكاء الاصطناعي الخبيث تكمن في تبني الذكاء الاصطناعي الجيد، والأخير هو بلا ريب الذكاء الاصطناعي الذي يتولون هم صنعه. لعل نهجاً إنسانياً ما أشد حذراً، نهج ينظر إلى ما هو أبعد من عالم التكنولوجيا بغية إيجاد حلول لهذه المشكلات، يكون أكثر أماناً بالنسبة إلى الجميع على المدى البعيد.

تمثّل المعطيات السابقة أسئلة جوهرية وملحة تستدعي بذل جهود من جانب مجموعة متنوعة من الأصوات، لا سيما تلك المهددة على الأرجح بالمخاطر نتيجة استخدام الذكاء الاصطناعي. حتى الآن، فإن الضحايا الأوائل للأشكال الخبيثة من الذكاء الاصطناعي، كالأدوات غير الدقيقة في التعرف إلى الوجه أو برامج الذكاء الاصطناعي التوليدي المستعملة في إنشاء مواد إباحية مزيفة؛ تمثّلوا في أفراد مجموعات قاست التهميش تاريخياً، من بينهم النساء وأصحاب البشرة الملونة. بيد أنه للأسف، ليست هذه المجموعات ممثلة تمثيلاً كافياً بين الأصوات الأعلى في السجال الدائر بشأن الذكاء الاصطناعي.

تنزع الافتراضات السائدة بشأن سياسة الذكاء الاصطناعي إلى التعبير عن وجهات نظر مجموعة ضيقة من الأطراف المعنية، متجاهلة مصالح الفئات التي يُرجح أن يُلحق بها الذكاء الاصطناعي بأنواعه كلها، الضرر والأذية، سواء كان ذكاءً اصطناعياً خارقاً أو تقليدياً. ومن طريق تقديم آراء أصحاب المصلحة هؤلاء كما لو أنها حقائق، فإننا نغلق الباب أمام حوار صريح يرتكز على حسن النية فعلاً. حري بنا تغيير هذا الاتجاه.

وكخلاصة، لقد آن الأوان لإعادة تقويم الطريقة التي نتناول بها الذكاء الاصطناعي. من الصعب جداً إنشاء روبوت محادثة يقر بأنه غير واثق من إجاباته. ولكن لا يسعنا إلا أن نأمل في أن يكون من الأسهل إلى حد ما حمل البشر على الاعتراف حينما لا يعرفون الإجابات.

المصدر: اندبندنت عربية

مقالات ذات صلة

زر الذهاب إلى الأعلى