الثورة الثالثة في مجال الحروب.. || هل أصبح الذكاء الاصطناعي أخطر من الأسلحة النووية؟

ترجمة: سمية زاهر

مقدمة للترجمة:

يشهد العالم حاليا ثورة تقنية واسعة بسبب دخول خوارزميات الذكاء الاصطناعي في كل شيء تقريبا، بداية من هاتفك الذكي ووصولا إلى التشخيصات الطبية، لكن هل فكرت يوما فيما سيحدث حينما يدخل الذكاء الاصطناعي إلى المجال العسكري؟ حسنا، لا حاجة لك إلى أن تُخمِّن شيئا، فقد بدأ الأمر بالفعل، حيث تُستخدم الطائرات المسيَّرة عبر الذكاء الاصطناعي حاليا في حروب الوطن العربي. لكن ما طبيعة الأداة العسكرية التي تمتلك قدرات الذكاء الصناعي؟ ما الذي يجعلها أكثر فتكا مقارنة بصاروخ نووي؟ وإلى أي مدى يمكن أن تصل بشاعتها؟ يجيبك عن هذه الأسئلة مُتخصِّص علوم الذكاء الصناعي “كاي فو لي” الذي عمل رئيسا لشركة “غوغل” في الصين، كما عمل لصالح شركات أخرى، ثم “أبل” و”مايكروسوفت”.

نص الترجمة:

مع مرور الذكرى العشرين لأحداث 11 سبتمبر/أيلول على وقع الانسحاب العاجل للقوات الأميركية من أفغانستان، أصبح من الصعب تجاهل الواقع المُروِّع للصراعات المسلحة والتحدي الذي تفرضه الهجمات الإرهابية الانتحارية غير المتكافئة، لأن تكنولوجيا الأسلحة تغيَّرت كثيرا على مدى العقدين الماضيين، وبالتالي فإن التفكير في المستقبل القريب يفرض علينا أن نتساءل: ماذا سيحدث إذا تطوَّرت تكنولوجيا الأسلحة وتمكَّن الإرهابيون من استبدال العنصر البشري (هؤلاء الذين يُقْدِمون على تفجير أنفسهم)* لصالح الذكاء الاصطناعي؟ بصفتي شخصا درس الذكاء الاصطناعي وعمل فيه لعقود، لا بد أن يساورني القلق إزاء هذا التهديد التكنولوجي.

الروبوتات القاتلة.. الثورة الثالثة للحروب

تُعَدُّ الأسلحة المستقلة أو الأسلحة الفتاكة ذاتية التشغيل، المعروفة باسم “الروبوتات القاتلة”، هي الثورة الثالثة في مجال الحروب بعد البارود والأسلحة النووية. فالتطور الذي حدث، بداية من الألغام الأرضية وصولا إلى الصواريخ الموجَّهة، كان مجرد مُقدِّمة لاستقلال حقيقي لمجال الذكاء الاصطناعي، وإدماجه في عمليات القتل من خلال البحث عن أشخاص معينين، واتخاذ قرارات بالاشتباك معهم، ثم القضاء عليهم تماما دون أدنى تدخُّل بشري.

تُعَدُّ طائرة هاربي الإسرائيلية (الدرون الانتحاري)* ذاتية التشغيل (بدون طيار)*، أحد الأسلحة ذاتية التشغيل التي بُرمِجت للطيران إلى منطقة معينة للبحث عن أهداف محددة، ومن ثم تدميرها باستخدام رأس حربي شديد الانفجار عن طريق خاصية تُسَمى “أَطْلِقْ وانسَ” (Fire and Forget). لكن هناك مثال أكثر استفزازا ظهر في الفيلم القصير “مذبحة الروبوتات الصغيرة” (Slaughterbots)، الذي يحكي قصة سرب من الطائرات المسيَّرة بحجم الطيور يمكنها البحث عن شخص معين وقتله، بإطلاق كمية صغيرة من الديناميت نحو جمجمته، ولأن هذه الطائرات صغيرة جدا، وتتمتع بخفة وذكاء، فلا يمكن القبض عليها أو إيقافها أو تدميرها بسهولة.

هذه الروبوتات القاتلة ليست مجرد وهم، بل هي خطر حقيقي ثبتت تبعاته حينما أوشكت إحدى هذه الطائرات المسيَّرة على قتل رئيس فنزويلا عام 2018. المشكلة الأعمق التي نواجهها اليوم هي قدرة الهواة المُتمرِّسين على صناعة هذه الطائرات بسهولة، وبتكلفة أقل من ألف دولار، وذلك لأن جميع أجزاء الطائرة أصبحت الآن متاحة للشراء عبر الإنترنت، وباتت التقنيات ذات المصادر المفتوحة متاحة للتحميل. كانت تلك نتيجة غير مقصودة بعد أن أصبح استخدام الذكاء الاصطناعي وصناعة الروبوتات أسهل وأرخص. تخيَّل معي أن يصبح لدينا قاتل سياسي لا تتعدَّى تكلفته ألف دولار! ما نتحدَّث عنه ليس خطرا مستبعدا قد يحدث في المستقبل، وإنما هو في حقيقة الأمر خطر واضح يُهدِّدنا الآن.

لقد شهدنا بالفعل التقدُّم السريع الذي أحرزه الذكاء الاصطناعي في نطاقات عدة، ومع هذه التطورات، من المرجَّح أننا سنشهد في المستقبل القريب سرعة انتشار هذه الأسلحة المستقلة التي لن تكتفي بكونها أصبحت أكثر ذكاء ودقة، وأسرع، وأرخص ثمنا، بل ستتعلَّم أيضا إمكانات جديدة، مثل كيفية تكوين أسراب تعتمد في تحرُّكاتها على العمل الجماعي، ومضاعفة سرعتها، وتكرار حركاتها، مما يجعل مهماتها فعليا غير قابلة للردع. المُثير للقلق أن تكلفة سرب مُكوَّن من 10.000 طائرة بدون طيار قادرة على إبادة نصف مدينة تصل الآن إلى أقل من 10 ملايين دولار.

إذا انتقلنا إلى الجانب المشرق من الحكاية، فسنجد أن لهذه الأسلحة المستقلة (المسيَّرة) عدة فوائد، فهي قادرة مثلا على إنقاذ حياة الجنود إذا خاضت الآلات الحروب بدلا منهم، كما أنها تستطيع -إن وقعت في أيدي مؤسسات عسكرية مسؤولة- أن تساعد الجنود على استهداف المقاتلين فقط في جيش العدو، وتجنُّب قتل القوات الصديقة والأطفال والمدنيين بدون قصد (يشبه الأمر الطريقة التي تفعلها السيارات ذاتية التشغيل عند ضغطها على الفرامل إذا كان الاصطدام وشيكا للحفاظ على حياة السائق)، كما يمكن استخدام هذه الأسلحة أيضا للدفاع ضد القتلة والجُناة.

لكن سلبيات هذه الأسلحة والمسؤوليات التي تُلقَى على عاتق البشر نتيجة استخدامها تفوق كثيرا هذه الفوائد، وأكبر مسؤولية من هذا القبيل هي المسؤولية الأخلاقية، إذ ترى جميع النظم الأخلاقية والدينية تقريبا أن إزهاق الروح البشرية هي مسألة شائكة، وقضية مثيرة للجدل تتطلَّب تبريرا وتمحيصا قويين. تعليقا على ذلك، صرَّح الأمين العام للأمم المتحدة أنطونيو غوتيريس بقوله: “إن احتمال وجود آلات تتمتع بحرية التصرُّف والقدرة على سلب حياة إنسان هو أمر بغيض ومرفوض أخلاقيا”.

إن تضحية المرء بحياته من أجل قضية ما -كما يفعل الانتحاريون- ليس سهلا، وما زال يُشكِّل عقبة كبيرة أمام أي شخص يُفكِّر في ذلك، لكن مع هذه الأسلحة المسيَّرة، لن تكون هناك فرصة لأن يتنازل أي إنسان عن حياته في سبيل قتل الآخرين. وثمة مسألة رئيسية أخرى، وهي وجود خط واضح للمُساءلة، أي معرفة المسؤول عن وقوع خطأ ما ومحاسبته، وهذه قضية محورية بالنسبة للجنود في ساحة المعركة. لكن عندما تُسنَد عملية القتل إلى هذه الروبوتات القاتلة، إلى مَن سنوجِّه المُساءلة إذن؟ (تماما مثلما تصطدم سيارة ذاتية التشغيل بأحد المشاة، إلى مَن تُسنَد هذه الحادثة؟ مَن المسؤول؟ وهذا ما نسميه عدم وضوح المُساءلة).

هذا الغموض قد يُعفي المعتدين في نهاية المطاف من المُساءلة جرَّاء ارتكابهم المظالم، وانتهاكهم للقوانين، مما يُقلِّل من هيبة الحروب، ويخفض من حدودها، فيسهل على أي شخص شن حرب في أي وقت. أما الخطر الأكبر فهو قدرة هذه الأسلحة المستقلة على استهداف الأفراد باستخدام خاصية التعرُّف على الوجه أو حركة المشي، وتتبُّع إشارات الهاتف أو “إنترنت الأشياء” (Internet of Things- IOT)، (وهو مصطلح يُشير إلى مليارات الأجهزة المادية في جميع أنحاء العالم المتصلة بالإنترنت، التي بإمكانها جمع وإرسال ومعالجة البيانات من البيئة المحيطة باستخدام حساسات ومعالجات)*. وهذا قد لا يتسبَّب في اغتيال شخص واحد فحسب، بل يؤدي إلى إبادة جماعية لأي مجموعة مُستهدَفة.

إن زيادة استقلالية هذه الأسلحة الفتاكة دون فهم عميق لما يحدث من شأنه أن يزيد من سرعة الحرب (وبالتالي وقوع إصابات ووجود خسائر)*، ومن المحتمل أن يؤدي هذا إلى تصعيد كارثي، بما في ذلك الحرب النووية. وعلى الرغم من كل ما توصَّل إليه الذكاء الاصطناعي، فإنه لا يزال محدودا جرَّاء افتقاره إلى الحس السليم، والقدرة البشرية على التفكير في مختلف المجالات. فبغض النظر عن مقدار التدريب على هذه الأسلحة المسيَّرة، لا نزال جميعا نفتقر إلى فهم كامل لعواقب استخدامها.

في عام 2015، نشر معهد “مستقبل الحياة” (Future of Life) (وهو منظمة بحثية وتوعوية في بوسطن، تعمل على رصد المخاطر الوجودية التي تُهدِّد البشرية، خاصة المخاطر الوجودية للذكاء الاصطناعي)* خطابا مفتوحا حول أسلحة الذكاء الاصطناعي، مُحذِّرا من أن “سباق التسلُّح العالمي أصبح أمرا حتميا لا مناص منه تقريبا”. وتُشبه هذه الديناميكية التصعيدية للذكاء الاصطناعي سباقات أخرى مألوفة، سواء كان سباق التسلُّح البحري الأنجلو-ألماني أو سباق التسلُّح النووي السوفيتي الأميركي.

كما أن السعي لاكتساب قوة عسكرية عن طريق تصنيع هذه الأسلحة المستقلة يمكن أن يكون أقل تكلفة، مما يزيل العوائق التي تعترض سبيل الدخول إلى مثل هذه الصراعات العالمية، وانضمَّت بالفعل إلى هذا السباق العالمي دول أصغر ذات تقنيات قوية، مثل إسرائيل التي تسلَّحت بأكثر الروبوتات العسكرية تقدُّما، وتتميز هذه الروبوتات بحجم صغير يصل إلى حجم الذباب تقريبا. ولأن الجميع بات متيقنا الآن من أن الخصوم سيلجأون إلى صناعة هذه الروبوتات القاتلة، فإن ذلك سيُجبر الدول الطموحة بالانضمام إلى هذا السباق وخوض المنافسة.

إلى أين سيأخذنا سباق التسلُّح هذا؟

يقول ستيوارت راسل، أستاذ علوم الحاسوب بجامعة كاليفورنيا في بيركلي: “إن قدرات الأسلحة المستقلة ستكون مقيَّدة بقوانين الفيزياء -مثل القيود المفروضة على المدى والسرعة والحمولة- أكثر من تقييدها بسبب أنظمة الذكاء الاصطناعي التي تتحكَّم فيها. ومن المتوقَّع وجود ملايين من المنظمات المَعنية بتصنيع هذه الأسلحة التي تتميز بخفة الحركة وشدة الفتك، تاركة الإنسان أعزل تماما. لذا إن أُتيحت الفرصة لسباق التسلُّح متعدد الأطراف هذا بالاستمرار في مساره، فسيتحوَّل في نهاية المطاف إلى سباق نحو اندثار البشرية أو سقوطها في غياهب النسيان”.

على الرغم من أن الأسلحة النووية تُشكِّل تهديدا وجوديا، فإنها ما زالت تخضع لمراقبة، بل وساعدت حتى في الحد من انتشار الحرب التقليدية بسبب “نظرية الردع” (deterrence theory) (وهي نظرية تستند إلى افتراض مفاده أن القوة هي أفضل علاج للقوة، بمعنى إذا تحقَّق لدولة ما تفوُّق في القوة، فإنها تستطيع فرض إرادتها على الدول الأخرى، ولا يكبح جماحها إلا قوة أخرى مضادة لها أو متفوقة عليها)، ولأن نتائج الحرب النووية هي تدمير مؤكَّد لكلا الطرفين، فإن أي دولة بدأت الضربة النووية ستواجه على الأرجح معاملة بالمثل، وبالتالي ستكون السبب في تدمير نفسها.

في أغسطس 1945 وخلال يومين، أسقطت الطائرات الأمريكية قنبلتين ذريتين، واحدة على هيروشيما، والأخرى على ناغازاكي، وهي المرة الأولى والوحيدة التي يتم فيها استخدام الأسلحة النووية. وكانت قوتهم التدميرية تضرب وتحرق المباني والأشخاص وتترك ندوبًا مدى الحياة على الناجين، ليس فقط جسديًا ولكن أيضًا نفسيًا وعلى المدن نفسها.

لكن عندما نتحدَّث عن الأسلحة ذاتية التشغيل، هنا تختلف الأمور، فنظرية الردع لا تنطبق على هذا المجال، لأن الهجوم الأول المفاجئ ربما لا يمكن تعقُّبه. وكما ناقشنا سابقا، فإن هجمات الأسلحة ذاتية التشغيل يمكن أن تؤدي إلى استجابة سريعة من الأطراف الأخرى، ناهيك بأن التصعيدات قد تكون سريعة جدا، فيؤدي ذلك إلى حرب نووية. أما العقبة الحقيقية فتتمثَّل في أن الهجوم الأول قد لا تشنُّه دولة، بل إرهابيون أو جهات أخرى غير حكومية، ما يتسبَّب في تفاقم خطر هذه الأسلحة.

ظهرت عدة حلول مقترحة لتجنُّب هذه الكارثة الوجودية. تَمثَّل الحل الأول في ضرورة وجود العنصر البشري في هذه الحلقة المُفرغة من الحروب، أو التأكُّد من أن الإنسان هو مَن يتخذ كل قرارات القتل. لكن براعة الأسلحة المستقلة تنبع من السرعة والدقة المكتسبتين من عدم وجود الإنسان في هذه الحلقة، وبالتالي فإن هذا التنازل قد لا تقبله أي دولة تريد الفوز في سباق التسلُّح، كما أن تدابير الحماية لإشراك الإنسان في هذه العمليات تعتمد إلى حدٍّ كبير على الطابع الأخلاقي لهذا الفرد وحكمه على الأمور.

الاقتراح الثاني هو تحريم استخدام هذه الأسلحة، ومن الداعمين لهذا الاقتراح حملة بعنوان “أوقفوا استخدام الروبوتات القاتلة”، هذا وقد قُدِّمت ورقة عليها توقيع 3000 شخص، بمَن فيهم إيلون ماسك، والراحل ستيفن هوكينغ، وآلاف الخبراء في مجال الذكاء الاصطناعي، يعترضون فيها على استخدام هذه الأسلحة.

في الماضي، بذل علماء الأحياء والكيمياء والفيزياء جهودا مُماثلة برفضهم استخدام الأسلحة البيولوجية والكيميائية والنووية. نعلم أن حظر هذه الأسلحة لن يكون سهلا بالطبع، لكن الحظر السابق لاستخدام الليزر والأسلحة الكيماوية والبيولوجية المُسبِّبة للعمى حقَّق نتائج فعالة. العقبة الرئيسية التي نواجهها اليوم هي معارضة الولايات المتحدة وبريطانيا وروسيا هذه الفكرة، مُعلنين أنه من السابق لأوانه القيام بذلك.

الحل الثالث هو تنظيم استخدام هذه الأسلحة المسيَّرة، وللأسف سيكون ذلك مُعقَّدا أيضا بسبب صعوبة فرض مواصفات تقنية فعالة دون أن تكون شاملة للغاية. وقبل كل ذلك، لا بد أن نتساءل أولا: ما الذي يُعرِّف الأسلحة ذاتية التشغيل؟ كيف سنراجع الانتهاكات الناجمة عن استخدام هذه الأسلحة؟

على الرغم من أن هذه الأسئلة تُمثِّل عقبات بالغة الصعوبة على المدى القصير، فإن الحلول الإبداعية قد تكون مُمكنة على المدى الطويل رغم صعوبة تخيُّلها. عند التفكير في هذه الحلول، ستواجهنا العديد من الأسئلة على غرار: هل تستطيع كل الدول الاتفاق على أن تخوض الروبوتات جميع الحروب في المستقبل؟ الأمر الذي لن يُسفِر عن وقوع خسائر بشرية، بل سيكون هدفه الحصول على الغنائم التقليدية للحرب، وإيصالها إلى الأطراف الأخرى فقط.

مَن يعلم؟ فربما نشهد مستقبلا تخوض فيه الروبوتات الحروب مع البشر، لكن بشرط السماح للروبوتات باستخدام أسلحة من شأنها تعطيل الروبوتات المقاتلة الأخرى في جيش الأعداء، دون أن تكون مؤذية للبشر. في نهاية المطاف، علينا أن نُدرك جيدا أن الأسلحة المستقلة (الروبوتات القاتلة) تُمثِّل بالفعل خطرا واضحا وحاضرا، بتحوُّلها مع الوقت إلى أسلحة أكثر ذكاء ومرونة، وأشد فتكا، وأكثر قابلية للحصول عليها بسرعة باتت تُثير القلق، والرعب أيضا.

لكن في النهاية، الذي سيُعجِّل من انتشار هذه الأسلحة هو سباق التسلُّح الذي تنخرط فيه الدول كافة، الذي يفتقر إلى الردع الطبيعي للأسلحة النووية. في نهاية المطاف، علينا الاعتراف بأن الأسلحة المستقلة هي تطبيق للذكاء الاصطناعي يتعارض بوضوح وبشدة مع أخلاقنا، ويُمثِّل تهديدا حقيقيا للبشرية.

————————————————————————

هذا المقال مترجم عن The Atlantic ولا يعبر بالضرورة عن موقع ميدان.

المصدر: The Atlantic / الجزيرة. نت

مقالات ذات صلة

زر الذهاب إلى الأعلى