سراب الذكاء الاصطناعي… الحدّ الفاصل بين الحقيقة والزيف

محمد البدري

لم يعد المشهد الرقمي يعكس الواقع كما نعرفه، فمع تطوّر أدوات الذكاء الاصطناعي القادرة على توليد صور ومقاطع فيديو تحاكي الحقيقة إلى حدّ التطابق، أصبح الفاصل بين الواقع والزيف هشّاً، قابلاً للانهيار مع كل تمريرة إصبع على شاشة الهاتف. إننا نعيش مرحلةً تاريخيةً تتشكّل فيها الحقائق بصمت، وتُعاد صياغة الذاكرة الجمعية بلا إذن، ويصبح فيها الوهم أكثر انتشاراً من الحقيقة، وأحياناً أكثر إقناعاً منها. ورغم البعد الإبداعي الهائل الذي فتحته هذه التكنولوجيا، فإن انتشارها العشوائي غير المنظَّم في منصّات التواصل الاجتماعي بدأ يُنشئ موجةً جديدةً من المخاطر: أخلاقية، ونفسية، واجتماعية، بل وسياسية أيضاً. المشكلة ليست في التقنية نفسها، بل في كيف تُستخدم، وإلى أين تدفع، ومن يستغلّها؟
عقوداً، كانت الصورة الفوتوغرافية والمشاهد المُصوَّرة تُعامَل وثيقةً غير قابلة للجدل. كان يقال: “الصورة لا تكذب”. أمّا اليوم، فقد أصبحت الصورة أكثر الأدوات قابليةً للكذب. في مارس/ آذار 2023، الصورة الشهيرة للبابا فرنسيس بمعطف أبيض فاخر، رغم أنها وُلِّدت بواسطة الذكاء الاصطناعي، فإنها انتشرت بين أكثر من 20 مليون مستخدم خلال 48 ساعة، بحسب شركاء التحقّق من الحقائق في “ميتا”، وتحوّلت مثالاً عالمياً على قدرة الصورة المزّيفة على خداع الجماهير. المخيف أكثر أن دراسة صادرة عن جامعة هارفارد عام 2025 تؤكّد أن أكثر من ثلث البالغين لم يعودوا قادرين على الثقة حتى في المقاطع الحقيقية. بمعنى آخر، الذكاء الاصطناعي لا يخلق صوراً مزّيفةً فقط، بل يزرع الشكّ في كل شيء. هذه الحالة تُعرَف باسم “أثر الكاذب”، إذ تتآكل قيمة الأدلّة البصرية مع انتشار المحتوى المُولَّد بالذكاء الاصطناعي.
أصبح الإنسان، بملامحه وصوته وجسده، جزءاً من خامة يمكن استعمالها بلا إذن. استخدام أدوات الذكاء الاصطناعي لا يطلب موافقة أحد، ويمكنه إعادة تركيب وجوه أشخاص حقيقيين في سياقاتٍ مسيئةٍ أو محرجةٍ أو إباحية، من دون أن يكون للضحية أيّ علم أو سلطة.
حماية الحقيقة أصبحت مسؤوليةً جماعيةً في عصر الذكاء الاصطناعي، قبل أن نفقد قبضتنا على الواقع
تفيد تقارير حديثة بأن 88% من ضحايا المقاطع والصور الإباحية المزيّفة نساء وفتيات، وأن قضايا ابتزاز القُصَّر بالصور المزيفة تجاوزت ما كانت عليه بنسبة 1000%، وأنّ كثيراً من الضحايا اكتشفوا محتوىً مسيئاً لم ينتجوه في حياتهم. الأخطر أن أغلب الأنظمة القانونية لا تعترف بالصورة الاصطناعية بياناتٍ شخصيةً، ما يعني أن الضحية لا يملك حقّ الاعتراض القانوني. هذا الوضع لا يشير إلى ثغرة قانونية فقط، بل إلى نشوء اقتصاد جديد قائم على سرقة الهُويَّة البشرية.
ضحايا التزييف العميق (Deepfake) لا يواجهون مجرّد إحراج لحظي، بل صدمة تمتدّ سنوات. كشفت دراسة في جامعة ستانفورد عام 2024 أن نسبةً كبيرةً منهم تعاني من القلق واضطراب الثقة، وأن واحداً من كل ثلاثة منهم وصف التجربة بأنها “صدمة رقمية”، وأن 70% منهم يخشون أن تبقى آثار الإساءة الرقمية تطاردهم طوال حياتهم. وحين يتعلّق الأمر بالأطفال، يصبح الضرر مضاعفاً؛ ضياع هُويَّة، فقدان سيطرة، ووصمة اجتماعية مرعبة.
لم يعد التضليل الإعلامي يعتمد على نصوص مفبركة أو صور مشوّشة، بل استخدام الذكاء الاصطناعي في تصنيع معلومات مضلِّلة، خاصة في مناطق النزاع والانتخابات. أثناء حربَي غزّة وأوكرانيا، انتشرت على نطاق واسع صور أُنشئت بواسطة الذكاء الاصطناعي، تصوِّر بشكل خاطئ المستشفيات التي تعرّضت للقصف، أو أسر جنرالات. تقرير لمعهد رويترز ذكر أن 41% من البالغين في العالم صدّقوا الصور السياسية التي أُنشئت بواسطة الذكاء الاصطناعي مرّةً واحدةً على الأقلّ في عام 2024. بدأت جهات حكومية حول العالم تستخدم مؤثّرين اصطناعيين ونشرات أخبار مُولَّدة بالكامل لدفع أجندات سياسية، في تحوّل خطير يشير إلى دخولنا عصر “البروباغندا الذكية”. وأثبتت حوادث عدّة أن المحتوى الاصطناعي قادر على إحداث اضطراب حقيقي. صورة مزيفة لانفجار قرب البنتاغون تسبّبت في انخفاض مؤشّر ستاندرد آند بورز 500 لفترة وجيزة. كما أثارت مقاطع الفيديو الكاذبة للأزمات حالةً من الذعر، وعطّلت الاتصالات في حالات الطوارئ، وضلّلت مجتمعات بأكملها. وقد حذّر تقرير “راند” في 2024 من أن الهجمات المستقبلية المعتمدة على التزييف العميق قد تربك الدول في أصعب لحظاتها.
أوجد الذكاء الاصطناعي أدوات مذهلة، لكنّه في غياب الحوكمة والضوابط أصبح يُهدِّد الحقيقة ذاتها
مشاهد مزيفة تُظهر “نساء عربيات في باريس 1800” أو “روّاد فضاء أفارقة في العصر الفيكتوري”، جذبت ملايين المشاهدات. قد تبدو فنّيةً أو لطيفةً، لكنّها تُعيد تشكيل الذاكرة الجمعية، وتخلق تاريخاً بديلاً لا أصل له، وتُستخدَم في الصراعات الثقافية والسياسية. منصّات كبرى مثل ميتا وتيك توك حذفت آلاف المقاطع بعد اكتشاف ارتباطها بحملات تضليل تُغذّي الانقسامات الطائفية والعرقية. وتفيد أرقام جُمعت بين عامي 2024 و2025 بأننا أمام ظاهرة أكبر من قدرة المنصّات على السيطرة عليها. فـ63% من الناس لا يميّزون الصور الاصطناعية، و58% يخشون تأثير الذكاء الاصطناعي في الانتخابات. نسبة الزيادة في مقاطع التزييف العميق منذ 2020 بلغت 900%، و96% من محتوى “التزييف العميق” ذو طابع جنسي، و25% من الضحايا أبلغوا عن أفكار انتحارية. يكتشف “تيك توك” أقلّ من 30% من المقاطع المزيفة، أمّا منصة إكس فلا تكتشف سوى 5%، بينما يحتاج “يوتيوب” إلى 18 يوماً لحذف محتوىً مُزيَّف.
المطلوب فعله كثير، أوله وسم إلزامي للمحتوى المُولَّد بواسطة الذكاء الاصطناعي، فيظهر بوضوح أن الصورة أو الفيديو غير حقيقي. ثانياً حماية قانونية للهُويَّة الرقمية عبر تشريع “حقّ الهُويَّة الرقمية”، وتجريم إساءة استخدام الوجوه، خاصةً وجوه القُصَّر. ثالثاً، شفافية في بيانات البرامج التدريبية من خلال إلزام الشركات بكشف البيانات المُستخدَمة في البرامج التدريبية والتأكيد أنها لغاية التدريب فقط، وإتاحة خيار الحذف. رابعاً، محو الأمية الرقمية والنهوض بالتعليم وإدراج مهارات التحقّق من المحتوى في المناهج الدراسية. ويأتي خامساً فرض آليات استجابة عاجلة وأدوات الكشف عن المحتوى لإزالة المحتوى المؤذي خلال ساعات، وليس أسابيع، وتخصيص نسبة من الميزانية السنوية للتطبيقات والمنصّات الرقمية لتطوير أدوات قادرة على تمييز وكشف وتحليل بيانات المحتوى بشكل أدق. وأخيراً، إرساء محاسبة واضحة قانونياً حين يتسبّب المحتوى الاصطناعي بأذىً اقتصاديٍّ أو نفسي.
في الخلاصة، أوجد الذكاء الاصطناعي أدوات مذهلة، لكنّه في غياب الحوكمة والضوابط أصبح يُهدِّد الحقيقة ذاتها. نحن ندخل عصراً يمكن فيه لأيّ شخص أن يخترع واقعاً جديداً في دقائق معدودة؛ واقعاً قد يدمّر سمعة، ويقلب رأيّاً عامّاً، ويثير صراعاً أو ذعراً. التحدّي اليوم ليس إيقاف الابتكار، بل ضبطه. أصبحت حماية الحقيقة مسؤوليةً جماعيةً، قبل أن نفقد قبضتنا على الواقع إلى الأبد.

المصدر: العربي الجديد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى