أصبح من الصعب التمييز بين المحتوى الحقيقي والمزيف الذي ينتجه الذكاء الاصطناعي على منصات التواصل الاجتماعي، حيث أن الصور والفيديوهات التي تم إنشاؤها آليًا تبدو واقعية للغاية. مع هذا الكم الهائل من المحتوى الاصطناعي، ظهرت أدوات تُعرف باسم “كاشفات الذكاء الاصطناعي” التي تدعي أنها تستطيع التفريق بين المحتوى الحقيقي والمولد رقميًا من خلال تتبع علامات خفية وأخطاء تركيبية.

لكن، اختبارات أجرتها صحيفة “نيويورك تايمز” أظهرت صورة أكثر تعقيدًا، حيث أن الكثير من هذه الأدوات نجحت في رصد بعض أشكال المحتوى الاصطناعي، لكن دقتها لم تكن كافية لتوفير ثقة كاملة للمستخدمين في نتائجها. هذه النتائج تشير إلى أن هذه الأدوات قد تدعم الشكوك، لكنها لا تصلح لإصدار أحكام نهائية، مما يضع تحديات جديدة أمام المستخدمين ومدققي الحقائق في مواجهة سيل التزييف الذي اجتاح المنصات مؤخرًا.

سباق تسلح رقمي

يعتقد الخبراء أن كاشفات الذكاء الاصطناعي لن تصل أبدًا إلى دقة 100%، خصوصًا مع التطور السريع في قدرات أدوات التوليد. مايك بيركنز، أستاذ في الجامعة البريطانية في فيتنام، أشار إلى أن أدوات كشف النصوص أظهرت محدودية في موثوقيتها، حيث يوجد “سباق تسلح” مستمر بين تقنيات التوليد وتقنيات الكشف.

اختبارات الصحيفة شملت أكثر من 12 أداة ومنصة دردشة قادرة على تحليل الصور والفيديو والصوت والموسيقى، بإجمالي تجاوز ألف عملية فحص.

نتائج متفاوتة في كشف الصور

أظهرت الاختبارات أن العديد من الأدوات استطاعت كشف الصور المزيفة البسيطة، خاصة تلك التي تحتوي على وجوه بشرية وعناصر يمكن رصد اختلالاتها بسهولة. على سبيل المثال، طلب من روبوت الدردشة ChatGPT إنشاء صورة لشخصين يضحكان. ورغم أن الصورة بدت واقعية، إلا أنها احتوت على مؤشرات رقمية تدل على كونها مولدة بالذكاء الاصطناعي، لكن ChatGPT نفسه لم يتمكن من التعرف على الصورة التي أنشأها قبل لحظات. تعتمد هذه الكاشفات على التدريب باستخدام قواعد بيانات ضخمة لتتعلم كيفية رصد “البصمات الرقمية” التي تتركها أدوات التوليد.

صعوبة أكبر مع المشاهد المعقدة

الأدوات واجهت صعوبات أكبر في تحليل الصور المعقدة التي لا تحتوي على وجوه واضحة أو مؤشرات بصرية بارزة، مثل المشاهد الطبيعية أو المناظر العامة. يُحتمل أن بعض الكاشفات تم تدريبها أساسًا على التعرف إلى الوجوه لأغراض أمنية ومكافحة الاحتيال، مما يقلل من فعاليتها في حالات أخرى.

مقاطع الفيديو التهديد القادم

القلق يتزايد من مقاطع الفيديو المولدة بالذكاء الاصطناعي، خاصة بعد إطلاق أداة Sora من OpenAI، التي أدت إلى انتشار فيديوهات مزيفة دون إشارات واضحة على زيفها. عدد محدود فقط من الكاشفات قادر على تحليل الفيديو والصوت، وجاءت نتائجها متباينة. شركات متخصصة تستثمر مبالغ كبيرة لتطوير أدوات قادرة على كشف التزييف في مكالمات الفيديو المباشرة أو التسجيلات الصوتية، وسط مخاوف من استخدام نسخ صوتية مزيفة لانتحال شخصيات تنفيذية أو تنفيذ عمليات احتيال.

في بعض الحالات، نجحت الأدوات في كشف مقاطع فيديو مزيفة تتعلق بانهيارات مبان أو مشاهد درامية، لكنها أخفقت في حالات أخرى، مثل مقطع واقعي المظهر أنتج باستخدام أداة Midjourney.

الصوت المزيف الأكثر إقناعا

تقنيات توليد الصوت تطورت بسرعة، وأصبحت تنتج تسجيلات تحاكي التنفس ونبرات الصوت البشرية بدقة، وأدوات مثل ElevenLabs تعد من أبرز الأمثلة، حيث تُستخدم أصواتها في مقاطع رائجة وأحيانًا في عمليات احتيال هاتفي. استطاعت سبع من الأدوات المختبرة تحليل الصوت، وحققت منصات مثل Sensity وResemble.ai أفضل النتائج، حيث تمكنت من تحديد الأصوات المزيفة بدرجة ثقة عالية حتى بعد تعديل المقاطع.

دقة أعلى في تأكيد المحتوى الحقيقي

أحد المخاطر المحتملة لكاشفات الذكاء الاصطناعي هو تصنيف محتوى حقيقي على أنه مزيف، مما قد يثير بلبلة في الأحداث الإخبارية العاجلة. مع ذلك، الاختبارات أظهرت أن الأدوات كانت أفضل في تأكيد صحة الصور والفيديوهات الحقيقية مقارنة بكشف المزيف منها. لكن التحدي الأكبر ظهر في الصور الحقيقية التي جرى تعديلها جزئيًا باستخدام الذكاء الاصطناعي، ففي إحدى الحالات، أخفقت معظم الأدوات في اكتشاف إضافة دخان إلى صورة حقيقية، بينما استطاعت شركة Copyleaks، باستخدام نموذج تجريبي جديد، تحديد الجزء المعدل بدقة مع الإشارة إلى أن بقية الصورة أصلية.

النتائج تكشف أن أدوات كشف الذكاء الاصطناعي تمثل وسيلة مساعدة مهمة، لكنها ليست حكما نهائيًا على صحة المحتوى، ومع استمرار تطور تقنيات التوليد، يبدو أن معركة “الحقيقي مقابل الاصطناعي” ستظل مفتوحة في المستقبل، مما يستدعي الجمع بين أدوات الكشف والتحقق الصحفي التقليدي لضمان دقة المعلومات.