استخدام الذكاء الاصطناعي في التلاعب بالمحتوى البصري: كيف يمكن الكشف عن الحقيقة؟
من بين أكثر التحدّيات إثارة للقلق في عصرنا الرقمي الحالي هو التلاعب بالصور والفيديوهات باستخدام تقنيات الذكاء الاصطناعي، وهي ظاهرة تُعرف باسم "التزييف العميق".
في العصر الرقمي الحالي، أصبحت التكنولوجيا جزءاً لا يتجزّأ من حياتنا اليومية، ومع هذه الثورة التقنية تأتي تحدّيات جديدة تتعلّق بمصداقيّة المعلومات والمحتوى المرئي. من بين أكثر هذه التحديات إثارة للقلق هو التلاعب بالصور والفيديوهات باستخدام تقنيات الذكاء الاصطناعي، وهي ظاهرة تُعرف باسم "التزييف العميق" أو "Deepfake".
التزييف العميق هو تقنية تعتمد على الشبكات العصبية التوليدية (GANs) لإنشاء أو تعديل محتوى مرئي بشكل يجعل من الصعب التمييز بين المحتوى الأصلي والمعدّل. وبالرغم من أنّ هذه التكنولوجيا تقدّم إمكانيات هائلة في مجالات مثل الفن والترفيه والتعليم، إلا أنّ لها جوانب مظلمة، حيث يمكن استخدامها لأغراض خبيثة مثل تزييف الفيديوهات والصور التي تُنسب إلى مشاهير أو شخصيات عامة.
من الأمثلة البارزة على هذا النوع من التلاعب هو تسريب الفيديوهات والصور الشخصية لأفراد مشهورين، حيث يتمّ استخدام الذكاء الاصطناعي لتعديل أو إنشاء محتوى يسيء إليهم أو يروّج لمعلومات زائفة. وغالباً ما يتمّ تبرير هذا النوع من الفضائح بادّعاءات بأنّ المحتوى تمّ إنشاؤه باستخدام الذكاء الاصطناعي، وهو ما يعقّد مهمة التحقّق من صحة هذا المحتوى. على الرغم من انتشار هذه الادّعاءات، إلا أنّ السؤال يظلّ قائماً: كيف يمكننا التأكّد من أن الفيديو أو الصورة المعنية قد تمّ تزييفها باستخدام الذكاء الاصطناعي؟
من المهم أن نعرف أن هناك تقنيات وأدوات متقدّمة قد تساعدنا في التمييز بين المحتوى الحقيقي والمعدّل. ولكن مع تطوّر هذه الأدوات، يواجه الباحثون والصحافيون والمحقّقون تحديات كبيرة، حيث تزداد قدرة الذكاء الاصطناعي على خلق محتوى واقعي يصعب اكتشافه. وقد يطرح هذا أيضاً تساؤلات حول كيفية حماية الأفراد من التشهير أو التلاعب في سمعتهم، خاصة إذا كانت الأدوات المتاحة للكشف عن التزييف ليست فعّالة بما فيه الكفاية.
التقنيات المستخدمة لتزوير الفيديو والصور
في السنوات الأخيرة، شهدنا تطوّراً كبيراً في تقنيات الذكاء الاصطناعي التي يمكنها تعديل الصور والفيديوهات بشكل يجعل من الصعب التمييز بين المحتوى الأصلي والمعدّل. أبرز التقنيات المستخدمة لتزوير الفيديو والصور تشمل:
1. التزييف العميق (Deepfake)
التزييف العميق هو إحدى أبرز التقنيات التي تعتمد على الذكاء الاصطناعي لإنشاء أو تعديل الفيديوهات والصور بطريقة تجعلها تبدو حقيقية. تستخدم هذه التقنية بشكل رئيسي الشبكات العصبية التوليدية المعروفة باسم Generative Adversarial Networks (GANs) لإنشاء محتوى مزيّف عالي الجودة. في هذه العملية، يتمّ تدريب نموذج الذكاء الاصطناعي على مجموعة ضخمة من الصور والفيديوهات لشخصيات معيّنة، ليتمكّن من إنشاء أو تعديل محتوى مرئي يبدو وكأنّ هذه الشخصيات هي التي تظهر فيه بالفعل.
تطبيقات التزييف العميق:
استبدال الوجوه: يمكن استبدال وجه شخص في فيديو بآخر باستخدام تقنيات التزييف العميق، كما يحدث في التطبيقات مثل "DeepFaceLab" أو "FaceSwap".
تعديل تعابير الوجه: يمكن تعديل تعابير الوجه لجعل الشخص يظهر وكأنه يقول شيئاً لم يقله في الواقع، مما يتيح نشر معلومات مضلّلة أو التشهير.
إعادة تشكيل الصوت: يمكن أيضاً استخدام الذكاء الاصطناعي لتقليد الأصوات البشرية، مما يجعل التزييف العميق أكثر إقناعاً.
2. توليد الصور والفيديوهات باستخدام الذكاء الاصطناعي (AI-Generated Content)
في السنوات الأخيرة، تمّ تطوير نماذج ذكاء اصطناعي قادرة على إنشاء محتوى مرئي بالكامل من الصفر. هذه النماذج تعتمد على تعلّم الأنماط البصرية من مجموعات ضخمة من البيانات، وتمكّنها من توليد صور وفيديوهات واقعية بناءً على أوصاف نصيّة أو معطيات معيّنة.
نماذج Generative Models (مثل GANs و VAEs): تستخدم هذه النماذج في توليد محتوى مرئي جديد، مثل صور لأشخاص أو أماكن غير موجودة في الواقع. على سبيل المثال، يمكن للنماذج مثل StyleGAN إنشاء صور لأشخاص خياليّين تبدو حقيقية جداً رغم أنها غير موجودة في الواقع.
تحسين الجودة والتفاصيل: يمكن استخدام الذكاء الاصطناعي لتحسين جودة الفيديوهات أو الصور المعدّلة، مما يجعلها تبدو أكثر احترافية وأصيلة، حتى لو كانت قد خضعت للتعديل.
3. الزراعة أو الطباعة الرقمية (Synthetic Media)
تستخدم بعض الأدوات مثل RunwayML و D-ID تقنيات الذكاء الاصطناعي لإنشاء محتوى صناعي بالكامل، مثل مقاطع الفيديو التي تحتوي على شخصيات رقمية تتحدث أو تؤدي أنشطة معيّنة، من دون أن تكون تلك الشخصيات موجودة في الواقع.
كيف يمكن التأكّد من صحة الفيديو أو الصورة؟
في ظلّ الانتشار الواسع للتقنيات التي تتيح التلاعب بالصور والفيديوهات باستخدام الذكاء الاصطناعي، أصبح من الضروري امتلاك وسائل فعّالة للتحقّق من صحة الصور والفيديوهات. يمكن أن تساعد مجموعة من الأدوات والتقنيات في تحديد ما إذا كان المحتوى قد تمّ تعديله أو تزييفه باستخدام الذكاء الاصطناعي. وفيما يلي بعض الطرق التي يمكن من خلالها التأكّد من صحة الفيديو أو الصورة:
1. التحليل البصري الدقيق
ملاحظة التفاصيل غير الطبيعية: عند النظر إلى الصورة أو الفيديو، يمكن التحقّق من بعض العلامات التي قد تشير إلى التلاعب. تشمل هذه العلامات:
التشويش أو التموّج: قد تكون هناك مناطق غير واضحة أو مشوّشة في الصورة أو الفيديو بسبب التعديلات.
الانعكاسات أو الظلال غير الطبيعية: قد تتسبّب أدوات التزييف في إنشاء ظلال أو انعكاسات غير واقعية، مثل اختلاف في اتجاهات الإضاءة.
انحناءات الوجه أو الأشكال غير الواقعية: في حالة الفيديوهات المعدّلة أو الصور التي تحتوي على وجوه، قد تظهر ملامح الوجه مشوّهة أو غير متناسقة، مثل تقوّس العينين أو الفم.
المراجعة البصرية للمؤثّرات المضافة: في بعض الأحيان، قد يكون من السهل اكتشاف إضافة مؤثّرات غير متجانسة مثل الخلفيّات أو العناصر التي تبدو غريبة أو غير ملائمة لسياق الصورة.
2. استخدام الأدوات البرمجية للكشف عن التلاعب
هناك العديد من الأدوات والبرمجيات المتخصّصة التي يمكن أن تساعد في التحقّق من صحة الفيديو والصورة:
Deepware Scanner
هذه الأداة تستخدم لتحديد ما إذا كان الفيديو تمّ تزييفه باستخدام تقنيات التزييف العميق. تعتمد على تحليل خصائص الفيديو والصورة مثل حركة الوجه والنمط الصوتي للكشف عن التلاعب.
InVID (In Video Verification) Toolkit
هذه الأداة هي مجموعة من الأدوات لتحليل الصور والفيديوهات عبر الإنترنت. يمكن استخدامها لاكتشاف التلاعب في محتوى الفيديو من خلال مقارنة الفيديو بمصادر أخرى أو تحليل أجزاء الفيديو المشتبه فيها.
FotoForensics
أداة تتيح تحليل الصور واكتشاف التلاعب فيها عبر تحليل البيانات الوصفية للصورة واستخدام خوارزميات للكشف عن التعديلات.
Microsoft Video Authenticator
وهي أداة من شركة مايكروسوفت تستخدم للكشف عن الفيديوهات المُعدّلة باستخدام التزييف العميق (Deepfake). تعتمد الأداة على تقنيات الذكاء الاصطناعي لتحليل الأجزاء المشبوهة في الفيديو وتحديد ما إذا كان قد تم تعديلها باستخدام تقنيات الذكاء الاصطناعي.
3. استخدام تقنيات تعلّم الآلة للكشف عن التزييف
نظّم الذكاء الاصطناعي للكشف عن التزييف: هناك العديد من الأدوات التي تعتمد على تقنيات تعلّم الآلة للتأكّد من صحة الصور والفيديوهات. هذه النظم تقوم بتحليل الأنماط الدقيقة في الصور والفيديوهات باستخدام تقنيات مثل:
تحليل تذبذبات الصور: بعض الأدوات تستخدم الشبكات العصبية الاصطناعية لتحديد التذبذبات أو التشويش الذي يحدث عند إجراء تعديلات على الصور والفيديوهات.
الكشف عن الإشارات الصوتية غير الطبيعية: في حالة الفيديوهات المعدّلة باستخدام الذكاء الاصطناعي، يمكن للأدوات استخدام الذكاء الاصطناعي لتحليل الصوت في الفيديو والكشف عن أيّ تلاعب غير طبيعي.
علاوة على ذلك، تساهم منصات البحث العكسي والبرمجيات المتطوّرة لتحليل الوجوه وحركاتها في تأكيد مصداقية المحتوى. في النهاية، يتطلّب الأمر دمج هذه الأدوات والطرق المختلفة لضمان التحقّق من صحة الفيديو والصورة بشكل دقيق وفعّال، مما يساعد في مكافحة التلاعب الإعلامي والحفاظ على مصداقية المعلومات.