مقالات

فخ “التريند” : عندما تتحول صورنا إلى سلاح ضدنا بمباركة الصحافة!

بقلم د.رضوى عبد اللطيف
خبيرة صحافة الذكاء الاصطناعي والإعلام الرقمي
لم أكن قد تجاوزت بعد تريند ” افتتاح المتحف المصري الكبير ” ،الذي تهافت فيه المصريون لتقديم صورهم لنماذج الذكاء الاصطناعي للحصول على نسخة لهم بمظهر فرعوني، حتى اجتاحت منصات التواصل الاجتماعي بالأمس موجة جديدة من “التريندات” التي تدعو المستخدمين لرفع صورهم الشخصية إلى نماذج ذكاء اصطناعي لإنشاء صور خيالية تعكس “ما يعرفه الذكاء الاصطناعي عنهم”. وبحماس شديد، سارع الملايين لمشاركة ملامحهم مع خوارزميات مجهولة، متجاهلين الثمن الباهظ الذي قد يدفعونه من خصوصيتهم وأمنهم الرقمي.
صحافة “اللاوعي”
المفارقة المؤلمة لم تكن في اندفاع الجمهور فحسب، بل في السقوط المهني الذي لا يغتفر، والدور الذي لعبته بعض المواقع الصحفية الكبرى. فبدلا من أن يكون الصحفي هو “حائط الصد” والمصدر الموثوق للتوعية بمخاطر الأمن السيبراني وتعزيز ثقافة الحفاظ على الخصوصة ، تحول البعض إلى “مروجين” لهذه الكوارث. فقد نشرت منصات إخبارية كبرى تقارير بعنوان “تعرف على خطوات تحويل صورتك باستخدام الذكاء الاصطناعي”، مقدمة دليلا مجانيا للمستخدمين لتقديم بياناتهم البيومترية على طبق من ذهب لشركات الذكاء الاصطناعي الأمريكية التي لازلنا لا نعلم أين تذهب بياناتها.
هذا القصور المهني والخطأ الفادح الذي يرقى لمستوى الجريمة من وجهة نظري ، يعكس فجوة معرفية هائلة لدى الصحفيين نتيجة لجهلهم بأدوات الذكاء الاصطناعي ومخاطر الأمن الرقمي ، مما جعلهم يساهمون بشكل غير مباشر في تعريض أمن المستخدمين للخطر من أجل الحصول على المزيد من “النقرات” (Clicks). ومواكبة “الترند” ، وكأنها خدمة حيوية يبحث عنها الناس.
وإليكم الواقع المؤلم ..
بمجرد رفع صورتك، أنت لا تحصل على “تصميم جميل” فقط، بل تمنح الخوارزميات المادة الخام لإنشاء تزييف عميق لا يمكن تفرقته عن الحقيقة.
و تشير الإحصائيات الأخيرة لعام 2025 و2026 إلى التالي:
* تزايد محتوى التلاعب بالصور والفيديوهات: ارتفع عدد ملفات التزييف العميق المشاركة عبر الإنترنت من 500 ألف ملف في عام 2023 إلى ما يقدر بـ 8 ملايين ملف في مطلع عام 2025، بمعدل نمو سنوي يصل إلى 900%..
* استهداف النساء والفتيات: لا تزال الإحصائيات تشير إلى أن 98% من الفيديوهات المزيّفة “غير الأخلاقية” تستهدف النساء والفتيات، مع انتشار “بوتات” على منصات مثل تلجرام تسهل إنشاء هذه الصور بضغطة زر واحدة.
* تطور الابتزاز المالي: سجلت محاولات الاحتيال المالي المعتمدة على التزييف العميق قفزة هائلة بلغت 3000% منذ بداية نماذج الذكاء الاصطناعي التوليدي، ووصلت خسائر الشركات الكبرى بسبب هذه الهجمات إلى ملايين الدولارات.
* توقعات 2026: تتوقع مؤسسة Gartner للأبحاث أنه بحلول نهاية عام 2026، فإن 30% من الشركات لن تعتبر أنظمة التحقق بالوجه (Biometric Authentication) كافية وحدها للأمان، بسبب قدرة الذكاء الاصطناعي على اختراقها وتزييف ملامح المستخدم في “الوقت الفعلي” (Real-time).
* دقة التزييف: أثبتت اختبارات حديثة أن قدرة الإنسان العادي على كشف الفيديوهات المزيّفة عالية الجودة انخفضت لتصل إلى 24.5% فقط، مما يعني أن 3 من كل 4 أشخاص سيقعون في فخ تصديق التزييف العميق.
لماذا يجب أن تقلق؟
الذكاء الاصطناعي لا ينسى صورتك التي أعطيتها له وهنا تحدث سرقة الهوية البيومترية
فملامح وجهك هي “كلمة مرور” لا يمكنك تغييرها.
تغذية الخوارزميات: أنت تساعد في تدريب نماذج قد تستخدم مستقبلا في مراقبتك أو التلاعب بك.
الابتزاز الإلكتروني: صورتك “الكيوت” اليوم قد تكون مادة لابتزازك غدا بعد تعديلها بضغطة زر.
كلمة أخير
الوعي الرقمي لم يعد رفاهية، بل هو ضرورة للبقاء في عصر التزييف العميق . وعلى المؤسسات الصحفية أن تدرك مسؤوليتها الأخلاقية وتتوقف عن ترويج الأدوات التي تنتهك الخصوصية عن جهل، وعلى المستخدم أن يدرك أن “المجانية” في عالم التكنولوجيا تعني دائما أنك أنت “السلعة”.

مقالات ذات صلة

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى