ما هو التزييف العميق “Deepfake” وما مدى خطورته؟

صورة تعبييرية عن الديب فيك

يعد التزييف العميق (Deepfake) أكثر استخدامات الذكاء الاصطناعي إثارة للقلق ويستخدم في الجرائم والإرهاب ، وفقًا لتقرير جديد صادر عن كلية لندن الجامعية.

حدد فريق البحث لأول مرة 20 طريقة مختلفة يمكن استخدامها من قبل المجرمين على مدى السنوات ال 15 المقبلة، ثم طلبوا من 31 خبيراً في الذكاء الاصطناعي تصنيفهم حسب المخاطر، بناءً على احتمال تعرضهم للضرر ، والأموال التي يمكنهم جنيها ، وسهولة استخدامها ، ومدى صعوبة إيقافهم.

مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي (Deepfakes) لأشخاص حقيقيين يفعلون ويقولون أشياء خيالية – حصلت على المركز الأول لسببين رئيسيين.

  1. من الصعب تحديدها ومنعها. لا تزال طرق الاكتشاف الآلي غير موثوقة كما أن التزييف العميق يتحسن أيضًا في خداع عيون البشر!!أدت منافسة حديثة على Facebook لاكتشافها باستخدام الخوارزميات إلى اعتراف الباحثين بأنها “مشكلة لم يتم حلها إلى حد كبير”.
  2. يمكن استخدام تقنية التزييف العميق في مجموعة متنوعة من الجرائم والأفعال السيئة ، من تشويه سمعة الشخصيات العامة إلى خداع الأموال من الجمهور عن طريق انتحال شخصية الناس.

في هذا الأسبوع فقط ، انتشر مقطع فيديو مزيف لنانسي بيلوسي في حالة سكر (ثملة) على ما يبدو للمرة الثانية ، بينما ساعد الصوت المزيف العميق المجرمين على سرقة ملايين الدولارات.

بالإضافة إلى ذلك ، يخشى الباحثون أن يجعل التزييف العميق الناس لا يثقون في الأدلة الصوتية والمرئية – وهو ضرر مجتمعي بحد ذاته.

قال مؤلف الدراسة الدكتور ماثيو كالدويل (Matthew Caldwell) إنه كلما تحركت حياتنا على الإنترنت ، زادت المخاطر:

على عكس العديد من الجرائم التقليدية، يمكن مشاركة الجرائم في المجال الرقمي بسهولة، وتكررها، وحتى بيعها، مما يسمح بتسويق تقنيات إجرامية وتقديم الجريمة كخدمة. وهذا يعني أن المجرمين قد يكونون قادرين على الاستعانة بمصادر خارجية للجوانب الأكثر صعوبة في الجرائم القائمة على الذكاء الاصطناعي (AI-based crime).

حددت الدراسة أيضًا خمسة تهديدات رئيسية أخرى لجرائم الذكاء الاصطناعي: المركبات ذاتية القيادة كأسلحة ، والتصيد بالرمح المدعوم بالذكاء الاصطناعي (AI-powered spear phishing) ، وجمع البيانات عبر الإنترنت للابتزاز ، والهجمات على الأنظمة التي يتحكم فيها الذكاء الاصطناعي ، والأخبار المزيفة.

لكن الباحثين لم ينزعجوا كثيرًا من “روبوتات السطو” (burglar bots) التي تدخل المنازل من خلال صناديق البريد وأغطية القطط ، حيث يسهل التقاطها.

كما أنهم صنفوا المطاردة بمساعدة الذكاء الاصطناعي على أنها جريمة ذات أهمية منخفضة – على الرغم من كونها ضارة للغاية بالضحايا – لأنها لا يمكن أن تعمل على نطاق واسع.

مثال عن التزييف العميق يظهر فيه خطاب لبعض الرؤساء تم انتاجه بتقنية الـ Deepfake :

أضف تعليق