كيف تساهم تقنية Deepfakes في توليد نوع جديد من الجرائم الإلكترونية

لقد أصبح صنع مقاطع فيديو مزيفة أسهل، كما أصبحت أكثر إقناعًا من أي وقت مضى. يستخدم مجرمو الإنترنت مقاطع فيديو مزيفة ومسموعة لابتزاز الأموال من الضحايا من خلال إضافة “أصالة مزيفة” موثوقة إلى عمليات الاحتيال التي يقومون بها.




تحرير معتقدات الناس

منذ أن قال أول شخص “الكاميرا لا تكذب أبدًا”، كان هناك أشخاص يحاولون إثبات العكس. استخدم المصورون المبدعون في أواخر القرن التاسع عشر حيلًا بسيطة لإنشاء صور مزيفة.

حظيت مزحة “الشخص في زجاجة” بلحظة من الشعبية. التقط صورة لنفسك في وضع مناسب. قم بتحميض الصورة وطباعتها بالحجم المناسب. قم بقص صورتك، وضعها في زجاجة زجاجية، ثم التقط صورة أخرى لنفسك وأنت تحمل الزجاجة. ها أنت ذا، لديك صورة لنفسك وأنت تحمل زجاجة تحتوي على نسخة مصغرة منك.

بالطبع، يمكننا اليوم القيام بهذا النوع من الأشياء باستخدام برنامج Photoshop أو GIMP. ونحن ندرك أنه باستخدام المهارات والإبداع الكافيين، يمكن للخبراء إنشاء صور تبدو حقيقية تمامًا ولكنها تحتوي على عناصر مستحيلة. ومن المفارقات أن هذا الوعي قد يؤدي بنا إلى الشك في الصور الأصلية. فالصورة المذهلة التي تلتقط حدثًا لا يحدث إلا مرة واحدة في العمر دائمًا ما تُستقبل بالسؤال “هل هذا حقيقي؟”


من الواضح أن صورة شخص مصغر في زجاجة مزيفة. ولكن إذا غيرت الصورة بحيث تظهر شيئًا قد يكون حقيقيًا ويبدو حقيقيًا أيضًا، فسيصدقها بعض الناس.

لم يعد الأمر يتعلق بالخدع البصرية، بل يتعلق باستغلال الصور لأغراض عسكرية، وهندسة اجتماعية.

أفلام متحركة وناطقة

بمجرد أن أصبحت الأفلام السينمائية مشهدًا اجتماعيًا، استخدم صناع الأفلام الرائدون المؤثرات الخاصة والحيل لحل مشكلتين. كانت الأولى تصوير شيء يمكن أن يحدث بالفعل ولكن من غير العملي تصويره، والثانية تصوير شيء مستحيل تمامًا. أدى حل هذه المشكلة إلى ولادة صناعة المؤثرات الخاصة الضخمة التي لدينا اليوم.

أدى إضافة الصوت والحوار إلى زوال الأفلام الصامتة وصعود الأفلام الناطقة. بعض نجوم السينما الصامتة لم يتم الانتقاللم يكن صوتهم مناسبًا، أو لم يتمكنوا من إلقاء الحوارات بإقناع وفي الوقت المناسب. قبل أن يصبح الدبلجة أمرًا شائعًا، لم يكن هناك حل آخر سوى اختيار شخص آخر.


اليوم، نقوم بالتلاعب بأصوات الممثلين أيضًا. هل غنى جورج كلوني حقًا في فيلم O Brother, Where Art Thou؟ لا، كان ذلك دان تيمينسكيصوته تمت مزامنة الشفاه بواسطة الكمبيوتر مع صورة جورج كلوني المتحركة.

إن الأنظمة القادرة على القيام بهذا النوع من التلاعب بالصوت والصورة ضخمة ومكلفة، وتحتاج إلى خبراء لتشغيلها. ولكن من الممكن تحقيق نتائج نهائية مقنعة باستخدام برامج بسيطة وسهلة الحصول عليها ويمكن تشغيلها على أجهزة كمبيوتر معقولة التكلفة.

قد لا يكون الفيديو والصوت بجودة هوليوود، ولكن من المؤكد أنهما جيدان بما يكفي للسماح لمجرمي الإنترنت بإضافة صور ومقاطع فيديو وصوت مزيفة إلى ترسانة الأسلحة الخاصة بهم.

التزييف العميق

تم صياغة مصطلح التزييف العميق لوصف اللقطات الرقمية التي يتم التلاعب بها بحيث يرتدي شخص ما في الفيديو وجه شخص آخر بالكامل. يأتي الجزء “العميق” من الاسم من “التعلم العميق”، أحد التقنيات المستخدمة في هذا المجال. مجالات التعلم الآلي للذكاء الاصطناعييستخدم التعلم الآلي خوارزميات متخصصة وكميات كبيرة من البيانات لتدريب الشبكات العصبية الاصطناعية لتحقيق هدف ما. وكلما زادت البيانات التي لديك لتدريب النظام بها، كانت النتائج أفضل.


إن تزويد النظام بعدد كافٍ من صور شخص ما سيجعله قادرًا على فهم ملامح وجه ذلك الشخص جيدًا إلى الحد الذي يجعله قادرًا على تحديد الشكل الذي قد يبدو عليه عند عرض أي تعبير من أي زاوية. ومن ثم، يمكنه إنشاء صور لوجه ذلك الشخص تتوافق مع جميع تعبيرات وأوضاع رأس الشخص في الفيديو.

عندما يتم إدراج هذه الصور في الفيديو، فإن الوجه الجديد يتطابق تمامًا مع حركة الفيديو. ولأن تعبيرات الوجه المصطنعة ومزامنة الشفاه وحركات الرأس هي نفسها التي يرتديها الشخص الأصلي عندما تم تصوير الفيديو الحقيقي، فإن النتيجة يمكن أن تكون مزيفة للغاية.

ذات صلة: ما هو Deepfake، وهل يجب أن أشعر بالقلق؟

ينطبق هذا بشكل خاص عندما يكون شكلا الوجه متشابهين. خرائط التزييف العميق المعروفة وجه ليندا كارتر على وجه جال جادوت جسد يجمع بين نسختين من Wonder Woman. ومن الأمثلة البارزة الأخرى باراك أوباما وتوم كروز. يمكنك العثور عليهما – والعديد من الأمثلة الأخرى – على YouTube.


يمكن تطبيق نفس تقنيات التعلم الآلي على الصوت. باستخدام عينات صوتية كافية، يمكنك تدريب شبكة عصبية اصطناعية لإنتاج صوت عالي الجودة يكرر الصوت الذي تم أخذ العينات منه. ويمكنك جعله يقول أي شيء تريده. هل تريد سماع Notorious BIG وهو يغني بعض أغانيه؟ أهوال هوارد لافكرافت الغريبةمرة أخرى، موقع YouTube هو المكان المناسب. في الواقع، سوف تسمع شيئًا يشبه كثيرًا أغنية Notorious BIG التي يؤديها Lovecraft.

وبعيداً عن الأغاني المجنونة وأفلام الصيف الناجحة، فإن هذه التقنيات تجد استخدامات عملية في أماكن أخرى. وصف Descript هو محرر صوت وفيديو ينشئ نصًا مكتوبًا من تسجيلك. قم بتحرير مستند النص وسيتم إجراء التغييرات على التسجيل. إذا لم تعجبك الطريقة التي قلت بها شيئًا ما، فما عليك سوى تحرير النص. سيقوم Descript بتلخيص أي صوت مفقود من صوتك. يمكنه تلخيص صوت من دقيقة واحدة فقط من التسجيل الصوتي الأصلي.


أنشأت قناة MBN التلفزيونية الكورية مقطع فيديو مزيفًا كيم جو ها، مذيعة الأخبار الخاصة بهمإذا انتشرت قصة من المعتاد أن تتعامل معها كيم جو ها عندما لا تكون في الاستوديو، فإن تقنية التزييف العميق هي التي تقوم بذلك.

ذات صلة: 3 تطبيقات سهلة لتزييف نفسك في مقاطع فيديو وصور GIF

الجرائم الإلكترونية بدأت بالفعل

إن مجرمو الإنترنت سريعون دائمًا في الانقضاض على أي وسيلة يمكنهم استخدامها لتحسين أو تحديث هجماتهم. لقد أصبحت عمليات التزوير الصوتي جيدة جدًا لدرجة أنها تتطلب محلل طيف لتحديد عمليات التزوير بشكل قاطع، وتم تطوير أنظمة الذكاء الاصطناعي لتحديد مقاطع الفيديو المزيفة. إذا كان التلاعب بالصور يسمح لك بتسليحها، فتخيل ما يمكنك فعله باستخدام عمليات التزوير الصوتي والفيديو التي تكون جيدة بما يكفي لخداع معظم الناس.

لقد حدثت بالفعل جرائم تتضمن صورًا ومقاطع صوتية مزيفة. ويتوقع الخبراء أن الموجة التالية من جرائم التزييف العميق سوف تتضمن مقاطع فيديو. وربما كان “الوضع الطبيعي الجديد” الذي يعتمد على العمل من المنزل ومكالمات الفيديو بمثابة بداية لعصر جديد من جرائم التزييف العميق.


هجمات التصيد الاحتيالي

تتضمن هجمات التصيد عبر البريد الإلكتروني إرسال بريد إلكتروني إلى الضحية، مدعيًا أن لديك مقطع فيديو له في موقف محرج أو محرج. ما لم يتم استلام الدفع بعملة البيتكوين، فسيتم إرسال اللقطات إلى أصدقائه وزملائه. خوفًا من وجود مثل هذا الفيديو، يدفع بعض الأشخاص الفدية.

تتضمن النسخة المزيفة من هذا الهجوم إرفاق بعض الصور بالبريد الإلكتروني. ويُزعم أنها صور مكبرة من الفيديو. وقد تم إدراج وجه الضحية – الذي يملأ معظم الإطار – رقميًا في الصور. وبالنسبة لغير المطلعين، فإن هذا يجعل تهديد الابتزاز أكثر إقناعًا.

مع تزايد كفاءة أنظمة التزييف العميق، يمكن تدريبها باستخدام مجموعات بيانات أصغر حجمًا. وغالبًا ما توفر حسابات وسائل التواصل الاجتماعي ما يكفي من الصور لاستخدامها كقاعدة بيانات تعليمية.


هجمات التصيد الصوتي

تستخدم هجمات التصيد عبر البريد الإلكتروني مجموعة متنوعة من التقنيات لتوليد شعور بالإلحاح لمحاولة دفع الناس إلى التصرف على عجل، أو تلعب على رغبة الموظف في أن يُنظر إليه على أنه مفيد وفعال. تُسمى هجمات التصيد التي تُجرى عبر الهاتف هجمات التصيد الصوتي. وهي تستخدم نفس تقنيات الهندسة الاجتماعية.

تلقى محام في الولايات المتحدة مكالمة هاتفية من ابنه، الذي بدا عليه الضيق الشديد. وقال إنه صدم امرأة حاملاً في حادث سيارة، وهو الآن قيد الاحتجاز. وأخبر والده أن يتوقع مكالمة من محامي عام لترتيب كفالة قدرها 15 ألف دولار.

لم تكن المكالمة من ابنه، بل كانت من المحتالين الذين يستخدمون نظام تحويل النص إلى كلام الذي دربوه باستخدام مقاطع صوتية لابنه لإنشاء مقطع صوتي مزيف. لم يشكك المحامي في الأمر للحظة. بقدر ما يتعلق الأمر به، كان يتحدث إلى ابنه. بينما كان ينتظر اتصال المحامي العام، استغرق وقتًا للاتصال بزوجة ابنه ومكان عمل ابنه لإبلاغهم بالحادث. وصلت الكلمة إلى الابن الذي اتصل ليخبره أنها عملية احتيال.


ولم يكن الحظ حليفاً لأحد الرؤساء التنفيذيين في المملكة المتحدة. فقد تلقى رسالة إلكترونية مزيفة من الرئيس التنفيذي للشركة الأم الألمانية للشركة. وطلبت الرسالة دفع مبلغ 243 ألف جنيه إسترليني (حوالي 335 ألف دولار) إلى أحد الموردين المجريين في غضون ساعة. وتبع ذلك على الفور اتصال هاتفي من الرئيس التنفيذي، يؤكد فيه أن الدفع عاجل ويجب أن يتم على الفور.

يقول الضحية إنه لم يتعرف فقط على صوت رئيسه ولهجته الألمانية الخفيفة، بل تعرف أيضًا على إيقاعه وطريقة نطقه الدقيقة. لذا فقد دفع المبلغ بسعادة.

ذات صلة: التسجيلات الصوتية المزيفة: هل يستطيع أي شخص معرفة ما إذا كانت مزيفة؟

التدابير المضادة

لقد أدركت حكومة الولايات المتحدة التهديد المحتمل الذي تشكله تقنية التزييف العميق. قانون حظر التزييف العميق الخبيث لعام 2018 و ال تحديد مخرجات قانون الشبكات التنافسية التوليدية تم إنشاء قانون IOGAN كاستجابة مباشرة للتهديدات التي تشكلها تقنية التزييف العميق.


تحتاج الشركات إلى إضافة مناقشات حول التزييف العميق إلى تدريبها على التوعية بالأمن السيبراني. يجب أن يكون تدريب التوعية السيبرانية جزءًا من تدريب الموظفين الجدد ويجب تكراره بشكل دوري لجميع الموظفين.

حتى الآن، كانت الهجمات التي تم رصدها عبارة عن نسخ مصقولة من هجمات التصيد الاحتيالي والتصيد الاحتيالي المباشر. ويمكن للإجراءات البسيطة أن تساعد في اصطياد العديد من هذه الهجمات.

  • لا يجوز إجراء أي تحويل للأموال بمجرد استلام بريد إلكتروني.
  • ينبغي إجراء مكالمة هاتفية متابعة من متلقي البريد الإلكتروني إلى المرسل، وليس من المرسل إلى المتلقي.
  • يمكن تضمين عبارات التحدي التي لا يمكن للمهاجم الخارجي أن يعرفها.
  • قم بالتحقق والمراجعة المتبادلة لكل ما هو خارج عن المألوف.

أضف تعليق