النقاط الرئيسية
- يصبح المحتالون أكثر إبداعًا باستخدام المنتجات المزيفة والتعليقات الصوتية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي لجذب المشترين غير المنتبهين.
- يستخدم المحتالون في تطبيقات المواعدة روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لاستهداف الضحايا؛ وتصبح المراجعات المزيفة أسهل مع نماذج اللغة الكبيرة.
- مع تحسن تكنولوجيا الذكاء الاصطناعي، سيكون من الصعب التمييز بين المحتوى الحقيقي والمزيف؛ لذا يجب عليك دائمًا البحث قبل الشراء عبر الإنترنت.
ينطبق مصطلح “الاحتيال” على كل شيء بدءًا من الهجوم المستهدف المعقد وحتى الإعلانات المشبوهة التي تظهر قبل تشغيل الفيديو على موقع البث المفضل لديك. والخبر السيئ هو أن هندسة هذه الاحتيالات أصبحت أسهل.
ديمقراطية الصور المزيفة
هناك خط رفيع ومميز بين الاحتيال والرسائل غير المرغوب فيها، ولكن المجالين يتداخلان بانتظام. وينطبق هذا بشكل خاص عندما يتعلق الأمر بالإعلان عبر الإنترنت، سواء كنت تتصفح الويب أو تتنقل عبر وسائل التواصل الاجتماعي. لا يوافق المعلنون على كل إعلان يعرضونه، بل يعتمدون بدلاً من ذلك على تقارير المستخدمين للتخلص من الجهات السيئة.
إذا كنت تقضي الكثير من الوقت على الإنترنت، فمن المحتمل أنك تمر على عدد لا يحصى من الإعلانات المشبوهة كل يوم. ولعل أكثر هذه الإعلانات إثارة للاهتمام هي المنتجات التي لا وجود لها والتي هي في الواقع منتجات مصنعة يدويًا أو باستخدام الذكاء الاصطناعي التوليدي مثل DALL-E أو Midjourney.
إن إغراء المشترين المحتملين بالمنتجات المزيفة ليس بالأمر الجديد، ولكن في الماضي، كنت بحاجة إلى الرؤية، وبعض مهارات الفوتوشوب، وقدر من وقت الفراغ. ومع ظهور مولدات النصوص إلى الصور، يمكنك قضاء القليل أو الكثير من الوقت حسب رغبتك في إدخال المطالبات في مولد الصور حتى تحصل على النتائج التي تبحث عنها. السماء هي الحد عندما يتعلق الأمر بأنواع المنتجات التي يمكنك ابتكارها.
في أبريل 2024 سنوبس تم الإبلاغ عنه لقد انتشرت على مواقع التواصل الاجتماعي أعداد كبيرة من عمليات الاحتيال التي تعتمد على تقنية “Cat’s Eye Dazzle”. وقد تضمنت عملية الاحتيال إنشاء زهور مزيفة تشبه القطط، لجذب المستخدمين على مواقع التواصل الاجتماعي مثل Facebook. وقد ظهرت قوائم eBay الخاصة بالبذور، بينما استخدم “بائعون” آخرون بوابات التسوق ذاتية الاستضافة لصرف الأموال.
بالنسبة للبعض، فإن حقيقة أن هذه الزهور مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي واضحة على الفور. لا توجد عمليات احتيال مماثلة أخرى بعيدة المنال. أنشأت قناة Atomic Shrimp على YouTube فيديو توثيق هذه الظاهرة، واستكشاف قوائم تبدو أكثر منطقية للورود الزرقاء وعباد الشمس “الحقيقية”، والتي لا وجود لها على الإطلاق.
الزهور التي تشبه القطط والنباتات ذات الألوان المستحيلة ليست سوى مثالين على عمليات الاحتيال التي يبدو أنها أوقعت مئات بل آلاف الأشخاص في الفخ. استغرق إنشاء هذه الصور بضع ثوانٍ، وبضع ثوانٍ أخرى لنشرها على فيسبوك.
أصوات الذكاء الاصطناعي تضفي مصداقية على الفيديو
ربما تكون على دراية تامة بصعود ميزات تحويل النص إلى صوت، حيث تسهل منصات التواصل الاجتماعي مثل TikTok إنشاء تعليق صوتي يبدو طبيعيًا ولكن من السهل أيضًا فهمه. وبحلول الوقت الحالي، أصبح صوت “سيدة TikTok” مرتبطًا بعلامة TikTok التجارية بقدر ما هو أداة مفيدة لمنشئي المحتوى.
لكن أصوات الذكاء الاصطناعي أكثر من ذلك بكثير. يمكن لـ ChatGPT إنشاء تعليقات صوتية إذا دفعت مقابل المستوى المتميز، والخدمات مثل إليفن لابس تتوفر مستويات مجانية. لقد رأيت قنوات يوتيوب أصغر يديرها منشئو محتوى لا يشعرون بالراحة عند التحدث أمام الكاميرا، فيلجأون إلى الأصوات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. قد يكون هذا الأمر مزعجًا، لكنه على الأقل قائم على نوايا حسنة.
إن الفكرة الرئيسية هنا هي أن التعليق الصوتي يضفي مصداقية على الفيديو. فمنذ بضع سنوات، كنت تحتاج إلى بذل الوقت والجهد أو التمويل لإضافة تعليق صوتي إلى الفيديو. وكنت تحتاج إلى معدات وتدريب أو ممثل صوتي مستأجر. أما الآن، فقد أصبح الأمر بسيطًا للغاية، حيث يتعين عليك كتابة نص يناسبك واختيار الصوت الذي ترغب في استخدامه.
وهذا يجعل الإعلانات الاحتيالية التي تروج لخطط الثراء السريع والمنتجات التي يتم شحنها مباشرة أكثر مصداقية. وإذا بدا الإعلان وكأنه حقيقي، فمن المحتمل أن تميل إلى وضع المزيد من الثقة في المنتج. والأشخاص الذين يديرون هذه الإعلانات يعرفون هذا، ولهذا السبب حدثت طفرة في هذه الممارسة على مدار العام الماضي.
في الوقت الحالي، ليس من الصعب للغاية التعرف على التعليقات الصوتية التي تم إنشاؤها بواسطة الذكاء الاصطناعي. قد تبدو الانحرافات والنطق آلية بعض الشيء، كما أن الإيقاع الطبيعي للكلام البشري ليس موجودًا تمامًا. استعد، لأن هذه الأدوات ستتحسن ولن تتمكن في النهاية من معرفة الفرق.
المحتالون في تطبيقات المواعدة يوسعون نطاقهم
إن الإغراء بالمنتجات المزيفة والتعليق الصوتي الآلي أمر مختلف، ولكن ماذا عن الاحتيال الذي يستهدفك شخصيًا؟ هذا هو بالضبط ما يحدث في مجال المواعدة عبر الإنترنت على نطاق واسع، وذلك بفضل قوة نماذج اللغة الكبيرة التي يمكنها التحدث مثل الأشخاص الحقيقيين (حسنًا، قريبة بما فيه الكفاية).
باستخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي، يستطيع المحتالون نشر شبكة واسعة لاصطياد ضحاياهم باستخدام برامج يمكنها بفعالية إبقاء المحادثة قائمة لفترة كافية لجذب انتباه شخص ما. وهناك عدة طرق يتم بها استخدام هذا، وكلها تبدو متطفلة.
يستخدم البعض برامج الدردشة الآلية لإرسال رسائل إلى أعداد هائلة من الأشخاص، ثم متابعة هؤلاء الأشخاص على أمل مقابلة شخص يحبونه حقًا. في أوائل عام 2024، كان هناك عدد لا يحصى من التقارير رجل التقى بزوجته باستخدام هذه التقنية. وسواء كنت تصدق ذلك أم لا، فهناك عدد كبير من التطبيقات والخدمات المحمولة التي تعدك بالتحدث مع شريكات محتملات لك (مقابل رسوم بالطبع).
تتخذ الأمور منعطفًا أكثر شرًا عندما تُستخدم هذه الأدوات للعثور على أهداف لعمليات الاحتيال المالية. لطالما استغل المحتالون عبر الإنترنت الرغبة البشرية الأساسية في الرفقة في محاولة لاستخراج الأموال من أهدافهم. الآن يمكنهم استخدام برامج الدردشة الآلية للعمل لصالحهم، وتولي الأمر عندما يشعرون بالحاجة إلى ذلك.
اقترن هذا بمولد صور الذكاء الاصطناعي الذي يتيح لك الوصول إلى عدد لا حصر له من الوجوه الجميلة الأصلية، ولن يحتاج المحتالون بعد الآن إلى سرقة صور الملف الشخصي لشخص آخر على مواقع المواعدة.
فيديو الذكاء الاصطناعي في الأفق
لم تكن عملية تحويل النص إلى فيديو مقنعة متاحة على نطاق واسع في وقت كتابة هذه المقالة، ولكن مع ظهور أدوات مثل OpenAI SORA في الأفق، فمن المتوقع أن تصبح قوة لا يستهان بها. فبمجرد توجيه الأمر، يمكن لأداة OpenAI إنشاء صور متحركة واقعية المظهر (على الرغم من أنه إذا نظرت بعناية، يمكنك اكتشاف العيوب).
إن مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي لن تؤدي إلا إلى تفاقم المشاكل التي تفرضها المحتويات الأخرى التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. ومن خلال استخدام الذكاء الاصطناعي المتطور باستمرار، ليس من الصعب أن نتخيل مستقبلًا حيث يمكنك إنشاء صور مزيفة للمنتجات، ومقاطع فيديو لهذا المنتج يتم استخدامه في مواقع ذات صلة من قبل أشخاص “حقيقيين”، وتعليق صوتي للفيديو يمكنك استخدامه للإعلان عنه.
إذا كنت تشعر بقدر كبير من روح المبادرة، فيمكنك استخدام نموذج لغوي كبير لتعزيز مكانة منتجك…
الذكاء الاصطناعي قادر حتى على تزييف التقييمات
إن المراجعات المزيفة ليست بالأمر الجديد. فقد رأيناها جميعًا ووقع الكثير منا في فخها (سواء كنا نعرف ذلك أم لا). ولكن حتى بضع سنوات مضت، كانت المراجعات المزيفة تتطلب بعض الجهد. ومع ظهور نماذج اللغة الكبيرة، أصبحت المراجعات المزيفة قادرة على كتابة نفسها حرفيًا على نطاق واسع.
إن إساءة استخدام نماذج اللغة الكبيرة لتوليد المراجعات والترويج للمنتجات أو الشركات أمر واحد، ولكن التكنولوجيا تعمل في الاتجاهين. ماذا عن استخدام هذه التكنولوجيا لصياغة مراجعات تنتقد بشكل غير عادل منتجًا منافسًا؟ لم يكن من السهل أبدًا إنشاء مقال سلبي، حتى لو كان عليك نسخه ولصقه بنفسك.
إذا أضفت مراجعات تم إنشاؤها بواسطة الذكاء الاصطناعي إلى عمليات الاحتيال التقليدية المتعلقة بتنظيف الأسنان، فستحصل على مصداقية علامة “الشراء المُتحقق”. في النهاية، الأمر متروك لأصحاب المنصات لمكافحة هذا موجة جديدة من المحتوى المضلّل على الإنترنت.
لا يمكن للأمور أن تتحسن إلا (أسوأ)
ستتحسن هذه الأدوات بمرور الوقت، مما يجعل من الصعب التمييز بين الحقيقي والخيالي. ستحتاج إلى أن تكون على دراية بالتكنولوجيا إذا كنت تريد أن تظل متقدمًا على المحتالين. إذا كنت تفهم ما هو ممكن، فستكون مسلحًا بشكل أفضل لفهم ما هو حقيقي وما هو غير حقيقي.
إن موقع Facebook مليء بشكل خاص بالصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، لذا فإن فهم كيفية اكتشاف الصور المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي يعد مهارة قيمة. يجب أن تكون دائمًا حذرًا من الإعلانات عبر الإنترنت، سواء رأيتها على مواقع الويب المفضلة لديك أو على شبكة اجتماعية.
احرص دائمًا على إجراء بحثك قبل شراء أي شيء، سواء كان قطعة من التكنولوجيا أو حزمة بذور رأيتها على فيسبوك. ومن المفارقات أنه يمكنك أيضًا أن تسأل روبوت الدردشة المفضل لديك عن مصدر ادعاءاته.