صعود الذكاء الاصطناعي يؤدي إلى زيادة عمليات الاحتيال على وسائل التواصل الاجتماعي

إن صعود الذكاء الاصطناعي لديه القدرة على تحويل العديد من جوانب حياتنا. ومع ذلك، فإن هذه التكنولوجيا القوية تفرض أيضًا تحديات جديدة، وخاصة في مجال الاحتيال عبر وسائل التواصل الاجتماعي. إذا لم تكن لديك عيون ثاقبة وآذان حادة وقليل من التفكير النقدي، فقد ينتهي بك الأمر إلى الوقوع ضحية.




إذا كنت تتساءل عن نوع الاحتيال الذي أتحدث عنه، فتابع القراءة. سأشاركك بعضًا من أكثر عمليات الاحتيال شيوعًا المتعلقة بالذكاء الاصطناعي التي رأيتها بنفسي وسمعت عنها من آخرين تعرضوا لها.


أثناء تصفحك لفيسبوك ومنصات التواصل الاجتماعي الأخرى، من المحتمل أن تلاحظ إعلانات حول أدوات الذكاء الاصطناعي. ورغم أن بعض هذه الإعلانات أصلية وتتعلق بأدوات حقيقية، فإن الكثير منها عبارة عن عمليات احتيال تحاول الترويج لأحصنة طروادة والفيروسات لإصابة جهازك. وتستهدف بعض هذه الإعلانات الاحتيالية أدوات الذكاء الاصطناعي المعروفة مثل ChatGPT وGemini وMicrosoft Copilot بشكل مباشر لتبدو أكثر مصداقية.

على سبيل المثال، خذ الإعلان أدناه حول نموذج Sora AI من OpenAI.

صفحة فيسبوك مزيفة تدعي أنها Sora من OpenAI وتروج لأداة ذكاء اصطناعي مزيفة


لم يتم إطلاق Sora للجمهور حتى كتابة هذه السطور. ومع ذلك، تمامًا مثل هذا الإعلان، كلما أعلنت شركة عن أداة ذكاء اصطناعي جديدة، وحصلت على بعض الزخم، تتصرف بعض الصفحات الاجتماعية وكأنها تروج لهذه الأدوات بينما في الواقع تحاول خداعك. في بعض الأحيان، ستجد صفحات لا تنتحل صفة الشركة نفسها بل جهات خارجية تروج لأدوات الذكاء الاصطناعي. والتقنية متشابهة تمامًا. إليك واحدة وجدتها في اليوم الآخر.

صفحة فيسبوك مزيفة تروج لتقنية Sora video AI من OpenAI ولم يتم إصدارها بعد

ومن الأمثلة الشائعة الأخرى عندما تتلقى أي من أدوات الذكاء الاصطناعي تحديثًا رئيسيًا. لذا، تقوم هذه الصفحات المزيفة بإنشاء إعلانات مرتبطة بالتحديث وتطلب منك تنزيل أحدث إصدار من الأداة. وإليك مثال على ذلك.


صفحة وهمية على الفيسبوك تروج لبرامج خبيثة متنكرة في صورة برنامج Gemini AI محدث جديد

والأمر الأكثر إثارة للقلق هو أن بعض الأشخاص يقعون في فخ هذه الاحتيالات. ويشير التفاعل مع مثل هذه الإعلانات إلى ذلك. فبمجرد تنزيل “البرنامج” المقدم وفك ضغطه وتثبيته، فإنك تقوم بتثبيت برامج ضارة على جهازك. ومن المحتمل أن يتمكن المحتال من الوصول إلى نظامك بالكامل، بما في ذلك بيانات اعتماد وسائل التواصل الاجتماعي وغيرها من المعلومات الحساسة.

احتيال ملف تعريف اجتماعي تم إنشاؤه بواسطة الذكاء الاصطناعي

صورة من الملف الشخصي على Instagram لـ Liam Nikuro، وهو مؤثر ذكاء اصطناعي غير موجود في الحياة الواقعية


في حين يحاول المحتالون استغلال بياناتك من خلال الإعلانات المرتبطة بالذكاء الاصطناعي، فإن هناك تهديدًا آخر ناشئًا يتضمن إنشاء ملفات تعريف وهمية تمامًا على وسائل التواصل الاجتماعي. كان هناك وقت اعتاد فيه الناس على إنشاء برامج روبوتية لأغراض المتابعة والتفاعل. ولكن يمكنك التعرف عليها بسهولة. بفضل قدرات إنشاء الصور بالذكاء الاصطناعي، يمكن لأي شخص إنشاء صور واقعية للبشر على نطاق واسع.

الآن لدينا مؤثرون من الذكاء الاصطناعي، بشر افتراضيون غير موجودين، لديهم آلاف المتابعين. ورغم أن هذا قد لا يبدو سيئًا للوهلة الأولى، إلا أن الأشخاص الأشرار يمكنهم استخدام هذه الفكرة لخداع الآخرين. تخيل شركة مكملات غذائية تستخدم مؤثري الذكاء الاصطناعي هؤلاء للترويج لمنتجاتها الخطيرة. سوف يقع الناس في فخ المؤثرين هذا ويشترونهم. يمكن لبعض الشركات أن تذهب إلى أبعد من ذلك وتولد صورًا قبل وبعد لإظهار فعالية منتجاتها. يعد الإنتاج الضخم للشهادات المزيفة استخدامًا آخر معقولًا لملفات تعريف الذكاء الاصطناعي على وسائل التواصل الاجتماعي.


يمكن أيضًا تصميم هذه الملفات الشخصية التي تم إنشاؤها بواسطة الذكاء الاصطناعي للمشاركة في محادثات تبدو حقيقية، وبناء علاقات ودية مع أشخاص ساذجين. وهذا أمر خطير بشكل خاص في سياق عمليات الاحتيال الرومانسية، حيث يستغل المحتالون نقاط الضعف العاطفية لاستخراج الأموال أو المعلومات الشخصية.

احتيال انتحال الشخصية

يأخذ هذا النوع من الاحتيال ملفات التعريف الاجتماعية التي تم إنشاؤها بواسطة الذكاء الاصطناعي إلى المستوى التالي. لا يتوقف المحتالون عند إنشاء ملفات تعريف عشوائية فحسب، بل يستهدفون الأشخاص الحقيقيين ويولدون ملفات تعريف تتوافق مع مظهرهم وشخصيتهم. يفعلون ذلك عن طريق تغذية بيانات حقيقية عن هذا الشخص إلى نماذج الذكاء الاصطناعي. المشاهير وشخصيات الإنترنت هم أكبر ضحايا هذا.


يستخدم المحتالون الذكاء الاصطناعي لتطوير انتحال مقنع بشكل ملحوظ لأشخاص حقيقيين. قد يستخدمون صورًا مزيفة وصورًا تم إنشاؤها بواسطة الذكاء الاصطناعي لشخصيات شهيرة أو مؤثرين أو حتى أصدقائك وعائلتك. ثم يتم استخدام هذه الانتحالات لكسب ثقتك واستغلالك ماليًا وعاطفيًا. يمكن لبعض تقنيات الذكاء الاصطناعي استنساخ الأصوات البشرية، مما يجعل الأمر أكثر كارثية.

لا يعد هذا بالضرورة احتيالًا خاصًا بأدوات الذكاء الاصطناعي. ومع ذلك، نظرًا لكون الذكاء الاصطناعي موضوعًا رائجًا، يمكن للمحتالين الاستفادة من اهتمامات الأشخاص بشكل أكبر. أحد أنواع الاحتيال هو الإعلان عن نوع من برامج الذكاء الاصطناعي المتطورة. فقط عندما تشتريها وتستخدمها، تدرك أنها نسخة مقلدة مزيفة من الأدوات الموجودة وتقدم وظائف ضئيلة مقارنة بما تم الإعلان عنه.


يقدم لك بعض المحتالين الآخرين اشتراكات في أدوات الذكاء الاصطناعي بسعر أرخص. ما يفعلونه في الواقع هو شراء اشتراك ومشاركة هذا الحساب مع عدة أشخاص. إذا قام شخص آخر أو البائع نفسه بتغيير بيانات اعتماد الحساب، فلن تتمكن من استخدام هذا الحساب بعد الآن. والأسوأ من ذلك، أنه في بعض الأحيان، بعد استلام أموالك، يقومون بحظرك على الفور. إذا كان هناك شيء على وسائل التواصل الاجتماعي يبدو جيدًا لدرجة يصعب تصديقها، فمن المحتمل أن يكون كذلك. شاهد هذا الإعلان أدناه للترويج لاشتراك ChatGPT Plus مقابل 8 دولارات فقط سنويًا.

مثال لصفحة فيسبوك تبيع اشتراك ChatGPT السنوي بسعر أقل

بالطبع، لدينا ما يسمى بخبراء الذكاء الاصطناعي الذين لا يبيعون لك أدوات بل منتجات مرتبطة بها. بعض المنتجات الشائعة التي يقدمونها تشمل إرشادات “مثبتة” للذكاء الاصطناعي، وأدلة الأدوات، والدورات، وأي شيء يتعلق بكسب المال باستخدام الذكاء الاصطناعي. في الواقع، تحتوي المنتجات على معلومات سطحية فقط ولا شيء خاص يستحق الدفع مقابله. ومن المضحك أنهم يكسبون المال باستخدام الذكاء الاصطناعي من خلال تعليم الناس كيفية كسب المال باستخدام الذكاء الاصطناعي.


لا يعني هذا أن بيع المنتجات المرتبطة بالذكاء الاصطناعي أمر خاطئ أو أن خبراء الذكاء الاصطناعي الحقيقيين غير موجودين. ولكن الكثير من الناس يصورون أنفسهم كخبراء في الذكاء الاصطناعي باستخدام معلومات معاد تجميعها حتى يتمكنوا من جني ثروة على حساب الآخرين.

كيف تنقذ نفسك من هذا

مع تزايد عمليات الاحتيال على وسائل التواصل الاجتماعي، يتعين عليك أن تكون أكثر يقظة في جميع تفاعلاتك عبر الإنترنت. ويشمل ذلك الأشخاص الذين تتواصل معهم، والأشخاص الذين تشتري منهم، والمعلومات التي تستهلكها. تتحسن أدوات الذكاء الاصطناعي بسرعة، ولكن لحسن الحظ، من الممكن اكتشاف الأخبار والصور وحتى مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي. يمكنك الاستعانة بالأدوات، ولكن تدريب نفسك على معرفة ما هو حقيقي وما هو غير حقيقي يمكن أن يكون مفيدًا للأيام القادمة.

كن حذرًا من الإعلانات الواردة من مصادر غير رسمية. يمكنك التعرف عليها من خلال القواعد النحوية السيئة والروابط المشبوهة والوعود غير الواقعية. عادةً ما يتم التحقق من الصفحات الرسمية للشركات (تحقق من العلامة الزرقاء على Facebook وX) ولديها سجل تفاعل جيد.


مثال لصفحة Facebook الرسمية لـ ChatGPT التي تم التحقق منها بواسطة Meta

كن حذرًا للغاية عند الشراء عبر الإنترنت. اشترِ فقط من البائعين الموثوق بهم والذين يتمتعون بسمعة طيبة. إذا وجدت شيئًا أرخص من السعر الرسمي، فلا بد أن يكون هناك شيء مريب. حاول إجراء بحثك الخاص. يتضمن هذا البحث عن المراجعات، والتحقق من موقع الشركة على الويب، والاستعانة بجهات التحقق من الحقائق.

لا تأخذ كل ما تراه على وسائل التواصل الاجتماعي على محمل الجد. إذا وجدت ملفات تعريف اجتماعية أو إعلانات أو رسائل أو أنشطة أخرى مشبوهة، فأبلغ عنها إلى منصة التواصل الاجتماعي. يساعد هذا شركات وسائل التواصل الاجتماعي على تحديد عمليات الاحتيال وإزالتها بشكل أسرع.


مع استمرار تطور أدوات الذكاء الاصطناعي، يجب أن نكون أكثر حذرًا في العالم الإلكتروني. ستكون هناك أبواب لفرص جديدة كما ستكون هناك تحديات جديدة يجب التغلب عليها. باتباع النصائح الموضحة أعلاه، يمكنك تقليل خطر الوقوع ضحية وضمان تجربة إيجابية على وسائل التواصل الاجتماعي.

أضف تعليق