5 تقنيات الذكاء الاصطناعي التي يمكن للقراصنة استخدامها بطرق جديدة مروعة

ربما تعمل تقنيات الذكاء الاصطناعي على تعطيل العديد من الصناعات، ولكن في أغلب الحالات على الأقل، يمكننا أن نرى كيف ستكون مفيدة أكثر من كونها ضارة في الأمد البعيد. ومع ذلك، فإن هذه الأدوات الجديدة تفتح أيضًا العديد من الفرص الجديدة للأنواع الشريرة.




الذكاء الاصطناعي للغة الطبيعية لشن هجمات التصيد الاحتيالي القوية

لقد كانت القدرة على فهم وإنتاج لغة بشرية طبيعية أحد الأهداف الرئيسية لأبحاث الذكاء الاصطناعي منذ الأيام الأولى. واليوم، لدينا إنتاج صوتي اصطناعي، ودردشات روبوتية متطورة للغاية، ومولدات نصوص باللغة الطبيعية، والعديد من التقنيات الأخرى ذات الصلة التي تعتمد على الذكاء الاصطناعي.

إن هذه التطبيقات مثالية لهجمات التصيد الاحتيالي، حيث يتظاهر المتسللون بأنهم كيانات شرعية وممثلين لها كوسيلة للحصول على معلومات حساسة من الناس. وباستخدام هذه التقنيات الجديدة، يمكنك جعل عملاء الذكاء الاصطناعي ينتحلون شخصيات الناس بشكل جماعي من خلال البريد الإلكتروني أو المكالمات الهاتفية أو الرسائل الفورية أو أي مكان آخر يتحدث فيه البشر مع بعضهم البعض من خلال نظام كمبيوتر.

على عكس التصيد الاحتيالي الذي نعرفه، فإن هذا يشبه التصيد الاحتيالي “الرمحي” المعزز، حيث تستهدف المحاولات أفرادًا محددين بمعلومات عنهم على وجه الخصوص لجعل الاحتيال أكثر فعالية. على سبيل المثال، يمكن لبرنامج الذكاء الاصطناعي أن يتظاهر بأنه رئيس شخص ما ويطلب دفع الأموال إلى حساب في شكل من أشكال التصيد الاحتيالي المعروف باسم احتيال الرئيس التنفيذي.


الهندسة الاجتماعية المزيفة

الهندسة الاجتماعية هي ممارسة ضمن عمليات القرصنة تستهدف نقاط الضعف في النفس البشرية والسلوك للالتفاف على تدابير الأمن التكنولوجية الصارمة. على سبيل المثال، قد يتصل أحد المتسللين بسكرتيرة شخص مهم متنكراً في هيئة عامل نظافة، ويسألها عن المكان الذي يتم فيه إلقاء القمامة حالياً. ثم يتوجه المجرم إلى ذلك المكان للبحث عن وثائق ملقاة أو أدلة أخرى يمكن تجميعها معاً لإنشاء ثغرات.

لقد تطورت أنظمة التعلم العميق القادرة على تقليد الوجوه والأصوات (المعروفة باسم التزييف العميق) إلى الحد الذي يمكن استخدامه في الوقت الفعلي. هناك خدمات حيث يمكنك إرسال عينات من صوتك الخاص ثم تحويل النص إلى كلام يبدو تمامًا مثلك. من حيث المبدأ، يمكن استخدام تكنولوجيا مثل هذه لاستنساخ صوت أي شخص. ثم كل ما عليك فعله هو الاتصال بشخص ما أو مكالمة فيديو ينتحل شخصية من تريد، مع كون الشخصيات العامة هي الهدف الأسهل على الإطلاق.


على سبيل المثال، بودكاست ريفويس تعد إحدى هذه الخدمات “بإنشاء نسخة رقمية من صوتك” استنادًا إلى عينات صوتية تقدمها. أرسلت لنا Podcastle بيانًا حول كيفية تعاملها مع هذه المخاوف:

إن إمكانية استخدام التقليد العميق والهندسة الاجتماعية باستخدام استنساخ الصوت أمر خطير، ولهذا السبب من الضروري أن تعمل الشركات على الحد من إمكانية إساءة الاستخدام. يمكن استخدام تقنية Revoice من Podcastle لإنشاء نسخة رقمية من صوتك، وبالتالي لدينا إرشادات واضحة حول كيفية إنشاء الأصوات، بالإضافة إلى الفحوصات لمنع إساءة الاستخدام. من أجل إنشاء صوت رقمي على منصتنا، يجب على المستخدم تقديم طلب للحصول على إذن.
تسجيل صوتي مباشر
من 70 جملة مميزة (أي تم تحديدها بواسطة Podcastle) – مما يعني أنه لا يمكن للمستخدم ببساطة استخدام تسجيل مسبق لصوت شخص آخر. ثم يتم فحص هذه التسجيلات السبعين يدويًا بواسطة فريقنا لضمان دقة صوت واحد، ثم تتم معالجة التسجيلات من خلال نموذج الذكاء الاصطناعي الخاص بنا.


كسر الأكواد البرمجية بطريقة أكثر ذكاءً واكتشاف الثغرات الأمنية تلقائيًا

يستغرق الأمر ساعات وساعات من البشر لفحص أسطر التعليمات البرمجية بحثًا عن نقاط الضعف، سواء لإصلاحها أو استغلالها. لقد رأينا الآن أن نماذج التعلم الآلي مثل تشات جي بي تي يمكن كتابة الكود و التعرف على نقاط الضعف في الكود المرسل، مما يفتح الباب أمام إمكانية أن يكون الذكاء الاصطناعي قادرًا على كتابة البرمجيات الخبيثة عاجلاً وليس آجلاً.

البرامج الضارة التي تتعلم وتتكيف من خلال التعلم الآلي

تكمن القوة الرئيسية للتعلم الآلي في قدرته على التعامل مع كميات هائلة من البيانات واستخراج قواعد ورؤى مفيدة منها. ومن المنطقي أن نتوقع أن تستفيد البرمجيات الخبيثة في المستقبل من هذا المفهوم العام للتكيف بسرعة مع التدابير المضادة.

وقد يؤدي هذا إلى حالة حيث تصبح أنظمة البرمجيات الخبيثة وأنظمة مكافحة البرمجيات الخبيثة في الواقع أنظمة تعلم آلي متحاربة تدفع بعضها البعض بسرعة إلى مستويات أعلى من التطور.


الذكاء الاصطناعي التوليدي لإنشاء بيانات مزيفة

تستطيع تقنيات الذكاء الاصطناعي الآن توليد الصور والفيديو والنصوص والمقاطع الصوتية من الهواء. وقد وصلت هذه التقنيات إلى النقطة التي لا يستطيع الخبراء فيها معرفة أنها مزيفة (على الأقل ليس من النظرة الأولى). وهذا يعني أنه يمكنك توقع طوفان من البيانات المزيفة على الإنترنت في المستقبل.

على سبيل المثال، يمكن الآن اكتشاف ملفات تعريف الوسائط الاجتماعية المزيفة بسهولة إلى حد ما، لذا فإن تجنب عمليات الاحتيال أو حملات الروبوتات البسيطة لنشر المعلومات المضللة لم يكن بالأمر الصعب على الجماهير المطلعة. ومع ذلك، يمكن أن تؤدي تقنيات الذكاء الاصطناعي الجديدة هذه إلى إنشاء ملفات تعريف مزيفة لا يمكن تمييزها عن الملفات الحقيقية.

“الناس” مع وجوه فريدة مع صور تم إنشاؤها لحياتهم المزيفة بالكامل، ومعلومات ملف تعريفية متماسكة فريدة، وشبكات كاملة من الأصدقاء والعائلة تتكون من أشخاص مزيفين آخرين. كلهم ​​يتحدثون مع بعضهم البعض تمامًا مثل الأشخاص الحقيقيين. مع شبكات من الوكلاء المزيفين عبر الإنترنت مثل هؤلاء، يمكن للجهات الخبيثة تنفيذ عمليات احتيال وحملات تضليل مختلفة.

ذات صلة: 5 تقنيات تعني أنك لن تستطيع تصديق أي شيء على الإنترنت مرة أخرى


هل الذكاء الاصطناعي هو العلاج والمرض في نفس الوقت؟

من المحتم أن يحاول بعض الناس استخدام أي تقنية جديدة لأغراض خبيثة. وما يجعل هذا الجيل الجديد من تكنولوجيا الذكاء الاصطناعي مختلفًا هو مدى تجاوزه للقدرة البشرية على اكتشافه.

وهذا يعني، على نحو مثير للسخرية إلى حد ما، أن أفضل دفاع لدينا ضد هذه السبل الهجومية المعززة بالذكاء الاصطناعي سوف يتمثل في تقنيات الذكاء الاصطناعي الأخرى التي تحارب النار بالنار. ويبدو أن هذا لا يترك لك خيارا سوى مشاهدة هذه التقنيات وهي تقاتل بعضها البعض على أمل أن ينتصر “الأشخاص الطيبون”. ومع ذلك، هناك العديد من الأشياء التي يمكنك القيام بها للبقاء محميًا عبر الإنترنت، وتجنب برامج الفدية، واكتشاف عمليات الاحتيال على المنصات الشعبية مثل فيسبوك، وفيسبوك ماركت بليس، وباي بال، ولينكد إن.

أضف تعليق