هل روبوتات الذكاء الاصطناعي عرضة للهندسة الاجتماعية مثلنا؟

“الهندسة الاجتماعية” هي تكتيك مجرب ومختبر يستخدمه القراصنة ضد العنصر البشري في أنظمة أمن الكمبيوتر، وذلك غالبًا لأنها أسهل من هزيمة تكنولوجيا الأمن المتطورة. ومع تزايد تشابه الذكاء الاصطناعي الجديد مع البشر، فهل ينجح هذا النهج معهم؟




ما هي الهندسة الاجتماعية؟

لا ينبغي الخلط بينه وبين المفهوم المشكوك فيه أخلاقياً في العلوم السياسيةفي عالم الأمن السيبراني الهندسة الاجتماعية هو فن استخدام التلاعب النفسي لحمل الناس على فعل ما تريد. إذا كنت من المتسللين، فإن الأشياء التي تريد من الناس القيام بها تشمل الكشف عن معلومات حساسة، أو تسليم كلمات المرور، أو مجرد دفع الأموال مباشرة إلى حسابك.

هناك العديد من تقنيات القرصنة المختلفة التي تندرج تحت مظلة الهندسة الاجتماعية. على سبيل المثال، يعتمد ترك محرك أقراص فلاش مصاب بالبرمجيات الخبيثة على فضول الإنسان. ربما نجح فيروس ستوكسنت الذي دمر المعدات في منشأة نووية إيرانية في الوصول إلى تلك الحواسيب بفضل محركات أقراص USB المزروعة.

ولكن هذا ليس النوع من الهندسة الاجتماعية الذي ينطبق هنا. بل إن الهجمات الشائعة مثل “التصيد الاحتيالي” (هجمات التصيد الاحتيالي المستهدفة) و”الخداع” (استخدام هوية مزيفة لخداع الأهداف) حيث يكون الشخص في محادثة مع شخص آخر هو الذي يؤدي إلى الخداع، هي ذات صلة هنا.


وبما أن “الشخص” الذي تتحدث معه على الهاتف أو في غرفة الدردشة معك سيكون في نهاية المطاف على الأرجح روبوت محادثة يعمل بالذكاء الاصطناعي، فإن هذا يثير التساؤل حول ما إذا كان فن الهندسة الاجتماعية سيظل فعالاً على الأهداف الاصطناعية.

كسر الحماية باستخدام الذكاء الاصطناعي أصبح أمرًا حقيقيًا

لقد كان كسر حماية روبوتات الدردشة أمرًا شائعًا منذ بعض الوقت، وهناك الكثير من الأمثلة التي يمكن فيها لشخص ما إقناع روبوت الدردشة بانتهاك قواعد السلوك الخاصة به، أو القيام بشيء غير لائق تمامًا.

من حيث المبدأ، يشير وجود وفعالية كسر الحماية إلى أن برامج المحادثة الآلية قد تكون في الواقع عرضة للهندسة الاجتماعية. فقد اضطر مطورو برامج المحادثة الآلية إلى تقليص نطاقها بشكل متكرر ووضع حواجز حماية صارمة لضمان تصرفها بشكل سليم، وهو ما يبدو أنه ألهم جولة أخرى من كسر الحماية لمعرفة ما إذا كان من الممكن الكشف عن هذه الحواجز أو التحايل عليها.


يمكننا أن نجد بعض الأمثلة على ذلك التي نشرها مستخدمو X (تويتر سابقًا)، مثل الدكتورة باريس بوتفيلد أديسون التي نشرت لقطات الشاشة يظهر على ما يبدو كيف يمكن إقناع روبوت الدردشة المصرفية بتغيير اسمه.

هل يمكن حماية الروبوتات من الهندسة الاجتماعية؟

إن فكرة إقناع روبوت محادثة مصرفي على سبيل المثال بالتخلي عن معلومات حساسة تثير القلق بحق. ولكن من ناحية أخرى، فإن خط الدفاع الأول ضد هذا النوع من الإساءة يتلخص في تجنب منح روبوتات المحادثة هذه إمكانية الوصول إلى مثل هذه المعلومات في المقام الأول. ويبقى أن نرى مدى المسؤولية التي يمكننا أن نمنحها لبرامج مثل هذه دون أي إشراف بشري.

والجانب الآخر من هذا هو أن برامج الذكاء الاصطناعي هذه تحتاج إلى الوصول إلى المعلومات لكي تكون مفيدة. لذا فإن إبعاد المعلومات عن هذه البرامج ليس حلاً حقيقياً. على سبيل المثال، إذا كان برنامج الذكاء الاصطناعي يتعامل مع حجوزات الفنادق، فإنه يحتاج إلى الوصول إلى تفاصيل الضيوف للقيام بوظيفته. والخوف إذن هو أن يتمكن محتال ماهر من إقناع هذا الذكاء الاصطناعي بالكشف عن هوية النزلاء في هذا الفندق وفي أي غرفة.


قد يكون الحل المحتمل الآخر هو استخدام نظام “الرفيق” حيث يراقب روبوت محادثة ذكي آخر ويتدخل عندما يبدأ في الخروج عن المسار. قد يكون وجود مشرف ذكاء اصطناعي يراجع كل رد قبل تمريره إلى المستخدم أحد الطرق للتخفيف من هذا النوع من الأساليب.


في نهاية المطاف، عندما تقوم بإنشاء برنامج يحاكي اللغة الطبيعية والمنطق، فمن المنطقي أن نفس تقنيات الإقناع التي تعمل على البشر سوف تعمل على بعض هذه الأنظمة على الأقل. لذا ربما يرغب المتسللون المحتملون في قراءة كيف تكسب الأصدقاء وتؤثر في الناس بجوار الكتب المتعلقة بالأمن السيبراني.

أضف تعليق