تخطي إلى المحتوى

قبل بضعة أسابيع، تلقى صديق لي رسالة نصية من رئيسه في العمل:

"مرحبًا مات، أنا في اجتماع عبر الهاتف الآن، لا يمكنني التحدث عبر الهاتف ولكن أعلمني إذا تلقيت رسالتي النصية . شكراً [اسم الرئيس]."

إذا لم يكن الأمر واضحًا، فالرسالة النصية كانت مخادعة. هناك بعض الإشارات التي تدل على ذلك: هناك بعض المشكلات الغريبة في المسافات، ومن الغريب أن يوقع على رسالة نصية، ومن غير المعتاد أن رئيسه كان بحاجة إلى التحدث مع مات على الفور - ليس فقط عبر الهاتف.

رغم فجاجة هذه الخدعة الاحتيالية، إلا أنها تظل أفضل من العديد من عمليات الاحتيال المرسلة عبر البريد الإلكتروني: فالمحتال يعرف اسم مات ورقم هاتفه والجهة التي يعمل لديها. يمكن للمحتالين استخدام هذه الحقائق لصنع إغراء أكثر مصداقية وجعل شخص ما ينقر على رابط، أو تحميل ملف، أو تسليم معلومات حساسة.

التصيد الاحتيالي يظل أحد الأسباب الرئيسية لاختراقات الأمن السيبراني. هذا ليس بسبب حنين جهات التهديد إلى عمليات الاحتيال القديمة: بل لأن التصيد الاحتيالي لا يزال يعمل.

ومن المثير للقلق أن إطلاق ChatGPT وغيرها من الروبوتات يمكن أن يجعل من التصيّد الاحتيالي أكثر ذكاءً وانتشاراً وفعالية.

ما هو ChatGPT؟

خلال الشهر الماضي، كانت ChatGPT في جميع الأخبار: المعلمون قلقون بشأن ذلك, ويل.آي.آم تمت الإشارة إليه في دافوس، وهناك أيضًا نصائح حول كيفية استخدامه لتطبيق التكنولوجيا على المواعدة عبر الإنترنت.

إن ChatGPT هو "روبوت دردشة آلي جديد متطور للذكاء الاصطناعي" نيويورك تايمز يصفه الصحفي بأنه "بكل بساطة، أفضل روبوت محادثة ذكاء اصطناعي تم إطلاقه لعامة الناس على الإطلاق." تم تطويره من قِبل OpenAI، ويتمتع بالقدرة على توليد نصوص شبيهة بالنصوص البشرية.

في حين أن الأداة قد تحتوي على الكثير من غريب الأطوار الاستخدامات، يشعر بعض خبراء الأمن السيبراني بالقلق بشأن ما سيمكن ChatGPT الجهات الفاعلة في مجال التهديد من القيام به. ذكرت شركة CyberArk أن الروبوت قد أنشأ "خيطًا جديدًا من البرمجيات الخبيثة متعددة الأشكال."

ويشعر آخرون بالقلق من استخدام أكثر فظاظة - ولكن لا يزال فعالاً - وهو استخدام قدرات اللغة الطبيعية لخلق إغراءات تصيد أكثر إقناعاً.

الذكاء الاصطناعي يذهب للتصيد الاحتيالي

يمكن للكتّاب البشريين وروبوتات الدردشة الآلية أن يتحدا معاً لصنع خدع تصيّد احتيالي فعّالة لأن كلاً منهما يجلب نقاط قوة فريدة إلى الطاولة.

يفهم الكُتّاب البشريون الهندسة الاجتماعية ويعرفون كيفية صياغة الرسائل التي ستكون جذابة ومقنعة للأشخاص المستهدفين. ويمكنهم أيضاً فهم السياق والمراجع الثقافية التي من شأنها أن تجعل الرسالة أكثر إقناعاً للمتلقين.

ومن ناحية أخرى، فإن روبوتات الدردشة الآلية، مثل النماذج اللغوية، تفهم اللغة البشرية وتولدها، مما يسمح لها بمحاكاة أسلوب ونبرة المؤسسات الحقيقية. كما يمكنها أيضاً توليد رسائل مخصصة على نطاق واسع، مما يزيد من فرص خداع المتلقي.

عند الجمع بينهما، يمكن للكتاب البشريين إنشاء رسالة تصيد احتيالي تجذب الهدف، ويمكن لروبوتات الدردشة الآلية إنشاءها على نطاق واسع وتخصيصها لكل مستلم. وهذا يجعل رسالة التصيد الاحتيالي أكثر إقناعاً ويزيد من فرص نجاحها.

نحن نعتقد أن هذا المزيج من الجهات الفاعلة في مجال التهديد والروبوتات يمكن أن يصبح مشكلة حقيقية - ولكن لدينا أيضًا بعض الأفكار حول كيفية معالجتها. اتصل بنا لمعرفة المزيد.

حواجز أقل = المزيد من عمليات الاحتيال

أي شيء يقلل من حاجز الدخول يمكن أن يشكل تهديدًا كبيرًا. وبمرور الوقت، يمكن لجهات التهديد أن تعلم الروبوتات الاستفادة من كلمات المرور أو استهداف رسائل البريد الإلكتروني من خروقات البيانات.

قال روب هيوز مدير أمن المعلومات في RSA: "على الرغم من أن ChatGPT خدمة غير متصلة بالإنترنت، إلا أن ما يقلقني هو الجمع بين الوصول إلى الإنترنت والأتمتة والذكاء الاصطناعي لإنشاء هجمات متقدمة مستمرة".

"لقد رأينا مدى إصرار هجمات القصف الفوري تآكل انتباه المستخدمين،" تابع هيوز. "مع روبوتات الدردشة الآلية، لن تحتاج حتى إلى مرسل رسائل غير مرغوب فيها لصياغة الرسالة بعد الآن. يمكنك كتابة برنامج نصي يقول "اكتسب معرفة ببيانات الإنترنت واستمر في مراسلة فلان حتى ينقر على الرابط". يمكن أن يؤدي تحويل العملية إلى روبوتات لا تتوقف، ولا تستسلم، وتعمل على مئات المستخدمين في وقت واحد إلى تغيير طبيعة هجمات التصيد الاحتيالي من خلال تمكين أدوات التصيد الاحتيالي الموزعة سهلة الاستخدام."

الروبوتات التي تتحكم في الروبوتات

روبوتات المحادثة, الحيل الهاتفية المزيفة العميقة, أو شبكات الروبوتات:: سواء أكان المجرمون يستخدمون ملفًا صوتيًا أو بريدًا إلكترونيًا أو أي وسيط آخر، فإن التنسيق والأداة التي تقف وراءه لا يهم حقًا.

ما يهم هو أننا نعمل على تطوير أدوات الذكاء الاصطناعي التي قد تكون على وشك إنتاج تهديدات جديدة وأكثر ذكاءً بشكل تدريجي أسرع من قدرة المجرمين البشر على إنتاجها - ونشر تلك التهديدات بشكل أسرع من قدرة موظفي الأمن السيبراني على الاستجابة لها.

الطريقة الوحيدة التي يمكن للمؤسسات مواكبة معدل التغيير هي التحكم في الروبوتات باستخدام الروبوتات: نفس المبادئ الأساسية التي تسمح لـ ChatGPT بكتابة نكات أو أوراق بحثية أفضل تدريجياً يمكن أيضاً تدريب أنظمة الأمن على التعرف على السلوك المشبوه والاستجابة له.

محركات المخاطر مثل RSA® مخاطر الذكاء الاصطناعي استخدام جمع البيانات، ومطابقة الأجهزة، واكتشاف الحالات الشاذة، والتحليلات السلوكية للتحقق من محاولات الوصول. يبحث الذكاء الاصطناعي للمخاطر في سياق طلب الوصول - من الذي يطلب موردًا ما، ومتى يقدم الطلب، والجهاز الذي يستخدمه، وإشارات أخرى - لتحديد المخاطر والاستجابة لها في الوقت الفعلي.

في نهاية المطاف، تساعد هذه القدرات فرق الأمن على اتخاذ قرارات أمنية أكثر استنارةً وذكاءً وذكاءً وأفضل.

لا يقتصر الأمر على ممثلي التهديدات فقط

لا يقتصر الأمر على الاستخدامات الضارة للذكاء الاصطناعي التي يمكن أن تشكل تهديدًا للأمن السيبراني للمؤسسات: يمكن للاستخدامات المتعمدة للذكاء الاصطناعي في المؤسسات، بما في ذلك أتمتة العمليات الروبوتية (RPA)، اتخاذ قرارات أكثر بكثير مما يمكن لأي فرد بشري مواكبتها.

وبالمثل، فإن العاصفة المثالية للبيئات متعددة السحابة وعدم كفاية إدارة الهوية ستؤدي إلى توسيع نطاق الإخفاقات الأمنية السحابية وتعريض المؤسسات لمزيد من المخاطر، مما يتسبب في 75% من إخفاقات أمن السحابة بحلول عام 2023

مرة أخرى، تحتاج المؤسسات إلى حلول يمكن توسيع نطاقها لمواجهة المشكلة: RSA® الحوكمة ودورة الحياة أتمتة كل شيء تقريبًا: يمكن للحل أتمتة كل شيء تقريبًا: يمكن للحل أن يقوم تلقائيًا بإلحاق المستخدمين بالاستحقاقات الصحيحة، وفرض سياسات الانضمام إلى النظام وتركه، وأتمتة التزويد والمراقبة وإعداد التقارير.

اتصل بنا لمعرفة المزيد حول استخدام الذكاء الاصطناعي في إدارة عمليات الوصول الآمن.

"لا تركز على العناوين الرئيسية"

الروبوتات المبرمجة دائماً للتصيد الاحتيالي؛ والبرامج النصية الآلية التي تعمل دون أن يراقبها أحد؛ والأسود والنمور والدببة: سيكون هناك دائماً تهديد آخر.

"يقول هيوز: "لا يمكن لفرق الأمن السيبراني أن تتنبأ دائماً بالتهديد التالي أو من أين سيأتي.

"لا تركز على العناوين الرئيسية. ركز على ما يمكنك التحكم فيه: قم بتثقيف المستخدمين، واستخدم المصادقة متعددة العوامل، وانتقل إلى انعدام الثقة. إنها بعض من أفضل الطرق لحماية نفسك من التهديدات التي نعرفها اليوم والبقاء محميًا ضد التهديدات القادمة غدًا."

###

اتصل بنا وتعلم كيفية محاربة الروبوتات بالروبوتات.

طلب عرض توضيحي

احصل على عرض توضيحي