استخدام تقنية الذكاء الاصطناعي للتغلب على مجرمي الإنترنت

الذكاء الإصطناعي تكنولوجيا
شارك

بقلم ديريك مانكي، رئيس الرؤى الأمنية وتحالفات التهديد العالمي في مختبرات فورتيغارد.

تعد تقنية الذكاء الاصطناعي تقنية قوية، لذلك، فإن إحتمال استغلالها من قبل مجرمي الإنترنت كبير. في هذا الصدد، فإن الطريقة الوحيدة التي تمكّن قادة الأمن من التقدم على الجهات السيئة هي من خلال اكتساب فهم حقيقي لكيفية استخدام هذه التكنولوجيا كسلاح. عندها، يمكنهم البدء في تطوير استراتيجيات فعالة لمواجهة تهديدات الذكاء الاصطناعي وجهاً لوجه.

الاستخدامات الشريرة لتقنية الذكاء الاصطناعي

مع تطور الذكاء الاصطناعي وتزايد الاعتماد عليه، يبحث مجرمو الإنترنت عن طرق للاستفادة من إمكاناته. كانت “مؤسسة الحدود الإلكترونية” قد حذرت بالفعل من الاستخدامات الخبيثة المحتملة للذكاء الاصطناعي في عام 2018، بما في ذلك التهديدات للأمن الرقمي، والمادي، والسياسي. الآن، يمكن استخدام سلائف الذكاء الاصطناعي مع تكنولوجيا السرب للتسلل إلى الشبكات وسرقة البيانات.

كان اختراق شبكة في الماضي يستغرق اشهرًا. ولكن مع استحواذهم لتقنيات الذكاء الاصطناعي والتعلم الآلي، يمكن لمجرمي الإنترنت تقليص هذه الفترة الزمنية إلى أيام قليلة. مع تنسيق المزيد من الهجمات المعززة بالذكاء الاصطناعي، أصبحت التقنيات المستخدمة في هذه الأحداث متاحة بشكل اكبر وغير مكلفة لعدد متزايد من مجرمي الإنترنت.

يمكن للتقنيات المؤتمتة والمخططة أيضًا أن تزيد بشكل كبير من سرعة وحجم الهجوم السيبراني. تؤدي القدرة على أتمتة عملية رسم خرائط الشبكات بالكامل، تحديد الأهداف، اكتشاف نقاط الضعف، وشن هجوم مخصص إلى زيادة حجم الهجمات بشكل كبير، حتى يمكن لعنصر سيئ واحد أن ينفذه.

غالبًا ما تفتقر الشبكات المعقدة إلى استراتيجية أمنية متماسكة

لم يتم تصميم بنيات أمان الشبكة في اغلب الأحيان لمواجهة هذه الأنواع من الهجمات. على سبيل المثال، من المألوف أن تستخدم مؤسسة معينة 30 أو أكثر من المنتجات النقطية المتعلقة بالأمان في بيئاتها. مع هكذا إعداد، يتطلب الحصول على عرض صورة كبيرة لهندسة أمان المؤسسة دمجًا يدويًا للبيانات عبر التطبيقات المختلفة.

هذا يجعل مؤسسات كهذه عاجزة عن إطلاق استجابة منسقة، فعالة، وسريعة لهجوم على مستوى الشبكة. ومع استمرار مجرمي الإنترنت في تقليل مدة هجومهم، تُركت فرق أمن تكنولوجيا المعلومات تكافح لاكتشاف الهجمات بنفس السرعة. في الواقع، يشير تقرير تكلفة خرق البيانات من بونيمون لعام 2020 إلى أن متوسط اكتشاف فجوة الاختراق، وهو الوقت بين الاختراق الأولي للشبكة واكتشافه، يبلغ 280 يومًا. ووجد التقرير أيضًا أن متوسط تكلفة اختراق البيانات في الولايات المتحدة يبلغ 8.64 مليون دولار، وهو أعلى بنسبة 124% من المتوسط العالمي (3.86 مليون دولار). بالنظر إلى ذلك، يصبح الزامياً أكثر من أي وقت مضى أن تتبنى المؤسسات استراتيجيات جديدة للتأكد من أن شبكاتها يمكن أن تعمل بشكل متماسك قدر الإمكان.

تكنولوجيا الذكاء الاصطناعي لمعالجة النقص في مهارات الأمن السيبراني

يوجد نقص في المهارات في قطاع الأمن السيبراني، حيث يكافح قادة الأمن غالبًا لجلب موظفين مؤهلين للعمل. بالأخص، يصعب ايجاد خبراء أمن يعملون على الذكاء الاصطناعي.

هذا الأمر يشكل خطرًا عند التنبه الى حقيقة أنه مع استمرار تطور الذكاء الاصطناعي، ستزداد أيضًا الاستخدامات الضارة لهذه التكنولوجيا. تواجه المؤسسات الآن هجمات تستفيد من تقنيات التعلم الذاتي التي يمكنها العثور بسرعة على نقاط الضعف واختيار البرامج الضارة أو تكييفها، ومحاربة الجهود الأمنية التي تم وضعها لإيقافها. وعند استخدام الذكاء الاصطناعي جنبًا إلى جنب مع أساليب الهجوم الحديثة (مثل روبوتات الأسراب)، ستكتسب الجهات الشريرة القدرة على تفكيك الهجوم إلى عناصره الوظيفية. يمكن بعد ذلك تخصيص هذه العناصر لأعضاء مختلفين في سرب لتمكين الاتصالات التفاعلية من تسريع سرعة الهجوم.

عند مواجهة استراتيجيات الهجوم المعززة بالذكاء الاصطناعي، يجب أن تتبنى فرق الأمن نهج “مكافحة النار بالنار”. من خلال فهم كيف يجد مجرمو الإنترنت سبل نجاحهم والإطلاع على اساليبهم، يمكن لقادة الأمن إعادة تصميم استراتيجياتهم لخلق تكافؤ.

أهمية التكنولوجيا المستندة للذكاء الاصطناعي في الأمن السيبراني في حين ان تقنية الذكاء الاصطناعي تقوم بأشياء مذهلة، يمكن أن يكون لها نتائج إيجابية وسلبية. يجب على محترفي الأمن السيبراني أن يستخدموا بثقة نفس التكنولوجيا المتقدمة في التدابير المضادة لحماية الشبكات لتلك المستخدمة من الجهات الشريرة التي تستغل التكنولوجيا المتقدمة بشكل متزايد. تعد استراتيجية الأمان التي تستخدم تقنيات محسّنة للذكاء الاصطناعي أمرًا حيويًا في الدفاع ضد مجرمي الإنترنت، خاصة مع تزايد الهجمات تعقيدًا ضد الشبكات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *