يمثل عام 2025 نقطة الانعطاف حيث تحول الذكاء الاصطناعي من كونه ميزة تنافسية إلى "سلاح" مزدوج الاستخدام. يبرز الآن مفهوم "الذكاء الاصطناعي الوكيل" (Agentic AI)، وهي أنظمة لا تكتفي برد الفعل بل تتخذ قرارات مستقلة بناءً على أهداف سياقية. في المجال الدفاعي، تظهر "السوبر وكلاء" (Super Agents) القادرة على تنسيق وتحسين أنظمة ذكاء اصطناعي متعددة في وقت واحد لرفع كفاءة الابتكار.
ومع ذلك، فإن الخصوم يستخدمون هذه التكنولوجيا على نطاق واسع؛ حيث تشير التقارير إلى أن 97% من المؤسسات عانت من خروقات أو مشكلات أمنية تتعلق باستخدام الذكاء الاصطناعي التوليدي في العام الماضي.
المهاجمون الآن يوفرون 95% من تكاليف حملاتهم باستخدام النماذج اللغوية الكبيرة (LLMs) لإنشاء محتوى تصيدي فائق الدقة. وتبرز مشكلة "الذكاء الاصطناعي الظلي" (Shadow AI)، حيث يستخدم الموظفون نماذج غير مصرح بها، مما يخلق مخاطر أمنية جسيمة لبيانات المؤسسة.