• حل أمني متقدم مبني على التحقق المستمر من توافق السلوك مع المقاصد التشغيلية، ويؤمّن استخدام الذكاء الاصطناعي عبر الأجهزة الطرفية والمتصفحات واتصالات MCP
  • أول نموذج نضج من خمس مراحل يمنح مسؤولي أمن المعلومات خارطة طريق واضحة لتطبيق حوكمة الذكاء الاصطناعي، بدءاً من الاكتشاف وحتى فرض السياسات أثناء التشغيل
  • منصة موحّدة تعزز حماية الأفراد وتأمين البيانات وحوكمة الذكاء الاصطناعي ضمن بيئة العمل التوكيلي

دبي، الإمارات العربية المتحدة: أعلنت شركة بروف بوينت، المتخصصة في الأمن السيبراني والامتثال عن إطلاق Proofpoint AI Security، أحدث حلولها الأمنية المصممة لحماية استخدام الذكاء الاصطناعي داخل المؤسسات، من خلال دمج تحليل مقاصد الاستخدام، ونقاط تحكم متعددة، وإطار تنفيذ متكامل. ويستند الحل إلى إطار Agent Integrity Framework  الذي يحدد آليات تشغيل وكلاء الذكاء الاصطناعي ضمن ضوابط واضحة، مع نموذج نضج من خمس مراحل يبدأ بالاكتشاف وينتهي بفرض السياسات أثناء التشغيل.

مع تسارع اعتماد المؤسسات على وكلاء ذكاء اصطناعي مستقلين لتصفح الإنترنت، والوصول إلى الأنظمة الداخلية، وإرسال الرسائل، وتنفيذ التعليمات البرمجية، وإدارة سير العمل، بدأت تظهر مخاطر فعلية مثل تصعيد الصلاحيات والهجمات القائمة على حقن الأوامر دون تفاعل مباشر. طلب واحد من الذكاء الاصطناعي قد يؤدي إلى تنفيذ عشرات العمليات عبر أنظمة متعددة وبسرعة تفوق الإشراف البشري. الأدوات الأمنية الحالية تراقب الحركة والصلاحيات، لكنها تعجز عن تقييم ما إذا كان سلوك الذكاء الاصطناعي يعكس المقاصد التشغيلية الأصلية. وتشير أبحاث Acuvity إلى أن 70% من المؤسسات تفتقر إلى حوكمة فعالة للذكاء الاصطناعي، فيما تتوقع 50% منها وقوع خسائر بيانات مرتبطة به خلال 12 شهراً، ما يعكس الحاجة الملحّة لتعزيز الحماية.

وقال سوميت دهوان، الرئيس التنفيذي لشركة بروف بوينت: "أصبح الذكاء الاصطناعي جزءاً أساسياً من بيئة العمل٬ ما يتطلب تطوراً موازياً في منظومات الأمن. يعمل الأفراد ووكلاء الذكاء الاصطناعي اليوم ضمن المنظومة نفسها، اذ يمكن التلاعب بكليهما وقد ينفّذان إجراءات تنحرف عن الغرض المحدد. الحلول التقليدية لم تُصمم للتحقق من المقاصد. تتميز بروف بوينت بمنصة موحّدة للأمن السيبراني تجمع بين حماية الأفراد وتأمين البيانات وحوكمة وكلاء الذكاء الاصطناعي، وتوفّر تحقّقاً مستمراً قائماً على تحليل مقاصد الاستخدام لضمان توافق السلوك مع السياسات والمقاصد التشغيلية ضمن بيئة العمل التوكيلي."

نماذج كشف قائمة على تحليل مقاصد الاستخدام

تعجز الأدوات الأمنية التقليدية عن تحليل المحتوى الدلالي لتفاعلات الذكاء الاصطناعي، حيث يكمن جوهر المخاطر. فهي تراقب الهوية والحركة والصلاحيات، لكنها لا تستطيع تحديد مدى ملاءمة السلوك في سياقه أو توافقه مع الهدف المطلوب.

يعالج Proofpoint AI Security هذه الفجوة من خلال نماذج كشف قائمة على تحليل مقاصد الاستخدام، تقيّم بشكل مستمر سلوك الذكاء الاصطناعي، سواء كان صادراً عن الأفراد أو عن وكلاء مستقلين، للتحقق من توافقه مع الطلب الأصلي والسياسات المحددة. ويتيح تحليل السياق الدلالي الكامل رصد السلوكيات عالية المخاطر أو غير المتوافقة في الوقت الفعلي قبل وقوع الضرر، بما في ذلك تسريب البيانات أو تنفيذ تفاعلات مخالفة للسياسات.

حماية شاملة عبر جميع بيئات استخدام الذكاء الاصطناعي

يوفّر الحل بنية موحّدة تغطي مختلف نقاط استخدام الذكاء الاصطناعي داخل المؤسسة، بما يشمل الأجهزة الطرفية، وإضافات المتصفح، واتصالات MCP، ما يمنح المؤسسات رؤية دقيقة وتحكماً فعلياً في كيفية استخدام الذكاء الاصطناعي والمخاطر المرتبطة به.

تزداد أهمية هذا النهج في بيئات التطوير، حيث تسهم أدوات البرمجة المرتبطة بوكلاء الذكاء الاصطناعي والتكاملات مع MCP  في تسريع التبني، مع ما يصاحبه من حاجة متزايدة إلى فرض السياسات وضبط الاستخدام.

ومن خلال هذه البنية، يمكن للمؤسسات:

  • اكتشاف أدوات الذكاء الاصطناعي المعتمدة وغير المعتمدة المستخدمة من قبل الأفراد والوكلاء
  • مراقبة المدخلات والمخرجات وتدفقات البيانات المرتبطة بالاستخدام
  • تطبيق ضوابط الوصول والسياسات المنظمة للتفاعل مع الذكاء الاصطناعي
  • تنفيذ عمليات تفتيش أثناء التشغيل وفرض السياسات بشكل مباشر خلال التفاعل

إطار عملي لتفعيل حوكمة الذكاء الاصطناعي

 تقدّم بروف بوينت إطار Agent Integrity Framework  كمرجع عملي يوفّر للمؤسسات خارطة طريق واضحة لتطبيق حوكمة الذكاء الاصطناعي بشكل آمن. يحدّد الإطار المعايير التي يجب أن يعمل وفقها وكيل الذكاء الاصطناعي، ويطرح نموذج نضج مكوّن من خمس مراحل يغطّي رحلة التطبيق بالكامل، بدءاً من الاكتشاف ووصولاً إلى فرض السياسات أثناء التشغيل.

ويعرّف الإطار "تكامل الوكيل" بأنه ضمان عمل وكيل الذكاء الاصطناعي ضمن حدود الهدف المحدد، والصلاحيات المصرّح بها، والسلوك المتوقع، عبر جميع التفاعلات واستدعاءات الأدوات والوصول إلى البيانات.

ويرتكز الإطار على خمسة محاور رئيسية تشمل: توافق الهدف، الهوية والإسناد، اتساق السلوك، قابلية التدقيق، والشفافية التشغيلية، بما يمكّن المؤسسات من تفعيل حوكمة الذكاء الاصطناعي دون الحاجة إلى إعادة بناء بنيتها الأمنية الحالية.

وقال رايان كاليمبر، نائب الرئيس التنفيذي لاستراتيجية الأمن السيبراني في بروف بوينت: "يُفترض أن يلتزم الأفراد بمعايير واضحة عند استخدام الأنظمة المؤسسية، ويجب تطبيق المعايير نفسها على وكلاء الذكاء الاصطناعي. وتعني سلامة الوكلاء ضمان عملهم ضمن حدود المهام المحددة، والصلاحيات المصرح بها، والسلوك المتوقع عبر جميع التفاعلات واستدعاءات الأدوات والوصول إلى البيانات. ومن خلال Proofpoint AI Security وإطار Agent Integrity، نوفر خارطة طريق واضحة تمكّن المؤسسات من التعامل بشكل شامل مع المخاطر الناتجة عن التشغيل المستقل لوكلاء الذكاء الاصطناعي عبر أنظمتها."

يتوفر Proofpoint AI Security حالياً في جميع الأسواق العالمية. لمزيد من المعلومات: https://www.proofpoint.com/us/platform/ai-security

يمكن الاطلاع على إطار Agent Integrity عبر الرابط: https://acuvity.ai/the-agent-integrity-framework-and-maturity-model

نبذة عن بروف بوينت

تُعد بروف بوينت شركة عالمية رائدة في مجال الأمن السيبراني المرتكز على الأفراد والذكاء التوكيلي، حيث تؤمّن طرق تواصل الأفراد والبيانات ووكلاء الذكاء الاصطناعي عبر البريد الإلكتروني والسحابة وأدوات التعاون الرقمي. وتحظى بروف بوينت بثقة أكثر من 80 شركة من قائمة Fortune 100، وأكثر من 10,000 مؤسسة كبرى، وملايين المؤسسات الصغيرة، في مجال التصدي للتهديدات، ومنع تسرب البيانات، وتعزيز المرونة عبر سير العمل البشري والذكي. وتساعد منصة بروف بوينت لأمن البيانات والتعاون المؤسسات بمختلف أحجامها على حماية وتمكين فرقها مع تبني الذكاء الاصطناعي بثقة وأمان.

لمزيد من المعلومات، يرجى زيارة www.proofpoint.com :

للاستفسارات الإعلامية المرجو الاتصال ب:

سارة السكاري

Sara.seggari@bpggroup.com

-انتهى-

#بياناتشركات