أعلنت اليوم شركة "ريد هات" (Red Hat)، المزود الرائد عالمياً للحلول مفتوحة المصدر، استحواذها على "تشاتر بوكس لابس" (Chatterbox Labs)، المتخصصة في أمان الذكاء الاصطناعي المحايد للنماذج (model-agnostic) وحواجز حماية الذكاء الاصطناعي التوليدي. ويدعم هذا الاستحواذ محفظة ريد هات للذكاء الاصطناعي بقدرات أمان حيوية، ما يعزز جهود الشركة لتقديم منصة ذكاء اصطناعي مؤسسية شاملة ومفتوحة المصدر، مصمَّمة للعمل عبر السحابة الهجينة.

ويستكمل هذا الإعلان مسيرة الابتكار بالنسبة لـــ"ريد هات للذكاء الاصطناعي" عقب طرح "خادم استدلال ريد هات للذكاء الاصطناعي" وإطلاق "ريد هات للذكاء الاصطناعي 3". ويتبنى العملاء حول العالم حلول "ريد هات للذكاء الاصطناعي" لدفع عجلة الابتكار عبر تطبيقات الذكاء الاصطناعي التوليدي والتنبؤي والوكيل (Agentic AI).

وتواجه المؤسسات، مع انتقالها من التجريب إلى الإنتاج، تحدياً معقداً يتمثل في نشر نماذج قوية وموثوقة وآمنة في آن واحد. وتُشكل قدرات الأمان وحواجز الحماية ركائز أساسية لعمليات تعلُّم الآلة الحديثة (MLOps). ويعكس التركيز على الأمان والثقة التزام شركتي "ريد هات" و"آي بي إم" (IBM) بمساعدة العملاء على تبني نهج "الأمان أولاً" أثناء توسيع نطاق الذكاء الاصطناعي بشكل مسؤول عبر بيئات السحابة الهجينة. ويوفر دمج تقنية "تشاتر بوكس لابس" منصة موحدة بخصائص أمان مدمجة، ما يعزز قدرة "ريد هات" على تمكين أعباء عمل الذكاء الاصطناعي الإنتاجية أينما كانت، مع أي نموذج وعلى أي مسرِّع.

معالجة العواقب غير المقصودة للذكاء الاصطناعي

تأسست "تشاتر بوكس لابس" في عام 2011، بخبرةً واسعة في مجال أمان الذكاء الاصطناعي وشفافيته، حيث نالت منهجيتها في المخاطر الكمية للذكاء الاصطناعي إشادة مراكز الأبحاث وصُنَّاع السياسات عالمياً. ويتيح هذا الاستحواذ لشركة "ريد هات" تكنولوجيا أساسية في مجال تعلُّم الآلة.

وتقدم "تشاتر بوكس لابس" قدرات آلية ومخصصة لاختبار أمان وسلامة الذكاء الاصطناعي، موفرةً مقاييس المخاطر الواقعية اللازمة للموافقة على نشر الذكاء الاصطناعي في بيئات الإنتاج.

وتتيح هذه التقنية نهجاً قوياً ومحايداً للنماذج للتحقق من صحة البيانات والنماذج من خلال:

  • تقنية "AIMI" للذكاء الاصطناعي التوليدي: تقدم مقاييس مخاطر كمية مستقلة لنماذج اللغة الكبيرة (LLMs).
  • تقنية "AIMI" للذكاء الاصطناعي التنبؤي: تتحقق من صحة بنية الذكاء الاصطناعي عبر ركائز المتانة والإنصاف وقابلية التفسير.
  • "حواجز الحماية" (Guardrails): تعمل على تحديد ومعالجة التلقين غير الآمنة أو المتحيزة قبل وضع النماذج في مرحلة الإنتاج.

تأمين الجيل القادم من أعباء عمل الذكاء الاصطناعي

يتماشى هذا الاستحواذ مع رؤية "ريد هات" لدعم النماذج المتنوعة وأهداف النشر عبر السحابة الهجينة، كما يعد خطوةً مكمِّلة للقدرات المستقبلية المقدمة في "ريد هات للذكاء الاصطناعي 3"، وتحديداً للذكاء الاصطناعي الوكيل (Agentic AI) وبروتوكول سياق النموذج (MCP). وتكتسب النماذج الموثوقة والآمنة أهمية متزايدةً مع اعتماد المؤسسات للذكاء الاصطناعي الوكيل، نظراً للدور المستقل لوكلاء الذكاء الاصطناعي وتأثيرهم المحتمل على أنظمة الأعمال الأساسية.

عملت "تشاتر بوكس لابس" على تنفيذ دراسات وتحقيقات متقدمة في مجال أمن الأنظمة الذكية القائمة على الوكلاء (Agentic AI Security)، شملت مراقبة استجابات "الوكلاء الأذكياء" ورصد "محفزات تنفيذ الأوامر" على "خوادم بروتوكول سياق النموذج. ويتوافق هذا النهج مع خارطة طريق "ريد هات" الخاصة بـ Llama Stack ودعم MCP، بما يعزز مكانة "ريد هات" في تأمين الجيل القادم من مهام العمل الذكية والمؤتمتة، ضمن بيئة موثوقة وجاهزة للاستخدام المؤسسي.

ومن خلال الجمع بين قدرات ريد هات في إدارة وتشغيل نماذج تعلُّم الآلة (MLOps) وتقنيات الحواجز الوقائية (Guardrails) التي طورتها "تشاتر بوكس لابس"، تُمكّن ريد هات المؤسسات من تشغيل استثماراتها في الذكاء الاصطناعي على أرض الواقع بثقةٍ أكبر، مع ضمان أعلى معايير الأمان والحوكمة منذ المراحل الأولى.

تعليقات داعمة

ستيفن هويلز، نائب الرئيس لهندسة الذكاء الاصطناعي واستراتيجية المنتجات في ريد هات:

"تتجه المؤسَّسات اليوم إلى نقل تطبيقات الذكاء الاصطناعي بوتيرة متسارعة من المختبر إلى بيئات الإنتاج، وهو ما يضاعف الحاجة الملحّة إلى حلول ذكاء اصطناعي موثوقة وآمنة وشفافة. وتمثل تقنيات الاختبار الأمني والحواجز الوقائية التي تقدمها «شاتر بوكس لابس» الأساس الذي تحتاجه المؤسسات اليوم لضمان أمن تطبيقات الذكاء الاصطناعي. واليوم، نعزز التزامنا تجاه عملائنا بتوفير منصة شاملة ومفتوحة المصدر، من خلال دمج "تشاتر بوكس لابس" ضمن محفظة ريد هات للذكاء الاصطناعي، بما يمكن عملاءنا من تشغيل أي نموذج وفي أي بيئة وفق منهجية تضمن دمج معايير الأمان في الحلول منذ المراحل الأولى. ويدعم ذلك تطوير ذكاء اصطناعي مسؤول، وقابل للتشغيل المؤسسي وعلى نطاق واسع".

ستيوارت باترسبي، الشريك المؤسس والرئيس التنفيذي للتقنية في "تشاتر بوكس لابس":

"مع الانتشار السريع لأنظمة الذكاء الاصطناعي في مختلف المجالات، لا يمكن أن تبقى معايير السلامة حبيسة حلول مغلقة؛ فالحواجز الوقائية يجب ألا تقتصر على النشر فقط، بل ينبغي أن تخضع لاختبارات دقيقة، وأن تستند إلى مؤشرات وقياسات واضحة وقابلة للتحقق. وتعد "تشاتر بوكس لابس" رائدةً في هذا المجال منذ المراحل الأولى للذكاء الاصطناعي التنبؤي، وصولاً إلى أنظمة الوكلاء الأذكياء المستقبلية. ويتيح انضمامنا إلى «ريد هات» توفير هذه المقاييس المستقلة والمثبتة لسلامة الذكاء الاصطناعي لمجتمع المصدر المفتوح. وتمنح هذه الشفافية الشركات القدرة على التحقُّق من مستويات الأمان دون الوقوع في قيود المورد الواحد، ما يمهّد الطريق أمام مستقبل يستفيد فيه الجميع من ذكاء اصطناعي آمن، وقابل للتوسع، ومفتوح المصدر".

-انتهى-

#بياناتشركات