Red Hat, fournisseur de solutions de code ouvert, a annoncé l’acquisition de Chatterbox Labs, pionnier de la sécurité des modèles indépendants d’IA et des mécanismes de protection pour l’IA génératrice.
Cette acquisition s’accompagne de capacités critiques en matière de « sécurité pour l’IA » dans le portefeuille de Red Hat AI, renforçant les efforts de l’entreprise pour offrir une plate-forme d’entreprise IA complète et un code ouvert conçu pour le jeune hybride.
L’annonce est annoncée dans une année d’innovation rapide pour Red Hat AI, entre l’introduction de Red Hat AI Inference Server et le lancement de Red Hat AI 3. Les clients de tout le monde et de tous les secteurs ont adopté Red Hat AI pour impulser l’innovation dans le cadre d’applications d’IA génératrices, prédictives et opérationnelles.
Alors que les entreprises passaient par l’expérimentation de la production, elles se heurtaient à un défi complexe : des modèles qui n’étaient pas seulement puissants, mais aussi démontrables, fiables et sûrs. Les capacités de sécurité et les mécanismes de protection sont un élément indispensable pour les opérations d’apprentissage automatique (MLOps) modernes.
Cette étude sur la sécurité et la confiance reflète le compromis de Red Hat et d’IBM pour aider les clients à adopter une mentalité de sécurité comme priorité à l’augmentation de l’IA de manière responsable dans l’environnement du jeune hybride. L’intégration de la technologie de Chatterbox Labs a créé une plate-forme unifiée où la sécurité est intégrée, renforçant la capacité de Red Hat pour permettre des charges de travail d’IA de production avec n’importe quel modèle, dans n’importe quel accélérateur, à n’importe quel endroit.
Selon Steven Huels, vice-président de l’ingénierie IA et de la stratégie produit chez Red Hat, « les entreprises sont à la tête de l’IA du laboratoire pour la production à grande vitesse, ce qui fait qu’il est plus urgent de fournir des services fiables, sûrs et transparents d’IA. La technologie innovante de tests de sécurité et les mécanismes de protection pour Les modèles indépendants de Chatterbox Labs sont la capacité critique de « sécurité pour l’IA » que l’industrie a besoin d’intégrer Chatterbox Labs dans le portefeuille de Red Hat AI, nous avons promis aux clients de fournir une plate-forme complète et un code ouvert qui ne leur permettent pas d’exécuter n’importe quel modèle, en. n’importe où, si ce n’est avec la certitude que la sécurité est intégrée depuis le principe, cette acquisition aidera à habiliter une IA véritablement responsable et de production à une échelle supérieure.
Répercussions imprévisibles de l’IA
Fondé en 2011, Chatterbox Labs apporte des technologies et des expériences critiques en matière de sécurité et de transparence de l’IA. Votre expérience en termes de valeur quantitative de l’IA a été appréciée par des groupes d’experts indépendants au niveau mondial et responsables politiques, et l’acquisition d’un port technologique est un domaine d’apprentissage automatique chez Red Hat.
Chatterbox Labs offre des capacités automatisées et personnalisées de tests de sécurité et de protection de l’IA, fournissant les paramètres de risque que les dirigeants d’entreprise ont besoin pour approuver le développement de l’IA en production. La technologie offre une étude robuste et indépendante du modèle pour valider les données et les modèles à partir de :
- AIMI pour l’IA générative : Proportiona métricas cuantitativas de riesgo indépendantes para grands modelos de lenguaje (LLM).
- AIMI pour IA prédictive : Valide toute architecture d’IA sur des piliers clés, y compris robustesse, équivalence et explicabilité.
- Mécanismes de protection : Inseguros, toxicos ou sesgados avant de mettre les modèles en production.
Nouvelle génération de charges de travail de IA
Cette acquisition est en ligne avec la vision de Red Hat pour soutenir divers modèles et entreprises de développement dans le noyau hybride. Il complète également les capacités de vision du futur introduites dans Red Hat AI 3, en particulier pour l’IA agile et le protocole de contexte du modèle (MCP).
Afin que les entreprises adoptent l’IA génétique, les modèles fiables et sûrs soient considérés comme les plus critiques, en raison du papier complexe et autonome des agents d’IA et de leur impact potentiel sur les systèmes commerciaux centraux.
Chatterbox Labs offre des capacités automatisées et personnalisées de tests de sécurité et de protection de l’IA
« Afin d’étendre les systèmes d’IA à tous les aspects des affaires et de la société, nous ne pouvons pas permettre que la sécurité soit transformée en une boîte noire propriétaire », a déclaré Stuart Battersby, Ph.D., co-fondateur et directeur de la technologie, Chatterbox Labs. Pour cela, « il est fondamental que les mécanismes de protection de l’IA ne soient pas déployés seuls ; ils doivent être rigoureusement testés et contrôlés avec un support technique démontrable. Chatterbox Labs a été pionnier dans cette discipline depuis les premiers jours de l’IA prédictive jusqu’aux systèmes informatiques de la maison. Lors d’une étude sur Red Hat, Nous pouvons appliquer ces mesures de sécurité validées et indépendantes à la communauté de code ouvert. Cette transparence permet aux entreprises de vérifier la sécurité sans dépendre du fournisseur, permettant ainsi à l’avenir de pouvoir bénéficier d’une IA sûre, évolutive et ouverte », conclut le directif.
Chatterbox Labs a réalisé un travail d’enquête sur la sécurité physique holistique, y compris la surveillance des réponses des agents et la détection des activateurs d’actions du serveur MCP. Ce travail est en ligne avec la journée de route de Red Hat pour le support de Llama Stack et MCP, en positionnant Red Hat pour assurer la prochaine génération de charges de travail intelligentes et automatisées sur une base de confiance et une liste pour les entreprises.
En combinant les capacités de MLOps de Red Hat avec les capacités de mécanismes de protection de Chatterbox Labs, Red Hat permettra aux organisations opérationnelles de réaliser leurs inversions en IA avec une plus grande confiance.
