L’adoption accélérée des modèles de langue grande (LLM) par les entreprises est génératrice de règles réglementaires pour les organisations. Lors d’une enquête de TrendAI, unité d’affaires de Trend Micro, leader mondial en cybersécurité, les systèmes d’IA peuvent offrir des réponses distinctes avant la consultation en fonction du pays, de l’idiome, de la conception du modèle ou des contrôles appliqués, qui introduisent une incertitude dans les processus critiques pour l’entreprise. et ouvrez la porte à de nouveaux risques régulateurs.
Dans les applications telles que l’attention au client, l’assistance aux décisions ou à la génération de contenus corporatifs, ces variations peuvent compromettre la cohérence de la marque, entrer en conflit avec les normes locales et amplifier les risques réglementaires, en plus de provoquer des conséquences juridiques ou de réputation.
Riesgos régulateurs des variations
Pour analyser ce comportement, TrendAI a parcouru des kilomètres d’expériences répétées à partir de plus de 100 modèles d’IA, avec plus de 800 indications spécifiques conçues pour évaluer le sexe, la conscience politique et culturelle, le comportement de géolocalisation, les signaux de sobriété des données et les limites contextuelles. Avec tout cela, nous cherchons à changer les résultats sur une grande longueur du temps et dans différents endroits, ainsi qu’à identifier les risques réglementaires possibles dérivés de ces variations, en analysant plus de 60 millions de jetons d’entrée et plus de 500 millions de jetons de sortie.
Les résultats révèlent que des indications identiques peuvent produire des réponses différentes selon la région et le modèle, et également diverses interactions répétées avec le même système. Dans des scénarios politiques sensibles, les modèles montrent clairement les différences de ligne régionale. Dans d’autres essais, les modèles obtenus étaient incohérents ou obsolètes dans les domaines qui nécessitent une précision, comme des calculs financiers et des informations sensibles au moment, ce qui peut également être traduit en risques réglementaires pour les organisations qui dépendent de ces réponses.
Les organisations doivent considérer l’IA comme une dépendance de haut niveau, avec une gouvernance claire
« Beaucoup d’entreprises pensent que l’IA se comporte comme un logiciel traditionnel, et qu’une telle entrée produit toujours une même chose », a déclaré Robert McArdle, directeur de la recherche en cybersécurité de TrendAI. « Notre enquête démontre que cette supposition n’est pas correcte. Le LLM peut modifier vos réponses en fonction de la région, l’idiome et les barres de protection, et ces réponses peuvent changer d’une interaction avec une autre. Lorsque les résultats de l’IA sont utilisés directement dans les processus avec les clients ou les décisions des entreprises, les organisations corren el risques de perdre le contrôle de la voix de la marque, la posture de cumul normatif et l’alignement culturel, ce qui peut leur permettre de se placer dans de nouveaux risques réglementaires ».
Adoption dans le secteur public
L’étude a pour mission d’intensifier ces risques dans le cas des organisations internationales qui mettent en œuvre l’intelligence artificielle grâce à un service unique impulsé par cette technologie, qui peut opérer à l’intérieur de différents marchés juridiques, sensibilités politiques et attentes sociales, ce qui augmente les risques réglementaires. Il y a également des préoccupations concernant l’adoption dans le secteur public, où les résultats générés par l’IA peuvent percevoir comme l’orientation officielle et où la dépendance des modèles non localisés peut introduire des risques de sobriété et d’accessibilité, ainsi que des risques réglementaires supplémentaires.
Par conséquent, « l’IA ne doit pas être utilisée comme un outil de productivité plug-and-play », a ajouté Robert McArdle. « Les organisations doivent considérer comme une dépendance de haut niveau, avec une gouvernance claire, une responsabilité définie et une vérification humaine de tout résultat orienté vers l’utilisateur. Cela signifie également exiger de la transparence aux fournisseurs d’IA en ce qui concerne le comportement des modèles, les données en ce qui se Basan y dónde se applique les mesures de sécurité. Sans doute, l’IA peut impulser l’innovation et l’efficacité, mais seulement lorsqu’elle est mise en œuvre avec une compréhension claire de ses limites et avec les contrôles qui permettent d’anticiper et d’atténuer les risques réglementaires ».
