Dynatrace a présenté ses projets pour l’année 2024, offrant une vision unique des tendances émergentes qui influencent l’environnement de la technologie et de l’observabilité. Des progrès ont été réalisés en intelligence artificielle jusqu’à la transformation du noyau. Oui, l’IA génératrice entrera dans les phases finales de votre cycle d’expansion, et les organisations se rendront compte que cette technologie transformatrice ne peut pas générer une valeur significative pour elle seule.
En conséquence, adoptez une recherche d’intelligence artificielle composée de, combinant l’intelligence artificielle générative avec d’autres types d’intelligence artificielle et des sources de données supplémentaires. Cette enfoque pourrait avoir une raison plus avancée et apporterait une précision, un contexte et une signification aux résultats produits par l’intelligence artificielle génératrice.
Par exemple, les équipes DevOps combinent l’intelligence artificielle générative avec l’intelligence artificielle causale et prédictive pour renforcer l’innovation numérique en prévoyant et en prévenant les problèmes avant qu’ils ne se produisent. Asimismo, vous générerez de nouveaux flux de travail pour automatiser le cycle de vie de l’entrée de logiciel.
« Ces prédictions subrayan notre vision d’un futur technologique où l’observabilité des données devient un pilier fondamental. La résilience dépend crucialement de la capacité de comprendre et d’optimiser l’information et de fournir une vision profonde qui permet une automatisation la plus intelligente et une prise de décision la plus rapide qui garantit l’issue des organisations dans un environnement en constante évolution. affirmer José Matias, vice-président régional d’Iberia et Dynatrace.
Le code généré par IA crée la nécessité de systèmes immunitaires numériques
En 2024, de nombreuses organisations ont provoqué des interruptions significatives dans vos services numériques en raison de la présence d’un code logiciel de basse qualité ou mal supervisé. Les développeurs dépendent de plus en plus d’agents autonomes générés par l’intelligence artificielle pour écrire des codes, ce qui augmente le risque de problèmes inattendus qui affectent l’expérience des clients et des utilisateurs.
Avant cela, les organisations cherchaient à développer des systèmes immunitaires numériques qui intègrent des pratiques et des technologies dans la conception, la conception, l’exploitation et l’analyse des logiciels. L’objet est protégé à l’intérieur, garantissant la résilience du code par défaut. Pour cela, les organisations utilisent l’intelligence artificielle prédictive pour anticiper les problèmes dans le code ou les applications avant qu’elles ne se produisent, en activant des réponses automatiques pour sauvegarder l’expérience de l’utilisateur.
Les organisations désignent un directeur de l’intelligence artificielle (IA) pour superviser l’utilisation sûre et responsable de l’IA.
Au cours de l’année prochaine, les organisations ont nommé plus d’exécutifs supérieurs dans leurs équipes directes pour aborder les implications de sécurité, de cumul et de gouvernance liées à l’intelligence artificielle (IA). Afin que les employés se familiarisent avec l’utilisation de l’IA dans leur vie personnelle, ils les emploieront également pour augmenter leur productivité dans leur travail, en utilisant des outils comme ChatGPT. Reconnaissant que les employés peuvent utiliser l’IA sans autorisation si ce n’est pas leur employeur officiel, les organisations désignent un directeur de l’intelligence artificielle (Chief AI Officer – CAIO) pour superviser l’utilisation de ces technologies.
Le CAIO se consacre au développement politique, éduque et renforce la force de travail pour utiliser l’IA de manière sûre, en protégeant l’organisation contre l’incapacité accidentelle, la fuite de la propriété intellectuelle ou les moyens de sécurité. Ces pratiques vont dans le sens de l’adoption généralisée de l’IA par les organisations, qui se transformeront éventuellement en un commerce commun, similaire au téléphone mobile.
L’observabilité des données sera obligatoire
L’observabilité des données sera essentielle pour impulser l’automatisation intelligente et la prise de décisions agiles dans les organisations. Avec le volume de données dupliqué chaque année, les organisations peuvent accélérer l’acquisition et l’analyse des données à grande échelle. Cependant, le coût et les risques associés aux données de basse qualité sont les plus significatifs qui ne le soient pas.
Ll’intelligence artificielle impulsionne la nécessité d’observabilité sur de nouveaux territoires, à partir de la viabilité jusqu’à l’efficacité financière opérationnelle
L’augmentation de l’observabilité des données permettra aux utilisateurs, comme les équipes d’exploitation de TI et l’analyse commerciale, de comprendre la disponibilité, la structure, la distribution, les relations et la gestion des données dans diverses sources, y compris les plates-formes dans les entreprises distribuées hybrides et multicloud. .
Les organisations étendent l’observabilité à la plupart des cas d’utilisation commerciale à travers la haute direction qui cherche à répondre aux objectifs de pérennité et FinOps
La pression d’adopter des pratiques commerciales ambiantes durables et d’aborder les coûts dans le futur impulsera l’observabilité d’être une priorité de TI à devenir un besoin commercial. L’augmentation de l’utilisation de l’intelligence artificielle par une partie des organisations, qui permettra une plus grande consommation de ressources dans le noyau et les corps de carbone ampliadas, sera un facteur clé dans cette évolution.
Sans embargo, l’analyse des données d’observation impulsive par l’IA peut aider à surpasser ces défis, en améliorant les pratiques de FinOps et en soutenant la fourniture d’informations exploitables et en alimentant l’automatisation intelligente pour aborder les points critiques d’inefficacité dans les entreprises du monde.
Ceci augmente l’utilisation de l’observabilité impulsionnelle pour permettre aux organisations d’ordonner automatiquement leurs systèmes pour une utilisation optimale des ressources, en réduisant les émissions et les coûts d’exploitation dans le nu. En conséquence, on espère un spécialiste intéressé par les cas d’utilisation de l’observabilité plus partout dans le cadre de TI, car les entreprises en général commencent à prêter attention à cette tendance.
L’ingénierie des plates-formes sera critique pour la mission
Les organisations reconnaissent qu’un pipeline d’entrée de logiciels qui fonctionne de manière fluide et sûre est également vital pour la continuité du commerce, la qualité et la sécurité des services numériques en ce que les utilisateurs finaux et les clients ont confiance. Par conséquent, vraiment un changement fait la production (conversion des services d’une entreprise en produits) des outils utilisés pour impulser les meilleures pratiques de DevOps, de sécurité et d’ingénierie de fiabilité du site (SRE).
Cela permettra à l’avant-garde d’utiliser l’ingénierie des plates-formes afin que les organisations codifient les connaissances et les capacités nécessaires pour automatiser les pipelines d’entrée de logiciels de sécurité. Au moment où cette tendance est engagée, les processus d’entrée de logiciel, de sécurité et d’exploitation se dérouleront à travers les interfaces de programmation d’applications (API) qui automatisent ces tâches en fonction d’information en temps réel de données d’observabilité.
Les organisations éliminent progressivement les solutions héritées du SIEM afin que les équipes de sécurité travaillent sur une analyse des solutions la plus intelligente.
Les solutions avancées de renseignement et d’analyse des solutions remplacent progressivement les systèmes traditionnels de gestion de l’information et des événements de sécurité (SIEM). Ces solutions modernes permettent aux équipes de sécurité d’élargir leurs capacités au maximum dans l’analyse des registres, en accédant au contexte proportionné par diverses modalités de données et différents types d’intelligence artificielle, qui incluent des techniques génératives, causales et prédictives, un travail de manière intégrée.
En conséquence, les organisations ont mené une analyse des mesures la plus approfondie et la plus précise, assurée par l’intelligence et l’automatisation, pour protéger de manière efficace leurs applications et données contre les mesures toutes les plus sophistiquées.