Même si ChatGPT n’est pas conçu à des fins criminelles, les cybercriminels utilisent cette IA pour des activités illégales, telles que la création d’e-mails ou de SMS frauduleux pour tromper des personnes sans méfiance.

En relation avec ce sujet, Hillstone Networks souhaitait clarifier certains aspects de ChatGPT et sa relation avec la cybercriminalité.

« Il est important de garder à l’esprit que tout outil, y compris ChatGPT, peut être utilisé à des fins légitimes et illégitimes. Il incombe aux utilisateurs de l’outil de l’utiliser de manière éthique et légale », commente Marcelo Palazzo, directeur commercial pour la région européenne de Hillstone Networks.

ChatGPT : un outil basé sur le comportement

OpenAI, créateur de ChatGPT, a présenté GPT-4, une mise à jour qui améliore la capacité de raisonnement et réduit de 82 % les chances de répondre à des demandes inappropriées.

À cet égard, son utilisation pour créer des attaques malveillantes a suscité des inquiétudes sur le marché de la cybersécurité. Par conséquent, diverses questions ont été soulevées quant à la possibilité que cette IA puisse être utilisée par des cybercriminels pour mener des attaques de logiciels malveillants.

Hillstone iSource XDR a la capacité de détecter les menaces basées sur le comportement et, par conséquent, d’identifier si un fichier exécute des tâches pour lesquelles il n’a pas été conçu, comme ChatGPT.

Pour freiner ce problème, les outils de cybersécurité actuels développés par Hillstone Networks, tels que iSource XDR, protègent l’infrastructure et les données des entreprises grâce à des services de visibilité et de renseignement sur les menaces.

Hillstone iSource XDR a la capacité de détecter les menaces basées sur le comportement, c’est-à-dire que la technologie vous permet d’identifier si un fichier exécute des tâches pour lesquelles il n’a pas été conçu.

Grâce à ce type de technologie, les entreprises peuvent être sûres de disposer des meilleurs outils pour faire face aux attaques malveillantes, même lorsque des utilisateurs malveillants ont utilisé des outils tels que ChatGPT ou la nouvelle version de GPT-4.

A lire également