Les nouveaux commandes parentales pour l’un des chatbots d’IA génératives les plus populaires sur le Web ont été déployés lundi par Openai.

La société a annoncé que les contrôles de ChatGpt seront disponibles pour tous les utilisateurs du chatbot, permettant aux parents de lier leur compte avec le compte de leur adolescent et de personnaliser les paramètres pour une expérience sûre et adaptée à l’âge.

Cette décision intervient alors qu’un procès est en instance devant la Cour supérieure de San Francisco par les parents d’Adam Raine, qui allègue que le garçon de 16 ans s’est suicidé après avoir été encouragé à le faire par Chatgpt.

Voici comment fonctionnent les contrôles:

Pour les configurer, un parent ou un tuteur envoie une invitation à leur adolescent à connecter des comptes. Après que l’adolescent ait accepté, le parent peut gérer les paramètres de l’adolescent à partir de son propre compte. Les adolescents peuvent également inviter un parent à se connecter.

Une fois liés, les parents peuvent personnaliser l’expérience de leur adolescent dans Chatgpt dans une page de contrôle simple dans les paramètres du compte. Si un adolescent libère son compte, leur parent sera informé.

Avec les contrôles, OpenAI a également introduit des garanties améliorées pour les comptes adolescents liés. Une fois que les parents et les adolescents connectent leurs comptes, le compte Teen obtiendra automatiquement des protections de contenu supplémentaires, y compris un contenu graphique réduit, des défis viraux, un jeu de rôle sexuel, romantique ou violent et des idéaux de beauté extrêmes.

Les parents auront la possibilité de désactiver ces paramètres, a expliqué OpenAI, mais les utilisateurs des adolescents ne peuvent pas apporter de modifications.

Caractéristiques de base pour les parents

Grâce à une page de contrôle, les parents auront accès à ces fonctionnalités:

  • Réglez les heures silencieuses ou les moments précis où le chatppt ne peut pas être utilisé;
  • Désactivez le mode vocal pour supprimer l’option pour utiliser le mode vocal dans chatgpt;
  • Éteignez la mémoire, donc Chatgpt n’enregistre pas et n’utilisera pas de souvenirs lors de la réponse;
  • Supprimer la génération d’images, donc ChatGpt n’aura pas la possibilité de créer ou de modifier des images; et
  • Optez-vous de la formation des modèles, afin que les conversations de leur adolescent ne soient pas utilisées pour améliorer les modèles alimentant le chatppt.

« Ces contrôles parentaux sont un bon point de départ pour les parents dans la gestion de l’utilisation de Chatgpt de leur adolescent », a déclaré Robbie Torney, directeur principal des programmes d’IA chez Common Sense Media, dans un communiqué.

«Les commandes parentales ne sont qu’une pièce du puzzle lorsqu’il s’agit de garder les adolescents en sécurité en ligne,, a-t-il poursuivi. «Ils fonctionnent mieux lorsqu’ils sont combinés avec des conversations en cours sur l’utilisation responsable de l’IA, des règles familiales claires sur la technologie et une implication active dans la compréhension de ce que leur adolescent fait en ligne.»

Empêcher de renommer sur l’IA

Alex Ambrose, analyste politique de la Fondation des technologies de l’information et de l’innovation, une organisation de recherche et de politique publique à Washington, DC, a soutenu que les contrôles parentaux sont certainement un pas dans la bonne direction pour résoudre certains des problèmes de sécurité en ligne des enfants avec les chatbots. « C’est particulièrement vrai lorsque les parents ont la flexibilité pour choisir les options qui leur fonctionnent le mieux », a-t-elle déclaré à Technewsworld.

«En même temps, tous les enfants ne vivent pas dans un foyer avec des parents disposés ou capables de rechercher leur intérêt supérieur en ligne», a-t-elle déclaré. «Même les parents qui ont le temps et les compétences pour surveiller l’utilisation de leurs enfants ont besoin d’outils pour faciliter cela, c’est pourquoi il est formidable de voir des plateformes implémenter ces types de systèmes.»

« Openai indique au marché qu’il se soucie de l’adolescent, qui est un problème chaud de nos jours », a ajouté Vasant Dhar, professeur à l’Université de New York et auteur de «Thinking with Machines: The Brave New World of IA».

« Je pense qu’ils sont un bon début », a-t-il déclaré à Technewsworld. «Si les enfants savent que leurs interactions sont surveillées, ils sont moins susceptibles de s’éloigner des ennuis.»

Eric O’Neill, un ancien opérateur de contre-espionnage du FBI et auteur de «Cybercrime: Cybersecurity Tactics to Arecter les pirates et les escrocs de désarmement», a souligné que les contrôles parentaux donnent aux familles une chance de fixer des limites avant que l’IA ne devienne une béquille. « Il y a quelque chose de magique à penser à cette première ligne créative dans un essai sans que l’IA vous le donne », a-t-il déclaré à Technewsworld.

« L’IA est puissante, mais trop tôt peut étouffer la capacité d’un enfant à imaginer, à lutter et à créer », a-t-il déclaré. «Les parents doivent intervenir avant que les enfants externalisent leur capacité à créer. Je m’inquiète pour un avenir où il n’y a pas de pages vierges.»

Motivé par le procès?

Lisa Strohman, fondatrice de la Digital Citizen Academy de Scottsdale, en Arizona, une organisation axée sur l’éducation dédiée à la promotion de l’utilisation de technologies sûres et responsables parmi les étudiants, les parents et les éducateurs, a convenu que les contrôles parentaux sont un bon début. « Mais franchement, ayant été sur le terrain depuis 20 ans, je pense que c’est plus une atténuation des risques basée sur des situations difficiles récentes qui se sont produites pour eux », a-t-elle déclaré à Technewsworld.

« Je pense qu’ils publient quelque chose de mieux que rien, mais je pense que nous ne pouvons pas externaliser la parentalité », a-t-elle déclaré.

« Nous devons être réalistes quant à savoir si quelqu’un qui veut que nous utilisions leur produit à maintes reprises va vraiment mettre en place des garanties qui vont empêcher les gens d’utiliser leur produit », a-t-elle ajouté.

Les contrôles parentaux sont «terriblement inadéquats», a soutenu que Peter Swimm, un éthicien de l’IA et fondateur de Tobeville, une agence de l’IA conversationnelle, à Bellevue, Wash. « La seule raison pour laquelle ils mettent même cette technologie en place est de les protéger contre les poursuites », a-t-il déclaré à Technewsworld.

Il a expliqué que la gouvernance est nécessaire lors de l’utilisation de l’IA car ses résultats peuvent être aléatoires et imprévisibles. De plus, a-t-il poursuivi, «les chatbots sont conçus de manière à vous donner ce que vous voulez, même si ce que vous voulez est mauvais.»

« J’ai une fille de 11 ans et je ne la laisserai pas utiliser l’IA sans supervision », a-t-il déclaré. «Je pense que c’est très problématique, très dangereux, surtout si un enfant n’a pas le contexte dont il a besoin pour utiliser ces outils de manière saine. Cela peut renforcer les résultats négatifs.»

Compagnon douteux

Giselle Fuerte, fondatrice et PDG d’être Human avec AI, une entreprise axée sur l’éducation des gens sur l’éthique de l’intelligence artificielle, à Spokane, Washington, a fait valoir que les contrôles parentaux des chatbots d’IA sont nécessaires car il est devenu clair que l’accès non supervisé et non modéré à ces systèmes peut conduire à des interactions inappropriées et préjudiciables.

« Tout comme nous protégeons les cerveaux en développement des enfants avec des systèmes de cote de jeux vidéo et de films, nous avons besoin de contrôles pour les systèmes d’IA », a-t-elle déclaré à Technewsworld. «Ces systèmes sont conçus avec des tactiques puissantes et personnelles pour engager les utilisateurs, sans égard à l’âge ou au stade de développement de l’utilisateur.»

Les enfants comptent sur les chatbots non seulement pour l’école et la recherche, mais aussi pour la compagnie et les conseils, a ajouté Yaron Litwin, CMO de Canopy, un fabricant de logiciels et d’outils pour surveiller les appareils des enfants et l’activité en ligne. « Ils peuvent être influencés par les erreurs de confiance, les biais subtils et l’intimité artificielle, qui peuvent tous provoquer de nombreux effets négatifs », a-t-il déclaré à Technewsworld.

« Tant qu’un enfant est autorisé à accéder à un chatbot », a-t-il dit, « les contrôles parentaux sont essentiels pour le garder en sécurité, ou du moins pour minimiser les chances de danger. »

Fixer des limites saines pour une utilisation de l’IA

David Proulx, co-fondateur et chef de l’IA, chez Holomd, une société de technologie de santé spécialisée dans la surveillance thérapeutique à distance alimentée par l’IA et un soutien à la décision clinique, à Rockville, dans le Maryland, a souligné que les contrôles parentaux pour les chatbots ne sont pas destinés à éliminer les enfants de la dernière technologie. «Ils sont censés fixer des limites autour d’une technologie qui, par conception, ne dit jamais non», a-t-il déclaré à Technewsworld.

« Ces systèmes sont toujours allumés et toujours agréables », a-t-il déclaré. « Cela peut être risqué pour un enfant qui se sent déjà vulnérable. »

« Si un enfant passe plus de temps à se confier à un bot qu’aux personnes qui les entourent, c’est un drapeau rouge », a-t-il poursuivi. « Des étapes simples comme limiter la longueur de la session, fixer des limites de conversation ou signaler l’utilisation tard dans la nuit peut aider à briser les modèles de dépendance. Mais les filtres seuls ne sont pas suffisants. Le besoin réel est pour les gardiens plus intelligents qui se concentrent sur le comportement, pas seulement le contenu. »

Pour plus d’informations sur la configuration et l’utilisation de ces nouvelles fonctionnalités, visitez la page d’introduction des contrôles parentaux d’Openai.

A lire également