Les tentatives visant à protéger la sécurité des enfants dans le monde bidimensionnel des médias sociaux en ligne pourraient avoir un impact négatif sur le monde 3D de la réalité augmentée et virtuelle, selon un rapport publié mardi par un groupe de réflexion technologique de Washington, DC.
Les efforts législatifs, comme le Kids Online Safety and Privacy Act (KOPSA), qui a été adopté par le Sénat américain et est maintenant devant la Chambre des représentants, pourraient conduire à une censure préjudiciable du contenu AR/VR, affirme le rapport de l’Information Technology & Innovation Foundation.
Si la KOPSA devient loi, les plateformes AR/VR pourraient être obligées de renforcer leur application de la même manière que les plateformes de médias sociaux traditionnelles, explique le rapport.
En donnant à la FTC le pouvoir de juger le contenu de ces plateformes comme nuisible, poursuit-il, la FTC peut surcensurer le contenu des plateformes AR/VR, ou les plateformes elles-mêmes peuvent censurer le contenu pour éviter toute responsabilité, ce qui pourrait inclure du contenu relatif à l’éducation, au divertissement et à l’identité des enfants.
« L’une de nos craintes concernant la KOPSA est qu’elle ouvre la porte à une éventuelle surcensure en donnant à la FTC (Federal Trade Commission) le pouvoir de décider de ce qui est considéré comme nuisible », a déclaré l’auteur du rapport, l’analyste politique Alex Ambrose.
« C’est une autre façon pour un parti politique de décider ce qui est nocif », a-t-elle déclaré à TechNewsWorld. « La FTC pourrait dire que des contenus comme la protection de l’environnement, le réchauffement climatique et le changement climatique sont anxiogènes. Nous devons donc nous débarrasser complètement de tout ce qui a trait au changement climatique, car cela pourrait provoquer de l’anxiété chez les enfants. »
La censure excessive peut être évitée
Andy Lulham, directeur opérationnel de VerifyMy, un fournisseur de vérification de l’âge et du contenu basé à Londres, a reconnu que le spectre d’une censure excessive plane sur les débats autour de la régulation en ligne. « Mais je crois fermement que cette crainte, bien que compréhensible, est largement injustifiée », a-t-il déclaré à TechNewsWorld. « Des réglementations gouvernementales bien conçues ne sont pas l’ennemi de la liberté d’expression, mais plutôt son gardien à l’ère numérique. »
Lulham a soutenu que la clé de la régulation réside dans l’approche. « Des réglementations générales et autoritaires risquent de faire pencher la balance vers une censure excessive », a-t-il déclaré. « Cependant, j’envisage un cadre réglementaire plus nuancé, fondé sur des principes, qui peut renforcer la liberté en ligne tout en protégeant les utilisateurs vulnérables. Nous avons vu des exemples de telles approches équilibrées dans des réglementations sur la confidentialité comme le RGPD. »
Le RGPD — Règlement général sur la protection des données — en vigueur depuis 2018, est une loi complète sur la protection des données dans l’Union européenne qui réglemente la manière dont les entreprises collectent, stockent et utilisent les données personnelles des résidents de l’UE.
« Je crois fermement que les réglementations devraient se concentrer sur l’obligation de systèmes et de processus de sécurité robustes plutôt que de dicter des décisions spécifiques en matière de contenu », a poursuivi Lulham. « Cette approche transfère la responsabilité aux plateformes de développer des stratégies globales de confiance et de sécurité, favorisant l’innovation plutôt que de créer une culture de peur et de distanciation excessive. »
Il a affirmé que la transparence sera le pilier d’une régulation efficace. « L’obligation de rapports de transparence détaillés permet de responsabiliser les plateformes sans avoir recours à une surveillance excessive du contenu », a-t-il expliqué. « Cela permet non seulement d’éviter les excès, mais aussi de renforcer la confiance du public dans les plateformes et dans le cadre réglementaire. »
« De plus, a-t-il ajouté, je plaide en faveur d’une réglementation exigeant des procédures d’appel claires et accessibles pour les décisions de suppression de contenu. Cette soupape de sécurité peut aider à corriger les erreurs inévitables et à empêcher une censure injustifiée. »
« Certains pourraient arguer que toute réglementation conduira inévitablement à une certaine censure », a concédé Lulham. « Cependant, je soutiens que la plus grande menace pour la liberté d’expression vient des espaces non réglementés où les utilisateurs vulnérables sont réduits au silence par les abus et le harcèlement. Des réglementations bien conçues peuvent créer des conditions de concurrence plus équitables, amplifiant les voix diverses qui pourraient autrement être étouffées. »
Le bon, la brute et le laid de la réalité augmentée/virtuelle
Le rapport de l’ITIF souligne que les discussions sur la sécurité en ligne négligent souvent les technologies AR/VR. Les technologies immersives favorisent les liens sociaux et stimulent la créativité et l’imagination, explique-t-il. Le jeu, l’imagination et la créativité sont tous essentiels au développement des enfants.
Le rapport reconnaît toutefois qu’il est difficile de répondre aux risques auxquels les enfants sont confrontés avec les technologies immersives. La plupart des technologies immersives existantes ne sont pas conçues pour les enfants de moins de 13 ans, poursuit-il. Les enfants explorent des espaces conçus par des adultes, ce qui les expose à des contenus inappropriés à leur âge et peut engendrer des habitudes et des comportements néfastes pour leur développement mental et social.
Pour faire face à ces risques, il faudra combiner innovation commerciale et politiques réfléchies, ajoute-t-il. Les décisions des entreprises en matière de conception, les pratiques de modération du contenu, les outils de contrôle parental et les stratégies de confiance et de sécurité façonneront en grande partie l’environnement de sécurité dans le métavers.
L’ITIF a toutefois reconnu que des interventions de politique publique étaient nécessaires pour s’attaquer à certaines menaces en matière de sécurité. Les décideurs politiques s’attaquent déjà à la sécurité des enfants sur les plateformes « 2D » telles que les réseaux sociaux, ce qui a conduit à des réglementations qui pourraient affecter la technologie AR/VR, a noté l’ITIF.
Avant d’adopter ces réglementations, le rapport recommande aux décideurs politiques de prendre en compte les efforts continus des développeurs de réalité augmentée/virtuelle en matière de sécurité et de veiller à ce que ces outils conservent leur efficacité. Lorsque les outils de sécurité sont insuffisants, poursuit-il, les décideurs politiques devraient se concentrer sur des interventions ciblées pour remédier aux préjudices avérés, et non aux risques hypothétiques.
« La plupart des services en ligne s’efforcent de supprimer les contenus préjudiciables, mais la quantité considérable de ces contenus en ligne signifie qu’une partie d’entre eux passera inévitablement entre les mailles du filet », a déclaré Ambrose. « Les problèmes que nous constatons aujourd’hui sur les plateformes, comme l’incitation à la violence, le vandalisme et la diffusion de contenus préjudiciables et de fausses informations, ne feront que perdurer sur les plateformes immersives. »
« Le métavers va prospérer grâce à des quantités massives de données, nous pouvons donc supposer que ces problèmes seront omniprésents – peut-être même plus omniprésents que ce que nous voyons aujourd’hui », a-t-elle ajouté.
La sécurité dès la conception
Lulham a approuvé l’affirmation du rapport selon laquelle les décisions de conception des entreprises façonneront l’environnement de sécurité du métavers.
« À mon avis, les décisions prises par les entreprises en matière de sécurité en ligne seront essentielles pour créer un environnement numérique sûr pour les enfants », a-t-il déclaré. « Le paysage actuel est semé d’embûches, et je pense que les entreprises ont à la fois la responsabilité et le pouvoir de le remodeler. »
Il a affirmé que la conception de l’interface utilisateur est la première ligne de défense pour protéger les enfants. « Les entreprises qui privilégient les conceptions intuitives et adaptées à l’âge peuvent fondamentalement modifier la façon dont les enfants interagissent avec les plateformes en ligne », a-t-il expliqué. « En créant des interfaces qui guident naturellement les utilisateurs vers des comportements plus sûrs et les éduquent à ce sujet, nous pouvons réduire considérablement les rencontres dangereuses. »
La modération des contenus se trouve à un tournant critique, a-t-il ajouté. « Le volume de contenus exige un changement de paradigme dans notre approche », a-t-il observé. « Si les outils basés sur l’IA sont essentiels, ils ne constituent pas une panacée. Je pense que l’avenir réside dans une approche hybride, combinant une IA avancée et une surveillance humaine pour naviguer sur la fine ligne entre protection et censure. »
Les outils de contrôle parental sont souvent négligés mais pourtant essentiels, a-t-il affirmé. Il ne s’agit pas de simples modules complémentaires, mais de fonctionnalités de base conçues avec la même attention que la plateforme principale. « J’imagine un avenir où ces outils sont si intuitifs et efficaces qu’ils deviennent partie intégrante de la vie numérique de la famille », a-t-il déclaré.
Il a affirmé que les stratégies de confiance et de sécurité différencieront les plateformes prospères de celles qui vacillent. « Les entreprises qui adoptent une approche holistique, intégrant une vérification rigoureuse de l’âge, une surveillance en temps réel et des rapports transparents, établiront la norme d’excellence », a-t-il déclaré. « Un engagement régulier avec les experts en sécurité des enfants et les décideurs politiques sera non négociable pour les entreprises qui souhaitent sérieusement protéger les jeunes utilisateurs. »
« Essentiellement », a-t-il poursuivi, « je vois l’avenir de la sécurité en ligne pour les enfants comme un avenir où la « sécurité dès la conception » n’est pas seulement un mot à la mode mais le principe fondamental qui guide tous les aspects du développement de la plateforme. »
Le rapport note que les enfants, en tant que moteurs du métavers, jouent un rôle crucial dans l’adoption par le marché des technologies immersives.
Garantir que l’innovation puisse prospérer dans ce domaine naissant tout en créant un environnement sûr pour tous les utilisateurs de la technologie AR/VR sera un défi complexe, a-t-il reconnu, ajoutant que les parents, les entreprises et les régulateurs ont tous un rôle à jouer en équilibrant les préoccupations en matière de confidentialité et de sécurité tout en créant des expériences immersives engageantes et innovantes.