L’impact de l’intelligence artificielle émotionnelle et des jouets numériques sur le développement de l’enfant

Posted on Posted in Droits des enfants, Education, Exploitation

Les technologies modernes prennent une place de plus en plus importante dans les espaces de jeu des enfants. Alors que le monde passe à l’ère numérique, les enfants sont plus fréquemment en contact avec les jouets numériques. Ces dernières années, en particulier, ont vu l’essor des jouets basés sur l’intelligence artificielle (IA) émotionnelle, à savoir des objets qui recueillent des données sur les enfants et adaptent leur fonctionnement en conséquence.

Cette évolution comporte, il est vrai, certains avantages : il existe des cas d’utilisation constructifs où les jouets ont été programmés pour déceler des problèmes de santé mentale en cours de développement, conditionner les comportements sains et améliorer l’apprentissage en ligne (McStay, 2020). Toutefois, de vives préoccupations demeurent.

Qu’est-ce que l’intelligence artificielle émotionnelle ?

L’IA émotionnelle se définit généralement comme « l’utilisation de l’informatique affective et de techniques d’IA dans le but de ressentir et de s’immiscer dans la vie émotionnelle de l’individu » (McStay et Miyashita, 2020). Ces techniques d’apprentissage poussées  recourent à la détection biométrique afin de déchiffrer et réagir aux réactions émotionnelles des enfants tout en recueillant des données audio et visuelles (McStay et Miyashita, 2020). Cette tendance à suivre et réagir au  comportement de l’enfant reflète certaines évolutions dans les appareils numériques destinés aux adultes. Bien que ces jouets demeurent pour l’instant limités, certains précédents laissent à penser qu’ils deviendront bientôt la norme. 

Les jouets ont évolué très progressivement sur le plan technologique. Ainsi, les circuits imprimés de la fin des années 1900 sont devenus des jouets connectés dans les années 2000, ouvrant pour finir la voie à l’intégration de logiciels de reconnaissance visuelle et vocale aux jouets à la fin des années 2010 (McStay et Miyashita, 2020). L’itération actuelle des jouets basés sur l’IA émotionnelle s’appuie ainsi sur cette immixtion historique de la technologie dans la vie des enfants.

Ces immixtions menacent de porter atteinte au droit des enfants à la vie privée, et, plus grave encore peut-être, à leur droit au développement de leur plein potentiel en vertu de l’article 29 de la Convention internationale des droits de l’enfant (CIDE) (Article 29 CIDE). En effet, les enfants, situés à un stade précoce de leur maturation émotionnelle, sont particulièrement vulnérables à l’influence de la technologie (McStay et Miyashita, 2020). 

Les spécialistes du développement de l’enfant et des techniques modernes de l’enseignement ont averti des graves dommages que des jouets conçus pour manipuler les émotions des enfants pourraient engendrer (McStay, 2020). Le recours à des technologies de détection des émotions peut entraver le développement de l’enfant et la conservation des données relatives aux enfants doit être soumise à une réglementation plus stricte (McStay, 2020).

En effet, bien que les pays appliquent généralement des lois relatives à la protection des données et de la vie privée, celles-ci sont essentiellement destinées aux adultes (McStay, 2020). Dans l’esprit de la Convention internationale des droits de l’enfant (CIDE), il est crucial de protéger les données des enfants et leur droit de jouer afin de s’assurer qu’ils ne sont pas manipulés dans une volonté de générer du profit. 

Les jouets basés sur l’IA émotionnelle en pratique

Les jouets basés sur l’IA émotionnelle se présentent le plus souvent sous la forme de petits appareils portatifs et présentés comme des « amis » pour les enfants. Jibo et Anki, les deux plus grands groupes actifs dans le domaine de la robotique sociale, sont les principaux précurseurs des avancées en la matière (Yao, 2017). Jibo(le jouet éponyme et révolutionnaire de l’entreprise) est décrit comme ayant une « présence fortement interactive et empathique » (Yao, 2017).

Cette description reflète en fait la capacité du jouet à reconnaître les enfants à leur visage et à se familiariser avec leurs centres d’intérêt, lui permettant ainsi d’interagir avec eux sur cette base (Yao, 2017). Le jouet est capable d’identifier les goûts d’un enfant et afficher des images ou du contenu en adéquation avec ceux-ci (Yao, 2017).

De même, la création la plus récente d’Anki, baptisée « Cozmo », un « robot-ami » abordable, repousse encore les limites du possible. Cozmo est en effet capable d’apprendre, de s’adapter et de répondre aux enfants, mais aussi d’avoir sa propre « humeur » (McStay, 2021). Le robot imite le comportement humain et montre de l’allégresse, de la confiance en soi, mais également de la tristesse ou de la colère en réponse à certaines situations (McStay, 2021). Le jouet apprend de son utilisateur au moyen de caméras, ce qui lui permet d’apprendre à reconnaître les visages et les noms, mais aussi de réagir aux émotions de base avec ses propres réactions « humaines » (McStay, 2021). 

L’histoire nous montre que ce type de jouets, tels que le Tamagotchi (jouet populaire créé dans les années 1990 et présenté comme un animal de compagnie virtuel), peut créer une dépendance chez les enfants, ceux-ci finissant par se sentir responsables du bien-être du robot (Jolin, 2017). Sans réglementation, les dangers de ces formes d’attachement n’auront de cesse de croître en corrélation avec les évolutions technologiques. 

Commercialisation du droit des enfants de jouer

Alors qu’il devient plus ardu pour les individus de préserver leurs informations personnelles, les enfants sont encore davantage exposés aux risques d’infiltration de leurs données. Des entreprises recueillent les données des enfants et les partagent avec des tiers et d’autres acteurs de l’entreprise afin d’élaborer de futures stratégies de marketing et de concevoir de nouveaux produits (McStay, 2020). Comme de nombreux rapports médiatiques en témoignent, les mesures lacunaires en matière de sécurité des données ont même permis la violation et la redistribution fréquentes d’ensembles de données (McStay, 2020). 

Alors que toujours plus de données liées au développement émotionnel des enfants sont recueillies et transmises, il devient délicat pour les familles et les enfants de suivre leurs informations et de les préserver des abus (McStay, 2020). La collecte de ces données comporte de plus grands risques encore, fournissant à des sociétés commerciales des informations cruciales leur permettant d’alimenter encore d’autres technologies manipulatrices à l’avenir. 

Cette pratique crée un déséquilibre de pouvoir.  Les enfants sont effectivement exploités comme une forme de « main-d’œuvre gratuite » par les sociétés et les entreprises, lesquelles cherchent à dégager un bénéfice en profitant de leur vulnérabilité (McStay, 2020). En établissant le profil du développement des enfants, ces fabricants de jouets violent le droit inhérent de l’enfant à la vie privée et l’exposent à la possibilité que ces informations sensibles le poursuivent dans sa vie adulte (McStay, 2020). L’enfance est le berceau de nombreux défis et constitue une période de grande vulnérabilité dans le développement d’une personne, qui peut entraver le développement réussi d’un adulte en bonne santé si l’enfant est laissé pour compte dans cette étape de sa vie.

Implications politiques

L’IA émotionnelle pose de nombreuses questions complexes aux décideurs politiques du monde entier. Si les parents ne comprennent pas entièrement le fonctionnement de ces jouets, les enfants devraient-ils jouer avec ? Laisser les enfants les utiliser, et par conséquent, voir leurs données collectées, est-il juste, sachant qu’ils ne sont pas en mesure de prendre de décision éclairée ?

Le caractère manipulateur de cette technologie, précédant le désir inhérent des parents d’assurer le bonheur de leur enfant, mais aussi la vulnérabilité inhérente des enfants, requiert une attention accrue. Des réglementations formelles ainsi qu’une gouvernance législative plus stricte sont requises. La législation actuelle ne parvenant pas, dans son ensemble, à protéger correctement les enfants à cet égard, des spécialistes ont suggéré diverses méthodes afin de pallier ces lacunes politiques.

Ainsi, les décideurs politiques pourraient chercher à identifier les données à caractère émotionnel comme une catégorie de données à part entière requérant une forme de protection distincte et ce, dans le but de garantir la protection effective des intérêts des enfants (McStay, 2020). Cette protection pourrait prendre la forme d’une interdiction d’utilisation de données à caractère émotionnel lorsqu’elle vise à alimenter des stratégies de marketing commercial et à orienter la conception de produits (McStay et Miyashita, 2020).

L’omniprésence des données à caractère émotionnel pourrait également donner lieu à l’élargissement du droit à l’effacement : le droit des enfants d’exiger que leurs données personnelles soient supprimées lorsqu’ils atteignent 18 ans (McStay, 2020). Les approches susmentionnées se doivent de suivre l’esprit de la CIDE et de répondre aux normes internationales.

Suggestions de solutions possibles

La technologie va continuer à s’immiscer dans la vie des enfants. Hello Barbie et Amazon Echo ne sont que quelques exemples de la nouvelle génération de jouets connectés, lesquels sont toujours actifs et suivent en permanence le comportement des enfants en vue de recueillir leurs données (McReynolds, 2017). Bien que ces jouets et d’autres soient présentés comme des jouets pédagogiques, les campagnes publicitaires n’informent pas les consommateurs quant à leur impact éventuel. Au niveau commercial, les sociétés, les ONG et les législateurs doivent unir leurs efforts afin de :

  • Réévaluer les types de données recueillies auprès des enfants ainsi que le besoin de conserver ces données dans un registre (McReynolds, 2017). Pour les sociétés, s’assurer que les données sont effacées après une période déterminée et mettre en place des procédures plus précises quant à la délimitation des données conservées.
  • Mandater les sociétés pour qu’elles soient obligées de mener des campagnes de sensibilisation afin de s’assurer que le public ait conscience des risques que les jouets dotés d’une IA émotionnelle représentent pour la vie privée et le développement de l’enfant (McReynolds, 2017).
  • Appliquer des formes de protection plus strictes en matière de vie privée de l’enfant afin de s’assurer que les concepteurs de jouets puissent être audités, certifiés et tenus responsables de leurs produits (McReynolds, 2017). 

Des stratégies peuvent également être mises en place au sein des familles afin de mieux protéger les enfants. Ainsi, les parents et les tuteurs peuvent :

  • S’abstenir de déléguer du temps et des tâches parentales à des jouets basés sur l’IA émotionnelle, lesquels, par nature, simplifient à outrance les interactions humaines et peuvent entraver le développement de l’enfant (McStay, 2020). Les enfants devraient être encouragés à faire appel à leur imagination autant que possible et à adopter un rôle actif dans leurs occupations.
  • Mener des recherches sur le fonctionnement des jouets basés sur l’IA émotionnelle et à leur possible impact. Accorder une attention particulière aux types de données recueillies par ces jouets et à la façon dont l’information est conservée et utilisée. 
  • Veiller, dans la mesure du possible, à la suppression régulière des données des enfants afin de protéger leur vie privée.

Humanium s’efforce de sensibiliser le public à l’importance des droits de l’enfant. Votre soutien rend notre travail possible ! Faites un don pour nous aider à faire des droits de l’enfant une réalité.

Écrit par Vanessa Cezarita Cordeiro

Traduit par Stella Borrelli

Relu par Victoire Ramos

Références : 

Akundi, S. (2020, March 2). ‘Gauging attachment when your child’s best friend is a robot.’ 

Jolin, D. (2017, September 10). ‘Would you want a robot to be your child’s best friend?’ 

McReynolds, E. Hubbard, S. Lau, T. Saraf, A. Cakmak, M. Roesner, F. (2017, May 6). ‘Toys that listen: A study of parents, children and Internet-connected toys.’ 

McStay, A. Rosner, G. (2020). ‘Emotional AI and children. Ethics, Parents, Governance.’ 

McStay, A. Rosner, G. (2021, March 15). ‘Emotional artificial intelligence in children’s toys and devices: ethics, governance and practical remedies.’ 

Prof. McStay, A. Prof, Miyashita, H. Dr. Rosner, G. Dr. Urquhart, L. (2020, November 11). ‘Comment on Children’s Rights in Relation to Emotional AI and the Digital Environment’. 

Terry, Q. (2018, November 15). “How AI-enabled toys are molding our children.” 

Turkle, S. (2017, December 7). ‘Why these friendly robots can’t be good friends to our kids.’ 

Yao, M. (2017, April 6). ‘Should your child’s best friend be a robot?’