La influencia de la inteligencia artificial emocional y los juguetes digitales en el desarrollo infantil

Posted on Posted in Derechos del Niño, Educación, Explotación

Los espacios de juego de los niños están cada vez más atravesados por las nuevas tecnologías. A medida que el mundo se inserta en la era digital, los niños se ven cada vez más expuestos a los juguetes digitales. Concretamente, durante los últimos años han aumentado los juguetes desarrollados con inteligencia artificial (IA) emocional; son dispositivos que recogen información sobre los niños y adaptan su funcionamiento en base a ello.

Si bien esta innovación tiene sus beneficios — existen casos en los que los juguetes se han programado para identificar trastornos mentales incipientes, motivar el comportamiento positivo y mejorar la educación online (McStay, 2020) — también trae grandes preocupaciones.

¿Qué es la inteligencia artificial emocional?

En general, se entiende por inteligencia artificial emocional al «uso de técnicas de Inteligencia Artificial y computación afectiva para percibir y “sentir” emociones humanas» (McStay y Miyashita, 2020). Estas avanzadas tecnologías del aprendizaje utilizan la identificación biométrica para reconocer y reaccionar ante las respuestas emocionales de los niños, mientras reúnen datos visuales y auditivos (McStay y Miyashita, 2020). Esta tendencia a monitorear y responder al comportamiento de los niños reproduce lo sucedido con otros desarrollos tecnológicos destinados a un público adulto. Aunque estos juguetes aún no han alcanzado una gran difusión, existen precedentes históricos que sugieren que se convertirán en algo habitual.

Los juguetes han evolucionado poco a poco tecnológicamente: los juegos de circuitos de los años 90 del siglo pasado se convirtieron en juguetes con conexión a internet en los 2000; luego se introdujeron programas de reconocimiento de voz e imágenes a finales del 2010 (McStay y Miyashita, 2020). Así, la iteración actual de los juguetes con inteligencia artificial emocional se suma a la ya histórica intrusión de la tecnología en las vidas de los niños.

Estas intromisiones amenazan con socavar el derecho de los niños a la privacidad y, lo que es quizás aún más preocupante, su derecho a desarrollarse hasta el máximo de sus posibilidades como indica el Artículo 29 de la Convención de las Naciones Unidas sobre los Derechos del Niño (CDN) (CNUDN, Artículo 29). Como los niños  se encuentran en una etapa temprana de su desarrollo emocional, son especialmente vulnerables a la influencia de la tecnología (McStay & Miyashita, 2020).

Especialistas en desarrollo infantil y tecnologías del aprendizaje han anunciado los graves daños que podrían ocasionar los juguetes diseñados para manipular las emociones de los niños. (McStay, 2020). El uso de tecnologías que detectan las emociones puede afectar el desarrollo de los niños y el almacenamiento de sus datos necesita mayores controles (McStay, 2020).

Si bien es probable que los distintos países refuercen sus leyes de protección de datos personales y de la privacidad, estas se centrarán mayoritariamente en los derechos de  los adultos (McStay, 2020). Siguiendo los pasos de la Convención de los Derechos del Niño (CDN), es extremadamente necesario proteger los datos personales de los mismos y su derecho a jugar a fin de garantizar que no sean manipulados para obtener beneficios económicos.

Los juguetes con inteligencia artificial emocional en la práctica

Los juguetes con inteligencia artificial emocional suelen tener la forma de pequeños dispositivos portátiles y presentarse como «amigos» para los niños. Las empresas líderes en robótica social, Jibo y Anki, han sido pioneras en el desarrollo de este campo (Yao, 2017). Jibo (el primer juguete exitoso de la empresa con el mismo nombre) es descrito como «una presencia muy empática e interactiva» (Yao, 2017). De hecho, esta descripción refleja la capacidad del juguete de reconocer los rostros de los niños y detectar sus intereses para luego interactuar con ellos conforme a los datos obtenidos (Yao, 2017). El juguete es capaz de identificar sus gustos  y mostrarles imágenes e historias nuevas relacionadas con esas preferencias (Yao, 2017).

De forma similar, Cozmo, la última creación de Anki, es un «amigo» robot de precio accesible que va un poco más allá. Cozmo puede aprender, adaptarse y responderle a los niños, pero, además, presenta un estado anímico propio (McStay, 2021). En imitación del comportamiento humano, el robot tiene la capacidad de mostrarse tanto alegre y seguro de sí mismo como triste y enojado cuando determinada situación provoca esa respuesta (McStay, 2021). Al captar información por medio de cámaras, el juguete reconoce rostros y nombres; a la vez, puede reaccionar a algunas emociones básicas con respuestas «humanas» propias (McStay, 2021).

Diversos antecedentes señalan que este tipo de juguetes, como el Tamagotchi —una mascota digital de juguete popular en los años 90—, pueden generar problemas de dependencia emocional en los niños, quienes se sienten responsables del bienestar del robot (Jolin, 2017). Sin un control apropiado, los peligros de este tipo de apegos solo aumentarán con la tecnología.

La comercialización del derecho de los niños al juego

Si para los adultos es cada vez más difícil proteger su información personal, el riego de que se filtren datos de los niños es aún mayor. Algunas empresas están recopilando información de los niños y la comparten con terceros y otros actores corporativos para implementar nuevas estrategias de mercadotecnia y para el diseño de productos (McStay, 2020). Como han informado los medios de comunicación en repetidas ocasiones, unas débiles medidas de protección de datos han permitido incluso que datasets se vulneren y redistribuyan frecuentemente (McStay, 2020).

Como cada vez se recolecta y distribuye una mayor cantidad de información relacionada con el desarrollo emocional de los niños, se vuelve difícil para las familias y hasta para ellos mismos rastrearla y protegerla del uso inadecuado (McStay, 2020). Esta recopilación de datos acarrea riesgos aun mayores al brindarle a las empresas comerciales información vital para el desarrollo de más tecnologías de la manipulación en el futuro.

Esta práctica genera un desequilibrio de poder. Los niños son utilizados como una forma de «trabajo no remunerado» por empresas que intentan aprovecharse de su vulnerabilidad para obtener ganancias (McStay, 2020). Al realizar perfiles con la información acerca del desarrollo infantil, estas empresas de juguetes violan el derecho inherente de los niños a la privacidad y los exponen a la posibilidad de que esta información sensible los persiga en la adultez (McStay, 2020). La infancia es una etapa compleja y de gran vulnerabilidad en el desarrollo de las personas, por lo que se podría obstaculizar la evolución del niño en un adulto sano si se los abandona en esta etapa temprana.

Las implicancias políticas

La inteligencia artificial emocional plantea numerosos interrogantes de gran complejidad para los legisladores de todo el mundo. Si los progenitores no comprenden del todo la implicancia de estos juguetes, ¿los niños deberían jugar con ellos? Es más, ¿es justo permitirles a los niños usar estos juguetes —y dejar que recolecten sus datos— si no son capaces de tomar una decisión bien fundada?

La naturaleza manipuladora de esta tecnología, el deseo previo e inherente de los progenitores de garantizar la felicidad de sus hijos y la vulnerabilidad innata de los niños requieren que se les preste una mayor atención (McStay, 2020). Es necesario implementar regulaciones y leyes gubernamentales más estrictas. Las legislaciones actuales, en general, no protegen adecuadamente a los niños en este aspecto. Para subsanar estos vacíos legales, diferentes especialistas han propuesto algunas metodologías.

Los legisladores podrían procurar que los datos emocionales sean considerados como una categoría particular a la que se le deba brindar una protección única para garantizar el resguardo adecuado de los niños. Podría llevarse a cabo a través una norma que prohíba la utilización de datos emocionales para aplicarse en el marketing comercial y el diseño de productos (McStay & Miyashita, 2020). La ubicuidad de los datos emocionales también podría motivar una ampliación del derecho al olvido: el derecho de los niños a solicitar la eliminación de sus datos personales al cumplir los 18 años (McStay, 2020). Todos estos métodos deben formularse ajustándose  al espíritu de la CDN  y siguiendo los estándares internacionales.

Recomendaciones para implementar soluciones posibles

Cada vez en mayor medida, la tecnología formará parte de la vida de los niños. Hello Barbie y Amazon Echo solo son algunos ejemplos de la nueva generación de juguetes inteligentes que siempre están encendidos y monitoreando el comportamiento de los niños para la recolección de datos (McReynolds, 2017). Mientras que se los promociona como juguetes educativos, las campañas publicitarias no informan a los compradores sobre los posibles impactos de estos juguetes. A nivel comercial, las empresas, las ONG y los legisladores deben cooperar para: 

  • Revaluar el tipo de información que se recolecta de los niños y la necesidad de llevar un registro de esos datos (McReynolds, 2017). Las empresas podrían procurar asegurarse de eliminar la información luego de un período de tiempo determinado y establecer procedimientos más específicos para definir qué datos conservar.
  • Exigir que las empresas deban realizar campañas de concienciación  para garantizar que el público esté informado de los riegos que suponen los juguetes con inteligencia artificial emocional en relación con la privacidad y el desarrollo de los niños (McReynolds, 2017)
  • Implementar controles más estrictos sobre la privacidad de los niños para garantizar que los creadores de juguetes puedan ser auditados, necesiten una habilitación para hacerlos y puedan responsabilizarse por sus productos (McReynolds, 2017).

También se pueden tomar medidas en casa para proteger mejor a los niños; los progenitores y tutores pueden:

  • Evitar reemplazar el pasar tiempo de calidad con los hijos y las responsabilidades de la paternidad en juguetes con inteligencia artificial emocional. Por su naturaleza, estos juguetes simplifican demasiado las interacciones sociales, lo que podría perjudicar el desarrollo infantil (McStay, 2020). Se recomienda alentar a los niños a usar su imaginación tanto como sea posible, ya que juega un papel crucial y activo en su desarrollo.
  • Investigar acerca del funcionamiento de los juguetes con inteligencia artificial  emocional y sus posibles efectos. Los progenitores deberían prestar especial atención a los tipos de datosque los juguetes recolectan y a las formas en que esa información se almacena y mantiene.
  • Asegurarse, en la medida de lo posible, de que se eliminen los datos de los niños de forma periódica para proteger su privacidad.

En Humanium, buscamos crear conciencia sobre la importancia de los derechos de los niños. ¡Nuestro trabajo es posible gracias a su apoyo! Haga una donación para ayudarnos a hacer de los derechos de los niños una realidad.

Escrito por Vanessa Cezarita Cordeiro

Traducido por Clara Roncoroni

Revisado por Esperanza Escalona

Referencias:

Akundi, S. (2020, March 2). ‘Gauging attachment when your child’s best friend is a robot.’ 

Jolin, D. (2017, September 10). ‘Would you want a robot to be your child’s best friend?’ 

McReynolds, E. Hubbard, S. Lau, T. Saraf, A. Cakmak, M. Roesner, F. (2017, May 6). ‘Toys that listen: A study of parents, children and Internet-connected toys.’ 

McStay, A. Rosner, G. (2020). ‘Emotional AI and children. Ethics, Parents, Governance.’ 

McStay, A. Rosner, G. (2021, March 15). ‘Emotional artificial intelligence in children’s toys and devices: ethics, governance and practical remedies.’ 

Prof. McStay, A. Prof, Miyashita, H. Dr. Rosner, G. Dr. Urquhart, L. (2020, November 11). ‘Comment on Children’s Rights in Relation to Emotional AI and the Digital Environment’. 

Terry, Q. (2018, November 15). “How AI-enabled toys are molding our children.” 

Turkle, S. (2017, December 7). ‘Why these friendly robots can’t be good friends to our kids.’ 

Yao, M. (2017, April 6). ‘Should your child’s best friend be a robot?’