¿ESTAMOS PREPARADOS PARA QUE LOS JUGUETES PIENSEN?

En un mundo donde la inteligencia artificial (IA) se integra en nuestra vida diaria a través de asistentes virtuales y dispositivos conectados, los juguetes no se quedan atrás. Hoy, los muñecos pueden hablar, reconocer al niño que los abraza y adaptar sus respuestas a su estado emocional.

Los juguetes con IA ofrecen experiencias educativas y emocionalmente ricas, como aprender los gustos y rutinas del niño, contar historias interactivas o incluso ayudar con las tareas escolares, sin embargo, esta inteligencia no es inocente. Estos juguetes recopilan datos, como emociones o patrones de comportamiento, lo que plantea un dilema ético.

¿Quién protege al menor?

Aunque la legislación europea está actualizándose, aún existen vacíos legales. Los dos marcos clave son:

Ley de Inteligencia Artificial de EU 2025; clasifica los sistemas de IA según su riesgo. Los juguetes con IA, considerados de alto riesgo, deben cumplir con criterios de transparencia, supervisión humana y evaluación ética.

Reglamento Europeo de Seguridad en Juguetes 2024/1689; mejora la seguridad física y química de los juguetes, pero no aborda los riesgos derivados de IA, como la manipulación emocional o la vigilancia encubierta.

Esto deja un vacío importante, ya que un juguete puede ser seguro físicamente, pero invasivo psicológicamente. Casos recientes, como los de asistentes de voz o muñecos con micrófonos, han llevado a investigaciones sobre el uso indebido de datos de menores. La jurisprudencia es limitada, pero la Sentencia del Tribunal de Justicia de la UE (C-184/20) subraya que los datos de menores deben ser protegidos especialmente.

¿Es ético que un juguete simule afecto? Los niños no distinguen entre un juguete animado y una IA. Si un muñeco responde con cariño, el niño puede desarrollar un apego emocional. ¿Es ético permitir que una máquina simule afecto? ¿Y qué pasa si el juguete genera dependencia o responde de manera inadecuada?

La industria, como Mattel, ya está desarrollando juguetes conversacionales con IA generativa. Aunque prometen filtros, estos sistemas aprenden de forma autónoma, lo que dificulta prever sus respuestas.

La verdadera pregunta no es si los juguetes pueden pensar, sino si hemos reflexionado lo suficiente sobre las consecuencias de la IA en el juego infantil. Puede ser una herramienta maravillosa, pero también un riesgo si no se regula adecuadamente.

En Moreno Anguita Abogados, nos mantenemos al día con las novedades jurídicas y tecnológicas, analizando su impacto en la protección de los derechos fundamentales, especialmente de los más vulnerables.

Porque todo futuro… merece reglas claras.

Resumen de privacidad
Moreno Anguita Abogados

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Cookies estrictamente necesarias

Las cookies estrictamente necesarias tiene que activarse siempre para que podamos guardar tus preferencias de ajustes de cookies.