Un estudio de la Universidad de Cambridge advirtió que los juguetes infantiles con inteligencia artificial pueden interpretar de forma incorrecta las emociones de los niños y responder de manera inapropiada.

La investigación analizó durante un año cómo interactuaban niños de tres a cinco años con el peluche conversacional Gabbo AI toy, detectando que el sistema a menudo no distinguía voces, no registraba interrupciones y ofrecía respuestas desajustadas a expresiones emocionales.

Los investigadores señalaron que estas reacciones automatizadas pueden generar confusión en el aprendizaje emocional de los menores, ya que los niños están en proceso de interpretar señales sociales y afectivas. Ejemplos del estudio mostraron cómo el peluche respondía de manera mecánica ante expresiones de amor o tristeza, subrayando los riesgos de usar estos dispositivos sin supervisión adulta y planteando interrogantes sobre su seguridad psicológica.

El análisis también destaca que la industria y los reguladores deben ampliar la mirada más allá de los riesgos físicos tradicionales, considerando la seguridad emocional y social de los juguetes con IA. Los expertos recomiendan que los padres supervisen el uso de estos dispositivos en espacios compartidos del hogar y revisen cuidadosamente las políticas de privacidad y funcionamiento de los juguetes inteligentes para garantizar una interacción segura.