Se ha investigado aún poco – y poco se ha escrito también- sobre los impactos, positivos y negativos, que el uso de la IA puede tener en niños y niñas. Uno de los pocos estudios significativos sobre el tema, del Instituto Alan Turing, nos lo traía a colación nuestro compañero de la Junta Directiva de ENATIC, José Manuel Vela. Se trata de un informe elaborado en el marco de una investigación basada en el marco “Innovación responsable en tecnología para la infancia” (RITEC) titulado Understanding the Impacts of Generative AI Use on Children y ha sido financiado por el grupo LEGO y la Fundación LEGO.
Resumen del informe
El informe examina cómo niños de 8 a 12 años, sus padres y maestros experimentan el uso de herramientas de inteligencia artificial generativa a través de encuestas y talleres escolares. Sobre la base de estas experiencias, el estudio ofrece recomendaciones para que los poderes públicos y las empresas desarrolladoras desarrollen esta tecnología de forma segura y beneficiosa para los menores.
El informe recoge dos tipos de impactos generales, tanto positivos como negativos:
• La IA generativa puede aportar beneficios si se desarrolla de manera segura, responsable y con participación infantil.
• Existen muchas preocupaciones en la actualidad en relación con la baja alfabetización en IA, la existencia de contenidos inapropiados, la exclusión de los niños en el diseño de estas herramientas y su impacto ambiental.
Recomendaciones principales
El informe desgrana una serie de conclusiones y recomendaciones:
1. Promover una IA centrada en la infancia
• Incluir activamente las perspectivas de los niños en la creación de políticas sobre IA.
• Diseñar herramientas apropiadas para su edad y seguras.
• Certificar herramientas adecuadas para su uso educativo.
• Apoyar a niños con necesidades educativas especiales mediante IA.
2. Garantizar el acceso equitativo
• Reducir la brecha digital: 52% de niños en colegios privados usan IA frente al 18% en escuelas públicas.
• Desplegar herramientas en escuelas públicas y proporcionar recursos gratuitos.
3. Uso responsable por parte de docentes
• El 60% de los maestros usan IA (principalmente para planificar clases).
• Se debe formar a los docentes y facilitarles acceso institucional a herramientas de IA.
4. Mejorar la alfabetización en IA
• Muchos niños no conocen el término “IA generativa”.
• Se deben de incluir contenidos sobre IA, ética, sesgos, impacto ambiental y plagio en los programas escolares.
• Guiar a padres sobre cómo abordar la IA con sus hijos.
5. Abordar los sesgos en la IA
• La falta de representación lleva a los niños a rechazar su uso.
• Se debe asegurar que las herramientas reflejen diversas experiencias y culturas.
6. Considerar el impacto ambiental
• La huella ecológica de la IA preocupa a los niños.
• Hay que informar de manera comprensible sobre el uso de energía y recursos naturales.
7. Apoyar el juego y la creatividad
• Se ha establecido que los niños prefieren actividades creativas offline frente a la IA.
• La IA debe complementar, no reemplazar, materiales táctiles y experiencias físicas.
Otras actualidades de la semana
La UE está adaptando la legislación europea a los avances tecnológicos. El Parlamento Europeo pretende tipificar expresamente como delito el uso de sistemas de IA diseñadas o adaptadas principalmente para cometer delitos de abuso sexual infantil.
La posición de la Eurocámara
El pasado martes, el Parlamento aprobó su posición sobre el proyecto legislativo destinado a mejorar la capacidad de los países de la UE para combatir eficazmente el abuso sexual de menores. Para ello, la Eurocámara respaldó actualizar las definiciones a escala de la UE de los delitos relacionados con el abuso sexual y la explotación de menores. La propuesta está diseñada para adaptar la legislación a las nuevas tecnologías —por ejemplo, imágenes de abusos falsas pero de aspecto realista— y garantizar que el abuso y el embaucamiento puedan ser perseguidos independientemente de que se produzcan online o en el mundo real.
Nuevos delitos tecnológicos
Para adaptar la legislación de la UE a los avances tecnológicos, el Parlamento quiere tipificar explícitamente como delito el uso de sistemas de inteligencia artificial «diseñados o adaptados principalmente» para cometer delitos de abuso sexual infantil. También ha respaldado disposiciones sobre la retransmisión en directo de tales abusos y la difusión en línea de material relacionado. Para que las investigaciones sean más eficaces, la Eurocámara aboga por la posibilidad de llevar a cabo investigaciones encubiertas y emplear métodos de vigilancia discreta.