Una tecnología sin filtro
- Fernando Trias de Bes
- Barcelona. Domingo, 30 de noviembre de 2025. 05:30
- Tiempo de lectura: 2 minutos
La semana pasada, en mi columna dominical, ya abordé la cuestión referida a la posición de la Unión Europea en materia de IA. Expliqué y argumenté el papel regulatorio y de protección que, a falta de ser líderes en desarrollo tecnológico, nos quedaba plantear.
Desarrollo hoy aquí aquella columna. ¿A qué aspectos me refería?
La inteligencia artificial no solo trae avances. También trae riesgos. Y si no se gestionan bien, pueden volverse en contra del propio progreso que prometen.
Primero, el riesgo de desinformación personalizada. El problema no es que una IA genere una noticia falsa. No hablamos (solo) de las famosas fakenews de las que tanto se viene hablando a partir de la explosión de las RSS.
La manipulación digital ya no es masiva, es personalizada. ¿Hay algo más eficaz?
El problema es que esa misma IA puede saber cómo piensas, qué ideología tienes, qué te indigna y qué deseas. Y con esa información generar un contenido (falso o tendencioso) que encaje exactamente con tus sesgos y lo recibas sin cuestionarlo. La manipulación digital ya no es masiva, es personalizada. ¿Hay algo más eficaz?
Pero hay otra vertiente más. La de alguien (lo hacemos todos) pidiendo consejo legal o médico a ChatGPT. Es decir, el riesgo de tomar decisiones personales sin filtro profesional. Hoy, millones de personas consultan a una IA temas que antes consultarían con un médico, un abogado o un asesor financiero. El problema es que la IA acierta a menudo, pero cuando se equivoca, lo hace con la misma firmeza. No hay duda, no hay advertencia. Y detrás de una recomendación equivocada puede haber un diagnóstico falso, un tratamiento erróneo o una mala decisión legal. No es una noticia falsa sobre un actor. Es una recomendación falsa sobre tu salud o tu empresa. No hay firma. No hay sello. No hay nadie detrás. Y, sin embargo, se toman decisiones. Decisiones personales basadas en errores en un limbo legal ni seguros de responsabilidad civil.
Tercero, el riesgo en el trabajo. No es del todo cierto que la IA vaya a destruir millones de empleos. Pero sí es cierto que va a cambiar cómo se hacen. La IA no elimina tareas humanas: las transforma. Y eso obliga a reaprender, a adaptarse, a reubicar funciones. ¿Estamos preparados para esta reconversión silenciosa? Si no se regula, la reconversión puede ser inasumible y convertiremos una revolución tecnológica en una revolución marxista. Porque entonces sí que se destruirá empleo. Lo estamos viendo ya en todas las tecnológicas. Los anuncios de regulación de empleo de Telefónica de esta misma semana son una perfecta muestra.
Cuarto, el riesgo sobre la seguridad y la privacidad. Hoy mismo, al levantarme, me he encontrado en la bandeja de entrada con un correo de OpenAI informando que uno de sus proveedores ha sufrido un robo masivo de datos: nombres, correos, ubicación aproximada. Y eso que hablamos de una de las compañías más avanzadas del sector. Si esto ocurre allí, imaginemos en cientos de pequeñas empresas que desarrollan modelos de IA sin los mismos estándares de ciberseguridad. La vulnerabilidad crece a medida que se masifica el uso de esta tecnología.
La IA no me preocupa. Me interesa y la quiero para nuestra sociedad y organizaciones. Me preocupa cómo gestionamos la reconversión
Y quinto, un riesgo del que casi nadie habla: la sobreproducción de contenido. Hasta ahora, el contenido lo generaban los humanos. Ahora también lo hacen las máquinas. Y a un ritmo inédito. Cada día se suben más de 100.000 canciones a Spotify. Los textos, vídeos, imágenes, ideas, argumentos, artículos y presentaciones generados por IA se multiplican exponencialmente. Pero mientras se multiplica la creación, no crecen igual los filtros, la curaduría, el criterio. Es más fácil crear que ordenar. Y eso puede saturar a los usuarios, diluir el valor de los contenidos humanos y hacer cada vez más difícil captar la atención. Es un riesgo que no es técnico: es cultural. No sabremos si algo es relevante o simplemente reciente.
Y luego está la cantidad de emisiones de CO₂ que esta genera. Pero no quiero ahondar en algo que requiere un debate distinto. Sería muy discutible si asignar cuotas de emisión a los coches antes que a la IA. Pero no podemos dejar de considerar esta cuestión.
En resumen, a mí la IA no me preocupa. Me interesa y la quiero para nuestra sociedad y organizaciones. Pero lo que me preocupa es cómo gestionamos la reconversión. Porque no somos máquinas. Somos una sociedad y las máquinas han de estar al servicio de esta, no para amenazar su estabilidad y orden.