La inteligencia artificial es la caridad desencarnada. No importa el enigma que te rodee, siempre que tengas internet y un aparato para acceder a él, tu amiga IA estará allí para ofrecerte su ayuda incondicional. Parece que los estudiantes lo han entendido más deprisa que nadie: alumnos de filosofía, de ingeniería, de diseño gráfico, de criminología o de matemáticas saben perfectamente a quién acceder cuando las abordan las dudas y, por desgracia, sobre todo cuando tienen que hacer trabajos. Los últimos años han sido un infierno para las universidades, que se han enfrentado al enorme reto de combatir una máquina que sabe hacer ensayos, estudios y cálculos y tiene como objetivo pasar por una persona. Los detectores de textos generados por inteligencia artificial son el estandarte de las instituciones educativas en la lucha contra este nuevo método de plagio, pero parece que estos mecanismos también tienen carencias —y los estudiantes honestos empiezan a encontrar los inconvenientes.
La pionera iniciativa que se ha extendido a las universidades catalanas y mundiales es la introducción de instrumentos de detección de textos creados por inteligencias artificiales. Este es el caso de Turnitin o de GPT Zero, que son los más comunes. Turnitin, creado en Estados Unidos en 1997, es la herramienta líder en la prevención del plagio académico. Su funcionamiento se basa al comparar los trabajos de los estudiantes con una enorme base de datos de textos, publicaciones y contenidos de internet, generando un informe que destaca las coincidencias y ayuda a identificar posibles casos de copia o de falta de integridad académica. Recientemente (2023), Turnitin también incorpora tecnología de inteligencia artificial para detectar textos generados por IA, analizando patrones lingüísticos y estructurales que suelen aparecer en escritos producidos por modelos como ChatGPT. GPT Zero, por su parte, es una herramienta más reciente (2024) desarrollada específicamente para detectar si un texto ha sido escrito por una IA. Utiliza algoritmos avanzados para analizar la fluidez, la predictibilidad y otras características del texto, identificando así la probabilidad que tiene el contenido de ser generado por una máquina. Ambas herramientas, sin embargo, se basan en una IA y funcionan con criterios probabilísticos, y parece que este método empieza a dejar entrever sus fisuras.
Comprobaciones y verificaciones ad infinitum: los errores de los detectores
El uso de la inteligencia artificial ya hace tiempo que no es la excepción entre los estudiantes. El 89% de los universitarios españoles utilizan IA en sus estudios, según un informe de 2024, y eso hace que hacer un control exhaustivo se haya vuelto una necesidad urgente. Sin embargo, el trabajo de estas herramientas no es perfecto y, paradójicamente, la lleva a cabo una IA, cosa que la hace menos fiable. Los detectores actuales a menudo cometen errores, y pueden marcar textos humanos como si fueran escritos por IA (falsos positivos) o hacer que textos de IA humanizados (a través de otras herramientas como HumanizeAI) pasen desapercibidos. Esta falta de precisión provoca que estudiantes honestos puedan ser acusados injustamente de hacer trampas, hecho que está causando que muchos universitarios se estén volviendo obsesivos a la hora de acreditar la originalidad de sus escritos. Hace cuatro días, por ejemplo, el New York Times se hacía eco del caso de una alumna, Leigh Burrell, que tuvo que enviar filmaciones de pantalla de su proceso de redacción con el fin de desmentir las acusaciones de Turnitin.
Lógicamente, las carencias de estos instrumentos no quitan valor a su función, actualmente primordial para auditar los trabajos de los alumnos y garantizar un mínimo de seguridad. No obstante, hay que destacar que no siempre están acertados y que se han detectado sesgos —como la alta penalización a estudiantes que no escriben en su lengua materna. La dependencia excesiva de la IA puede causar, pues, el deterioro de la confianza entre alumnado y profesorado, pero más allá de eso también nos presenta un dilema respecto del mismo sistema: ¿tenemos que confiar en la IA para combatir la IA? ¿Cómo salimos de este círculo vicioso? La gran problemática de la IA es su promesa —se verá si falsa o no— de mejora iterativa y progresiva (es lo que llamamos a Deep Learning), que es lo que hace que confiemos en su constante superación de los propios errores. El tema, aparte del escepticismo que puede suscitar este juramento, es como afrontamos el famoso mientras tanto. Ya sabemos que la IA va más deprisa que nosotros, pero no hay más remedio que acelerar motores para tomar la iniciativa mientras buscamos las formas de regular como dios manda.