Estos días, la discusión sobre el ChatGPT —la IA generativa en general— inunda el discurso público. Mientras países como Islandia están trabajando para facilitar su e-gov, otros, como Italia, quieren prohibirla. Mientras autores como Yuval Harari o tecnológicos como Ramon López de Mantaras apuntan a que destruirá la democracia, otros, como Bill Gates o Andrew Ng, auguran una nueva era gloriosa para la humanidad.

Ahora bien, exactamente todos se apuntan a la regulación, como si se tratara de una varita mágica que solucionaría todos los problemas. ¿Se puede regular la IA?

A la hora de regularla, nos encontramos con dos problemas importantes. El primero, que es una tecnología de propósito general; es decir, a estos modelos de lenguaje como el ChatGPT les puedes pedir cómo hacer una tortilla, que se inventen una nueva o cuáles serían los pasos para construir una bomba atómica. Cierto es que progresivamente estos modelos tienen más filtros y rehúsan contestar ciertas preguntas y en poco tiempo este será un tema acotado. Ahora bien, el problema de fondo es que es un medio y no un fin. ¿Cómo regulamos medios? ¿Cómo regulamos un ordenador o un martillo? La regulación se hace en el uso y no en el medio. Eso es todavía más grave cuando te encuentras con una tecnología de propósito general como la electricidad, los ordenadores o la inteligencia artificial.

El segundo problema es que las tecnologías se coconstruyen. No aparece Steve Jobs diciendo: ahora dejaremos de hablar por teléfono y todo se hará con mensajes de texto y de voz por el WhatsApp o ahora en vez de ir al bar discutiremos en Twitter. Todo eso pasa después de que los ciudadanos se apropien de la tecnología, se la hagan suya, empresas como WhatsApp lancen propuestas, estas tengan éxito y el mundo cambie. La tecnología no se imagina un día y se despliega, sino que se cocrea entre las empresas, los tecnólogos, los ciudadanos y los gobiernos. Eso necesita un tiempo, que es más largo cuanto mayor es el alcance de la tecnología, como los smartphones o los modelos de lenguaje como ChatGPT. Es decir, no podemos saber antes de hora cuál será el uso de una tecnología y qué tendrá éxito y qué no (ya nos gustaría, pero...).

Esto hace que la regulación tiene que ser necesariamente cocreada y vaya siempre por detrás de la tecnología —no regulas lo que te imaginas que podría pasar, sino lo que ha pasado y no es bueno— y pida un proceso de consenso social que pasa por la discusión.

Hablemos de los objetivos

¿Qué objetivos tendría esta regulación? La IA generativa, como dice Bill Gates, abre la puerta a la edad de la inteligencia artificial. Es una crisis tecnológica que definirá los nuevos ganadores y perdedores, el nuevo espacio. Una transformación que ninguna sociedad que quiera permanecer como líder o aspire a serlo o simplemente a ser una sociedad próspera, no se puede permitir perder.

Por lo tanto, cualquier regulación tiene que ser una regulación proinnovación que nos haga más prósperos y más competitivos. Ahora bien, el mercado no solucionará todos los problemas, no nos hará más competitivos en temas sociales, en la administración pública o en temas como la igualdad. Así pues, hay que cubrir estos vacíos.

1. Hacer de la IA una herramienta de progreso y prosperidad económica y social. Estos días se han apuntado muchos riesgos, que existen; riesgos como su aplicación en medicina con diagnósticos erróneos o su uso en las escuelas sin ninguna crítica, etc. Hay que mitigar estos riesgos, pero hay que hacerlo de una forma balanceada, de modo que nunca el remedio sea peor que la enfermedad. Una regulación excesiva —y de eso sabemos mucho— aplasta la innovación y finalmente destruye la prosperidad y el bienestar social. Es, pues, muy importante fomentar su adopción a todos los niveles.

2. Mitigar de una manera balanceada los riesgos que pueda comportar la IA una vez identificados con claridad con una regulación eficiente. Tiene que haber, sin embargo, un tercer objetivo. Esta es una tecnología que definirá ganadores y perdedores de un nuevo mundo. Como sociedad, tenemos que estar entre los primeros. Si queremos una sociedad justa, tenemos que construir una sociedad próspera.

3. Posicionarnos como líderes en IA, un campo que será fundamental para la competitividad.

Hablemos de políticas

Los objetivos son muy bonitos, pero por sí solos no construyen el futuro. Hay que implementarlos en políticas concretas. Lo primero que hay que hacer es fomentar su adopción; si no nos podemos permitir perder esta disrupción tecnológica, hay que adoptar la tecnología a todos niveles y por eso nos harán falta planes de aceleración para las organizaciones y apoyo a las pequeñas y medianas empresas.

1. Políticas proinnovación que fomenten la adopción de la IA y los modelos LLM (del inglés, Large Language Models) con planes de aceleración. Algo muy importante es fomentar la confianza en la IA, por eso en algunos casos hacen falta estándares, en otros, certificaciones concretas y, en general, crear un clima de que hay gente que sabe y está pendiente, y que si hay problemas, se solucionarán. El pánico nos llevará al oscurantismo, a que unos pocos lo hagan igualmente y lo hagan sin ninguna transparencia.

2. Políticas que fomenten la confianza en la IA. Como toda intervención pública, hay que asegurarse de que la intervención, de que la regulación, tenga un balance positivo. No existe la regulación sin consecuencias negativas, pero las positivas tienen que superar con creces a las negativas. Por eso las legislaciones tienen que ser experimentadas, evaluadas, probadas y reescritas cuando no funcionen bien.

3. Políticas proporcionadas que no frenen la innovación. Hay campos especiales, campos donde la iniciativa privada no llegará y donde hay una mayor sensibilidad porque las intervenciones pueden costar incluso vidas. Por eso hay un mecanismo que son las sandboxes, espacios donde se permite actuar al margen de la regulación por un tiempo determinado, con supervisión y aprobación previa. Hay que utilizar sandboxes para transformar la atención médica, la educación, las ciudades, la administración... son los expertos en cada uno de estos temas los que tienen que estar al frente, son ellos los que tienen que decidir qué y cómo hacerlo.

No tenemos que buscar enseñar a maestros o médicos cómo se tiene que adoptar la IA, tenemos que proporcionar el espacio y los medios para que ellos puedan experimentar, evaluar y decidir.

4. Políticas que creen sandboxes en campos como la medicina, la educación, las smart cities o la administración. La innovación es cocreada, la legislación también. La innovación no es lo que hacen los innovadores o los tecnólogos, es lo que adopta la sociedad. Es impensable crear una regulación y unas políticas que no involucren al conjunto de la sociedad y, especialmente, el colectivo al que van dirigidas, médicos, educadores, ciudadanos... También es impensable crear una regulación que no entronque con nuestro entorno y con la reglamentación existente.

5. Políticas que involucren el conjunto de la sociedad, especialmente los colectivos a los cuales van dirigidas y que encajen en el marco existente contribuyendo a su mejora. Esta es también una gran oportunidad de cambio, de solución de problemas que son estructurales y, por lo tanto, de difícil solución. Uno de ellos es la burocracia, todos hemos soñado con una administración capaz de dirigirse a cada ciudadano de forma individual, capaz de enviarle una transferencia instantánea o aceptar o denegar una petición en menos de un segundo, como lo hace Amazon o cualquiera de las aplicaciones que utilizamos habitualmente. Ahora es posible, estas tecnologías lo hacen posible, es una oportunidad de retomar el control de la administración y que esta se convierta una herramienta de progreso que no podemos dejar pasar; Islandia lo está haciendo, ¿por qué no nosotros?

6. Políticas que aprovechen la IA para hacer una administración eficiente propia del siglo XXI. Ahora bien, como todos sabemos, no es solo la burocracia. La propia administración tiene en muchos casos estructuras del siglo pasado, y en algunos casos, medievales. Un ayuntamiento pequeño no puede ni plantearse desarrollar, entender o abordar la tecnología actual. El marco de referencia sobrepasa los términos municipales, etc. Hay que aprovechar este momento de cambio para renovar y crear instituciones que realmente nos sirvan en el siglo XXI y sean una herramienta de progreso.

7. Políticas que aprovechen el cambio tecnológico para renovar y crear instituciones de gobierno del siglo XXI. La IA generativa no sustituirá a humanos y organizaciones, sustituirá a aquellos humanos y organizaciones que no utilicen IA por humanos y organizaciones que sí que utilicen IA.