El anonimato en las grandes plataformas de inteligencia artificial parece tener los días contados. La verificación de identidad mediante DNI o pasaporte se ha convertido en el nuevo requisito de Anthropic para garantizar que el uso de sus herramientas, como Claude, cumpla con unos estándares de seguridad extremadamente rígidos. Esta maniobra traslada la lógica de la banca tradicional al entorno de los grandes modelos de lenguaje.

Mediante el uso de un selfie en tiempo real y la captura del documento físico, la plataforma busca confirmar la mayoría de edad y la ubicación del usuario antes de otorgar acceso. El proceso de validación biométrica es gestionado por la empresa externa Persona Identities para asegurar que cada perfil esté vinculado a una identidad real y legalmente rastreable.

El fin del anonimato en la interacción con la IA

La medida ha despertado críticas por la vulnerabilidad que supone entregar datos tan sensibles a un tercero. A diferencia de una contraseña, la información biométrica es permanente, lo que significa que cualquier brecha de seguridad en los servidores de la subcontrata tendría consecuencias irreparables para la privacidad. El almacenamiento de selfies y documentos en servidores externos añade una capa de riesgo que muchos expertos en ciberseguridad consideran innecesaria para un servicio de chat.

Anthropic sostiene que esta vigilancia es necesaria para prevenir abusos, pero la realidad es que sitúa a su modelo en una posición de desventaja frente a opciones más abiertas. Muchos usuarios prefieren migrar a modelos locales para evitar la entrega de su identidad a una corporación que, al mismo tiempo, admite poseer versiones de su IA con capacidades potencialmente peligrosas.

La decisión de Anthropic podría marcar un antes y un después en la forma en que consumimos tecnología. Si este modelo de identificación se normaliza, la IA dejará de ser un espacio de exploración libre para convertirse en un entorno vigilado y regulado bajo las mismas normas que una cuenta bancaria. La gran pregunta es cuántos modelos seguirán funcionando como herramientas que respeten el derecho de los usuarios a permanecer en el anonimato.