En esta conversación con ON IA, Enric Quintero, consejero delegado de Datarmony, nos habla del papel de la inteligencia artificial en la sociedad actual y del reto de integrarla con una mirada humanista. Desde su experiencia, Quintero reflexiona sobre el origen y la evolución de la IA, sus límites y posibilidades o los impactos que puede tener en el mundo laboral.

También comparte ejemplos concretos de aplicación, como la reducción del despilfarro alimentario en supermercados o el uso de modelos para mejorar la relación con los clientes. La conversación aborda cuestiones clave como la ética y la privacidad, la necesidad de una regulación clara y el papel de la pedagogía para superar el miedo social hacia la inteligencia artificial. El experto no desperdicia el altavoz para destacar la importancia de que esta tecnología sirva para hacernos mejores personas y contribuir a retos globales como el cambio climático.

Datarmony, en colaboración con Morning Labs, ha desarrollado Contact Sentiment, un algoritmo dirigido al ámbito empresarial que funciona en entornos aislados y que garantiza la privacidad de los usuarios. Según sus creadores, la herramienta no recopila datos personales ni del contenido de los mensajes y asegura que la información crítica se mantiene protegida en todo momento. El sistema permite reenviar automáticamente los correos electrónicos que contienen mensajes negativos a los departamentos de recursos humanos, donde pueden ser analizados y gestionados de manera más eficiente.

La iniciativa nace con la voluntad de reducir la burocracia y la carga documental dentro de las organizaciones, en un contexto marcado por la irrupción de la inteligencia artificial en la vida cotidiana. El debate sobre las ventajas y riesgos de la IA es intenso y recurrente: por una parte, las aplicaciones de esta tecnología son amplias y van desde la medicina hasta el transporte, la educación o la gestión corporativa. La capacidad de analizar grandes volúmenes de datos en tiempo real facilita la detección de patrones, la predicción de necesidades y la prestación de servicios más adaptados y eficientes.

Sin embargo, el uso creciente de estas herramientas también genera preocupaciones. Para conseguir una mayor precisión, los algoritmos suelen requerir información detallada de los usuarios: hábitos de consumo, ubicación, historial de navegación, datos biométricos o incluso conversaciones. Este hecho abre interrogantes éticos y legales sobre la legitimidad de la recopilación de datos y la necesidad de mecanismos que garanticen el control y la transparencia.

Uno de los riesgos más destacados es la pérdida de control por parte de los ciudadanos sobre la misma información. A menudo no son conscientes del volumen de datos que comparten ni del uso que se puede hacer. Además, existe la posibilidad de que estos datos sean utilizados con finalidades comerciales abusivas, discriminatorias o de vigilancia masiva. Ante este escenario, gobiernos e instituciones han impulsado marcos normativos como el Reglamento General de Protección de Datos de la Unión Europea, que establece límites claros y refuerza la protección de los derechos de los usuarios.