La IA està avançant a passos gegantins, molt probablement sigui la tecnologia del futur que més ràpidament està tenint avenços i que pel mateix motiu s'està convertint en una tendència perillosa de riscos i problemes. L'aprofiten tots per igual però els ciberdelinqüents són els primers a prendre-les i que busquen vulnerar a qui es deixi de forma senzilla. Una de les empreses líder en IA com és OpenAI busca elements que siguin capaços de frenar aquests comportaments desmesurats i eliminar-los d'una vegada per totes per poder enfortir la seva pròpia tecnologia. D'aquesta manera planegen fer-ho, publicat al seu lloc web.
Mig milió de dòlars a la persona que pugui controlar els perills de la IA a internet
Sam Altman, CEO d'OpenAI, es va pronunciar al seu perfil de X i a través de la pàgina de la seva companyia respecte als perills que existeixen respecte als models d'IA fent èmfasi en la seguretat informàtica i la salut mental. Aquestes dues branques seran important d'una nova posició a OpenAI. Un cap de preparació que faci un pla que inclogui aquests dos temes i el que es pugui derivar respecte a la IA, fer-se càrrec dels problemes que sorgeixen en l'àmbit emocional i en la seguretat.
Estem contractant un Cap de Preparació. Aquest és un paper crític en un moment important; els models estan millorant ràpidament i ara són capaços de moltes coses grans, però també estan començant a presentar alguns reptes reals. L'impacte potencial dels models en la salut mental era una cosa que nosaltres…
— Sam Altman (@sama) 27 de desembre de 2025
Ni més ni menys que 555.000 dòlars anuals més ofertes de capital a OpenAI és la xifra que ha posat Sam Altman per a aquest lloc de plena responsabilitat. S'haurà de complir amb la tasca de comprendre i mesurar d'una manera matisada de com es podrien limitar els desavantatges que implica l'abús de les capacitats de la IA, a més d'avaluar com ha de ser la seguretat a nivell personal o de patir atacs cibernètics amb IA.

Sam Altman, creador d'OpenAI
Formarà part de l'equip de sistemes de seguretat on es garanteix que els models d'OpenAI es desenvolupin i implementin de manera responsable, segons el que es llegeix en la descripció de l'equip. OpenAI vol ampliar, enfortir i guiar el programa de preparació perquè els estàndards de seguretat de l'empresa es puguin adaptar enterament a les capacitats de cada sistema que es desenvolupa des de l'interior a l'exterior.
OpenAI veu aquest càrrec amb un fons pròsper, la persona que sigui escollida pot durar molt més temps d'aquesta manera
Si la persona contractada té molt coneixement en aprenentatge automàtic, seguretat d'IA, a més de tenir experiència en el disseny o execució d'avaluacions, juntament amb la comunicació clara i emissió de judicis tècnics clars, pot durar molt de temps a l'empresa i tenir assegurat el lloc per diversos anys. A més, desitjarien tenir experiència en ciberseguretat, bioseguretat, qualsevol experiència en engany o altres dominis de risc fronterer, a més del modelatge d'amenaces.

OpenAI llança l'app de Sora per a la creació de vídeos amb IA
El lloc és per a desenvolupar-se a l'àrea de San Francisco i segurament molts estaran aplicant a la vacant amb la finalitat de complir amb una missió realment valuosa que pugui ajudar OpenAI i el món en general a contrarestar riscos i vulnerabilitats a la xarxa, especialment quan s'utilitza la IA per fer el mal.