Un investigador de seguridad de inteligencia artificial abandonó la empresa estadounidense Anthropic con una advertencia críptica de que «el mundo está en peligro».
Dijo que en lugar de eso, se dedicaría a escribir y estudiar poesía y regresaría al Reino Unido para «volverse invisible».
Esto ocurre la misma semana en que una investigadora de OpenAI dijo que había renunciado, compartiendo preocupaciones sobre la decisión del fabricante de ChatGPT de implementar anuncios en su chatbot .
Anthropic, mejor conocido por su chatbot Claude, había lanzado una serie de comerciales dirigidos a OpenAI, criticando la decisión de la compañía de incluir anuncios para algunos usuarios.
Sharma dirigió allí un equipo que investigó las protecciones de la IA.
En su carta de renuncia, dijo que sus contribuciones incluían investigar por qué los sistemas de IA generativa engañan a los usuarios , combatir los riesgos del bioterrorismo asistido por IA e investigar «cómo los asistentes de IA podrían hacernos menos humanos».
Pero dijo que a pesar de disfrutar su tiempo en la empresa, estaba claro que «ha llegado el momento de seguir adelante».
«El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por toda una serie de crisis interconectadas que se desarrollan en este preciso momento», escribió Sharma.
Dijo que había «visto repetidamente lo difícil que es realmente dejar que nuestros valores gobiernen nuestras acciones», incluso en Anthropic, que según él «constantemente enfrenta presiones para dejar de lado lo que más importa».
Sharma dijo que en lugar de eso buscaría obtener una licenciatura en poesía y escritura.
Añadió en respuesta: «Me mudaré de nuevo al Reino Unido y me volveré invisible por un tiempo».
Las empresas de IA que se retiran y que han tenido un papel importante en el último auge de la IA generativa (y que buscaron retener talento con enormes salarios u ofertas de compensación) a menudo lo hacen con muchas acciones y beneficios intactos.
Erosionando principios
Anthropic se autodenomina una «corporación de beneficio público dedicada a asegurar los beneficios [de la IA] y mitigar sus riesgos».
En particular, se ha centrado en prevenir aquellos riesgos que, en su opinión, plantean los sistemas fronterizos más avanzados, como que se desalineen con los valores humanos, se utilicen incorrectamente en áreas como los conflictos o sean demasiado poderosos .
Ha publicado informes sobre la seguridad de sus propios productos, incluso cuando dijo que su tecnología había sido «utilizada como arma» por piratas informáticos para llevar a cabo sofisticados ataques cibernéticos.
Pero también ha sido objeto de escrutinio por sus prácticas. En 2025, acordó pagar 1.500 millones de dólares (1.100 millones de libras) para resolver una demanda colectiva interpuesta por autores que afirmaban que la empresa había robado su trabajo para entrenar sus modelos de IA.
Al igual que OpenAI, la empresa también busca aprovechar los beneficios de la tecnología, incluso a través de sus propios productos de inteligencia artificial, como su rival de ChatGPT, Claude.
Recientemente lanzó un comercial que criticaba la decisión de OpenAI de comenzar a publicar anuncios en ChatGPT.
El jefe de OpenAI, Sam Altman, había dicho anteriormente que odiaba los anuncios y que los usaría como «último recurso».
La semana pasada, respondió a la descripción que el anuncio hacía de esto como una «traición», pero fue objeto de burlas por su extensa publicación criticando a Anthropic .
El miércoles, en el New York Times, la ex investigadora de OpenAI Zoe Hitzig dijo que tenía «profundas reservas sobre la estrategia de OpenAI».
«La gente le cuenta a los chatbots sobre sus miedos médicos, sus problemas de relación, sus creencias sobre Dios y el más allá», escribió .
«La publicidad basada en ese archivo crea un potencial de manipulación de los usuarios de maneras que no tenemos las herramientas para comprender, y mucho menos prevenir».
Hitzig dijo que una posible «erosión de los propios principios de OpenAI para maximizar la participación» podría ya estar en marcha en la empresa.
Dijo que teme que esto pueda acelerarse si el enfoque publicitario de la empresa no refleja sus valores de beneficiar a la humanidad.
BBC News se ha puesto en contacto con OpenAI para solicitar una respuesta.
