Quien me conoce sabe que llevo ya algunos años dedicado a estudiar, practicar y reflexionar sobre la inteligencia artificial. Como llevo haciendo desde que aprendí Cobol y Stairs y luego mis primeros pinitos con Sinclair intento mirar el lado bueno de las tecnologías intentando no perder la perspectiva crítica al uso que hacemos de ella. Ni tecnólatra ni tecnófobo.
Llevo unos meses leyendo sobre el cambio disruptivo que significa la inteligencia artificial (IA), a la altura de lo que supuso la imprenta o internet. Los poco escrupulosos de las grandes empresas tecnológicas vendiendo las “maravillas” y la “evidente” superioridad de la IA, que superará de aquí a nada casi cualquier capacidad humana. Y a los críticos hablando de que ninguna IA podrá superar las cualidades humanas y argumentando el interés económico (grandes inversiones y gastos que justificar ante el mercado) que hay detrás de estos anuncios proféticos. Conste que simpatizo más con los segundos que con esos grandes empresarios que tanto daño están haciendo.
De todo lo que leo hay algo que me ha llamado mucho la atención y es la gente de Anthropic. Anthropic es una empresa con varios productos famosos: Claude y Perplexity, que compiten muy seriamente con el Gemini de Google o con el famoso ChatGPT, de la empresa OpenAI. De hecho, el directivo principal de Anthropic, Darío Amodei, salió de OpenAI por discrepancias con su máximo responsable, Sam Altman. En este post voy a comentar algunas noticias que han salido en febrero de 2026 sobre esta empresa, Anthropic, en el siguiente post abordaré en más detalle un texto reflexivo de Darío Amodei, “La adolescencia de la tecnología” y que es el que inspira el título de este post.
«El mundo está en peligro»: el responsable de seguridad de Anthropic abandona la empresa para dedicarse… a la poesía. Mrinank Sharma dirigía el grupo de investigación encargado de estudiar los riesgos asociados a sistemas de IA de esa empresa y en su mensaje de despedida decía literalmente eso: que el mundo está en peligro, que “la humanidad se estaba acercando a un punto crítico en el que el desarrollo de la IA se estaba enfrentando a dilemas éticos para quienes la desarrollan «nuestra sabiduría debe crecer al mismo ritmo que nuestra capacidad para afectar el mundo, de lo contrario enfrentaremos las consecuencias».
Un post en un blog de Anthropic desencadena la peor sesión en Bolsa de IBM en 26 años. Las acciones de IBM cayeron un 13,15%, una pérdida de valor de 31.600 millones de dólares en un solo día. ¿Y qué decía el post? Según la traducción que hace El País, que “Modernizar un sistema que usa Cobol antes necesitaba de un ejército de consultores que dedicase años a mapear flujos de trabajo, pero con herramientas como Claude Code, es posible automatizar las fases de exploración y de análisis, aquellas que concentran los mayores esfuerzos para modernizar Cobol”. Y Cobol es lo que sustenta muchos programas críticos del gobierno, de la banca o de las aerolíneas. O sea, “amenazan con dejar obsoletos modelos de negocio enteros”. Y, además, “las IAs podrían permitir a los usuarios crear sus propias aplicaciones, disminuir la demanda de los productos ya existentes y suponer un lastre en el potencial de crecimiento de las empresas de software al dañar tanto sus ventas, sus márgenes y su capacidad de fijación de precios.

No les quiero aburrir antes del próximo post, solo unos pocos titulares más: Anthropic ha estado en las noticias por entrenar su IA con millones de libros impresos que luego fueron destruidos, Proyecto Panáma. Y hace muy poco Anthropic ha acusado a las empresas chinas Deepseek, Moonshot y MiniMax de extraer capacidades de Claude (más que copiarla) mediante más de 16 millones de consultas a través de más de 24000 cuentas fraudulentas. Merece la pena subrayar aquí que estas empresas chinas no requieren tanta inversión como las grandes empresas de IA norteamericanas, ofrecen grandes prestaciones de IA y han provocado preguntas entre los inversores sobre si la IA en EEUU no está desmesuradamente valorada en cuento a inversiones y valor de mercado se refiere.
Y en la lucha por captar inversiones, empresas como OpenAI (ChatGPT), X (Grok) o Anthropic (Claude) y poco después de que Anthropic anunciara una ronda de financiación de 30.000 millones de dólares, que valoraba a la empresa en 380.000 millones, Elon Musk salió diciendo que la IA de Anthropic “odia a los blancos y asiáticos, especialmente a los chinos, heterosexuales y hombres. Esto es misántropo y malvado (…)”. El País. Poco después, el secretario de Defensa de EE.UU, Pete Hegseth, le dio un ultimátum al director ejecutivo de Anthropic, Dario Amodei, para que revirtiera las medidas de seguridad de la IA de la compañía bajo la amenaza de perder un contrato de 200 millones de dólares con el Pentágono. Vamos, que el gobierno americano amenazó con incluir a Anthropic en lo que, en realidad, es una “lista negra” (CNN).
Y es que Anthropic ha hecho público un informe (Sabotage Risk Report) en el que dice que Claude Opus 4.6 presenta un riesgo “muy bajo pero no despreciable” de sabotaje autónomo con consecuencias catastróficas. El documento reconoce que el modelo más potente de la compañía podría facilitar el desarrollo de armas químicas o socavar a las propias organizaciones que lo utilizan (..) y que Claude Opus 4.5 como 4.6 muestran una susceptibilidad elevada a que terceros los orienten hacia delitos graves. El informe advierte de que el problema no se limita a respuestas erróneas, sino a acciones coordinadas con impacto real. El Diario.es.
¿Miedos fundados o estrategias político-económicas? Pronto una segunda parte.