La empresa más ideológicamente impulsada de Silicon Valley puede ser la más peligrosa económicamente.
La liquidación de 300 mil millones de dólares de esta semana en acciones de software y servicios financieros parece haber sido provocada por Anthropic PBC y un nuevo producto legal que lanzó la startup de inteligencia artificial. Por más inútil que sea atribuir las desaceleraciones del mercado a un solo desencadenante, las preocupaciones sobre la disrupción de Anthropic arrojan luz sobre la productividad aparentemente imparable de la empresa.
La empresa, que emplea a unas 2.000 personas, afirma que lanzó más de 30 productos y funciones sólo en enero. El jueves, la compañía mantuvo el impulso con Claude Opus 4.6, un nuevo modelo para abordar tareas de trabajo del conocimiento que casi con certeza aumentará la competencia contra empresas heredadas de software como servicio (SaaS) como Salesforce y ServiceNow.
OpenAI, propietario de ChatGPT, tiene una fuerza laboral que duplica la de Anthropic, mientras que Microsoft Corp. y Google de Alphabet Inc. tienen 228.000 y 183.000 empleados, respectivamente, y cuentan con vastas posiciones de capital y redes de distribución. Pero las herramientas de inteligencia artificial de Anthropic para generar códigos informáticos y operar computadoras superan todo lo que estas empresas más grandes hayan lanzado al mercado antes. OpenAI y Microsoft han luchado recientemente para llevar al mercado productos con un impacto tan grande.
Parte de la despiadada eficiencia de Anthropic proviene de una fuente paradójica: una cultura obsesionada con la misión. Fue fundada por ex empleados de OpenAI que creían que la empresa era demasiado indiferente en lo que respecta a la seguridad, especialmente al riesgo existencial que la IA representaba para la humanidad. El tema se convirtió en una especie de ideología en Anthropic, cuyo sumo sacerdote y visionario fue el director ejecutivo Dario Amodei.
Dos veces al mes, Amodei convoca a sus empleados a un Dario Vision Quest (DVQ), donde el CEO con gafas hablará extensamente sobre la construcción de sistemas de inteligencia artificial confiables que se alineen con los valores humanos, temas más amplios como la geopolítica y el impacto que la tecnología de Anthropic tendrá en el mercado laboral. Amodei advirtió en mayo pasado que los avances en IA podrían eliminar hasta el 50% de los empleos de oficina de nivel básico en los próximos uno a cinco años, un resultado que su propia empresa parece dispuesta a promover gracias a su fervor casi religioso por la IA segura. La seguridad en el lugar de trabajo no parece jugar un papel importante en los ideales de Anthropic.
“Icónico”
Pero personas cercanas a la empresa describen una atmósfera de culto en la que los empleados se concentran en la misión y profesan creer en Amodei. “Pregunte a cualquiera por qué está aquí”, me dijo recientemente uno de los ingenieros superiores de la empresa, Boris Cherny. “Llévalos a un lado y la razón por la que te lo dirán es para hacer que la IA sea segura. Existimos para hacer que la IA sea segura”.
Cuando los ejecutivos de Meta Platforms Inc. emprendieron una costosa ola de reclutamiento de investigadores senior de IA el año pasado, su enfoque para apuntar a los empleados de Anthropic fue asegurarles que Meta dejaría de desarrollar sistemas de IA de código abierto que sean de uso y modificación gratuitos. Los empleados antrópicos consideraban peligroso este enfoque.
A principios de este mes, Amodei publicó un ensayo de 20.000 palabras sobre el inminente riesgo para la civilización que representa la IA, mientras que la compañía publicó una “constitución” detallada para el sistema insignia Claude, sugiriendo que su IA puede tener algún tipo de conciencia o estatus moral.
Se trata tanto de una medida de seguridad como de una preocupación filosófica, ya que la Constitución que Claude debe guiar da al sistema pautas más claras sobre cómo lidiar con la posibilidad de un cierre, que podría verse como la muerte.
El incesante enfoque de la compañía en la seguridad ha llevado a que sus modelos se encuentren entre los más honestos del mercado, lo que significa que son menos propensos a sufrir alucinaciones y, en cambio, es más probable que admitan que no saben algo, según una clasificación realizada por investigadores de Scale.ai y desarrollada por Meta. Esto, a su vez, ha hecho que la empresa se vuelva más confiable entre un número cada vez mayor de clientes corporativos.
Valores a probar
Su obsesión también es inusual en una industria propensa a desviarse de sus misiones, donde las empresas de tecnología se basan en ideas elevadas sobre cómo mejorar la humanidad, antes de que las obligaciones con los inversores asuman el control. ¿Recuerda el lema de Google “No seas malvado”? Otro ejemplo de esto es OpenAI, que se fundó para funcionar como una organización sin fines de lucro “en beneficio de la humanidad” sin verse obstaculizada por limitaciones financieras.
Pero la cultura impulsada por la misión de Anthropic tiene el beneficio adicional de eliminar el tipo de fricción interna que tiende a ralentizar las cosas en las burocracias corporativas de Google y Microsoft, ya que los empleados trabajan al unísono para lograr los objetivos de la empresa. El resultado es que Amodei, obsesionado con la seguridad y con la mirada acosada de un científico loco, envía más productos que algunos de los nombres más importantes de Silicon Valley.
“Los historiadores militares a menudo argumentan que el sentimiento de luchar por una causa noble impulsa a los ejércitos a desempeñarse mejor”, dice Sebastian Mallaby, autor de un libro de próxima aparición en Google DeepMind y miembro principal de economía internacional del Consejo de Relaciones Exteriores. Dice que la ventaja de Anthropic también es que se ha centrado en crear una herramienta de codificación notablemente eficaz llamada Claude Code y ganar clientes empresariales sobre esa base, a diferencia de OpenAI, que ha seguido múltiples vías. La empresa de Sam Altman sufre “la arrogancia del jefe”, añade.
Actualmente, Anthropic está recaudando 10.000 millones de dólares con una valoración de 350.000 millones de dólares, lo que significa que la presión para priorizar el crecimiento sobre la seguridad no hará más que aumentar. Amodei ha construido una cultura que navega. La pregunta es si esa cultura puede perdurar mientras lo que está en juego sigue siendo cada vez mayor y los mercados (y potencialmente muchos empleos) siguen tambaleándose.
Parmy Olson es columnista de opinión de Bloomberg que cubre tecnología. ©2026 Noticias Bloomberg. Distribuido por la agencia Tribune Content.
















