Análisis de Lisa Eadicicco, David Goldman, CNN
Anthropic ha llegado a una encrucijada familiar para una empresa de tecnología en crecimiento: ¿cómo escalar sin comprometer los principios que la distinguen?
La empresa de IA ha hecho de la seguridad su principio rector. Abogó por la regulación de la IA y pidió protección a los trabajadores, ya que la IA reemplaza algunas tareas humanas. Anthropic ha trabajado duro para transmitir un mensaje concreto a los clientes: somos los buenos.
Pero las barreras autoimpuestas que la empresa ha puesto en marcha para construir esta marca ahora pueden convertirse en obstáculos para su éxito.
Esta semana, el Pentágono le dio a Anthropic un ultimátum: abandone sus restricciones éticas sobre la IA o perderá su contrato de 200 millones de dólares y será incluido en la lista negra. Por otra parte, Anthropic también relajó sus políticas de seguridad básicas esta semana para adaptarse mejor a un mercado en rápido movimiento donde los competidores pueden no cumplir con los mismos estándares de seguridad.
No está claro cómo afectará esta semana al negocio y la reputación de Anthropic, pero sus decisiones serán trascendentales.
Lo sabemos porque el dilema de Anthropic es bien conocido en la industria tecnológica. Muchas empresas promocionan sus valores y su moral, pero luego se enfrentan a decisiones difíciles que las obligan a elegir entre crecer y mantener esos ideales.
Es posible que Anthropic quiera tomar nota.
OpenAI y el fin de semana de Sam
Hace poco más de dos años, el mayor rival de Anthropic estaba lidiando con desacuerdos sobre el crecimiento a expensas de la seguridad.
En uno de los dramas de tablero más extraños en la historia de la compañía: OpenAI, el principal competidor de Anthropic despidió abruptamente a su fundador y el director ejecutivo Sam Altman un viernes de noviembre de 2023, para ser recontratados el martes siguiente.
La saga involucró una estructura corporativa única que colocó a la empresa con fines de lucro de rápido crecimiento detrás de ChatGPT bajo los auspicios de una junta sin fines de lucro. La empresa había firmado su contrato cuatro años antes. Carta que OpenAI sigue “preocupado” por el potencial de la IA para traer “cambios rápidos” a la humanidad. Los superiores de la compañía temían que Altman se estuviera moviendo tan rápido que riesgos de verse socavados la seguridad con la que está comprometida la empresa.
Pero el despido de Altman creó la amenaza de un éxodo masivo de empleados, una situación insostenible que podría haber llevado a la destrucción de la empresa. Entonces la junta volvió a contratar a Altman apenas unos días después. La junta directiva se disolvió poco después y Altman cambió la estructura de la empresa el año pasado para deshacerse de su jefe sin fines de lucro.
Desde entonces, OpenAI ha luchado por equilibrar la velocidad y la seguridad, enfrentándose a múltiples demandas que alegan que sus productos animaban a los jóvenes a hacerse daño. OpenAI niega estas afirmaciones.
Apple y el tirador de San Bernardino
Syed Farook y su esposa Tashfeen Malik asesinaron a 14 personas en el Centro Regional Inland en San Bernardino, California, en diciembre de 2015. La pareja murió más tarde en un tiroteo con la policía.
Los investigadores recibieron permiso para recuperar datos del iPhone de Farook, pero no pudieron acceder porque estaba bloqueado con una contraseña. Un juez de California ordenó a Apple ayudar a los agentes del orden a acceder al teléfono.
Pero al aire libre cartafirmado por el director ejecutivo de Apple, Tim Cook, la empresa rechazó. Cook dijo que la orden del juez “abriría una puerta trasera al iPhone”, que es “algo que creemos que es demasiado peligroso para crear”. La compañía dijo que no tenía ninguna simpatía por los terroristas, pero que el cumplimiento de la orden daría a las agencias gubernamentales “el poder de entrar en el dispositivo de cualquier persona para recopilar sus datos”.
Apple recibió fuertes críticas por su decisión, incluso por parte del entonces candidato presidencial. Donald Trump. Sin embargo, la empresa ha recibido ahora amplios elogios por su compromiso con la privacidad del cliente, que ahora se ha convertido en sinónimo de la marca de la empresa.
La empresa ahora anuncia habitualmente que no vende datos de clientes ni almacena cierta información personal en sus servidores, tratando de diferenciarse de Google, uno de sus principales competidores.
Etsy frente a vendedores individuales
Cuando el imperio del comercio electrónico de Amazon apenas comenzaba a crecer a principios de la década de 2000, Etsy surgió como una alternativa novedosa donde los compradores podían encontrar productos únicos hechos a mano.
Sin embargo, en 2013 se produjo un cambio controvertido que amenazó con desafiar este espíritu. Amplió su política para permitir que los vendedores utilicen fabricantes y subcontraten operaciones. planteó preocupaciones en ese momento que ya no proporcionaría igualdad de condiciones para los pequeños vendedores independientes sin los medios para contratar personal.
Aún así, esta decisión fue crucial para que Etsy se expandiera al mercado que es hoy, que ahora ofrece más de 100 millones de artículos a la venta y alrededor de 8 millones de vendedores activos.
“Desde una perspectiva empresarial, funcionó para Etsy, pero fue un momento difícil para la empresa”, dijo Arun Sundararajan, director del Centro Fubon de Tecnología, Negocios e Innovación de NYU Stern.
¿Qué sigue para Anthropic?
Estos estudios de caso ofrecen una hoja de ruta de advertencia para Anthropic.
La mayor consecuencia a corto plazo para Anthropic ahora es probablemente cómo los clientes y clientes potenciales valoran y confían en la empresa, dijo Owen Daniels, director asociado de análisis del Centro de Seguridad y Tecnología Emergente de Georgetown.
Anthropic dijo que sus medidas de seguridad autoimpuestas siempre están diseñadas para ser flexibles y capaces de cambiar a medida que evoluciona la IA. La compañía prometió ser transparente sobre la seguridad en el futuro, diciendo que realmente no tiene otra opción: si la compañía deja de crecer, los competidores a los que no les importa tanto la seguridad podrían avanzar y hacer que la IA sea “menos segura” en general.
No está claro qué resultará del cambio de Anthropic, ya que los riesgos existenciales de la IA siguen siendo en gran medida “conceptuales”, señaló Sundararajan.
Dijo que sería escéptico ante cualquier experto que calificara este momento como un momento importante para la seguridad de la IA. Pero podría ser un momento importante para la empresa.
“Para mí, el hecho de que Anthropic incumpla una promesa de seguridad particular tiene más que ver con Anthropic que con el futuro de la IA”, dijo.
El cable de CNN
y © 2026 Cable News Network, Inc., una empresa de Warner Bros. Discovery. Reservados todos los derechos.
















