Saltar al contenido

El marzo loco de Anthropic: Mythos, Computer Use y GPUs

· 5 min de lectura · Leer en English
Compartir:

Catorce lanzamientos, cinco caídas de servicio, una filtración accidental de su modelo secreto y un escándalo de espionaje industrial chino. Anthropic en marzo fue un festival.


Mythos: el modelo que no debías ver

A finales de marzo, investigadores de seguridad de LayerX Security y la Universidad de Cambridge encontraron un almacén de datos de Anthropic sin proteger. Dentro había casi 3.000 assets no publicados, incluyendo un borrador de blog que revelaba la existencia de Claude Mythos — un modelo que Anthropic describe internamente como “un cambio de nivel” en capacidades.

Mythos (también referenciado como Capybara en documentos internos) sería una nueva capa por encima de Opus. No una mejora incremental — un salto.

Lo más llamativo: los documentos internos describen a Mythos como el modelo más avanzado en capacidades de ciberseguridad que existe. Tan avanzado que Anthropic está informando directamente a altos cargos del gobierno de EE.UU., advirtiendo que Mythos hace los ciberataques a gran escala “mucho más probables” a partir de 2026.

Y como si la filtración de Mythos no fuese suficiente, días después se filtró también el código fuente de Claude Code — unas 500.000 líneas de código en 1.900 archivos. Dos brechas de seguridad en una semana. Para una empresa que predica la seguridad en IA, no es un buen aspecto.

Computer Use: Claude ya toca tu escritorio

El 23 de marzo, Anthropic lanzó Computer Use en preview para Mac. El 3 de abril, llegó a Windows. En diez días, la expansión de plataforma más rápida que han hecho para una feature en preview.

¿Qué es Computer Use? Claude puede ver tu pantalla, mover el ratón, hacer clic, abrir aplicaciones, rellenar formularios, navegar menús. Si tiene un conector (Slack, Google Calendar), lo usa. Si no, controla el ordenador como lo haría un humano.

Disponible para suscriptores Pro y Max a través de Claude Cowork y Claude Code. Funciona con Dispatch para orquestación remota.

Es un movimiento coherente con lo que ya comentamos sobre el ecosistema de Anthropic: Claude deja de ser un chatbot para convertirse en un agente que opera sobre tu máquina. La suscripción ya no paga solo por respuestas — paga por un trabajador digital.

24.000 cuentas falsas: China destilando Claude

En febrero, Anthropic acusó públicamente a tres laboratorios chinos — DeepSeek, Moonshot AI y MiniMax — de orquestar campañas a escala industrial para extraer capacidades de Claude.

Los números son brutales:

LaboratorioExchangesFoco
MiniMax13M+Volumen masivo general
Moonshot AI3.4M+Modelos Kimi
DeepSeek150K+Razonamiento, reward models, censura

En total, 24.000 cuentas fraudulentas generaron más de 16 millones de intercambios con Claude. La técnica: destilación — un modelo débil entrena con las respuestas de uno fuerte para absorber sus capacidades.

Para saltarse las restricciones de acceso comercial en China, usaron proxies comerciales con arquitecturas “hydra cluster” — redes distribuidas de cuentas falsas a través de la API y plataformas cloud de terceros. Un solo proxy gestionaba más de 20.000 cuentas simultáneamente.

Esto conecta directamente con lo que ya analizamos sobre DeepSeek y la soberanía de datos china. No es un incidente aislado — es una estrategia sistemática.

La crisis de GPUs como telón de fondo

Todo esto ocurre en un contexto donde la capacidad de cómputo es el recurso más escaso del sector. Las GPUs Blackwell de NVIDIA están agotadas para los próximos 12 meses. La “escasez de hardware” ya no es temporal — es el nuevo normal.

Anthropic ha respondido diversificando: un acuerdo con Google Cloud para acceder a hasta un millón de TPUs, más de 1 GW de capacidad. Además, un plan de infraestructura de $50.000 millones en centros de datos en Texas y Nueva York.

La estrategia multi-chip (TPUs de Google + Trainium de Amazon + GPUs de NVIDIA) les da flexibilidad que competidores como OpenAI no tienen. Y explica decisiones como cortar el acceso a harnesses de terceros — cuando cada ciclo de inferencia cuenta, no puedes regalarlo.

Los costes de inferencia siguen siendo el elefante en la habitación. Y con modelos como Mythos, que presumiblemente son más caros de ejecutar, la presión sobre la capacidad solo va a crecer.

Mi lectura

Marzo de Anthropic fue un microcosmos de todo lo que pasa en la industria ahora mismo:

  1. Los modelos avanzan más rápido que la seguridad. Filtras tu modelo secreto por un error de configuración. Filtras el código de tu herramienta estrella días después. La velocidad de desarrollo está superando la capacidad de asegurar lo que produces.

  2. El hardware manda. Da igual lo bueno que sea tu modelo si no tienes GPUs para servirlo. La diversificación de chips de Anthropic es una jugada inteligente, pero también una admisión de que depender solo de NVIDIA es un riesgo existencial.

  3. China no juega con las mismas reglas. 24.000 cuentas falsas y 16 millones de exchanges no es hacking — es una operación industrial. Y si Anthropic lo ha detectado, imagina lo que no.

  4. Computer Use cambia el juego. Un modelo que controla tu ordenador es cualitativamente diferente a uno que responde preguntas. Las implicaciones de seguridad, productividad y dependencia tecnológica son enormes.

Anthropic quiere ser el proveedor de agentes de IA que trabajan por ti. Mythos es la potencia, Computer Use es la interfaz, y la infraestructura de chips es el cuello de botella. El que controle los tres, gana.

El problema es que en marzo demostraron que, mientras construyen el futuro, se les escapa el presente por las costuras.

Sigue explorando

¿Te ha sido útil? Compártelo

Compartir:

Curso relacionado

Aprende Máster de Desarrollo con IA con práctica real

Módulos paso a paso, ejercicios prácticos y proyectos reales. Sin humo.

Ver curso →

Consultoría

¿Tienes un problema parecido con Integraciones con IA?

Puedo ayudarte. Cuéntame qué tienes y te doy un diagnóstico honesto — sin compromiso.

Ver consultoría →

También te puede interesar