Menú
24matins en Español
Navigation : 
  • Noticias
    • Deportes
    • Internacional
  • Sociedad
  • Salud
  • Tecnología
    • Begeek.es
  • Cultura
Ahora mismo : 
  • Entretenimiento
  • Salud
  • Tecnología
  • Internacional

Preocupación por la falta de control de Anthropic sobre su IA

Tecnología / Tecnología / IA / Anthropic
Par Redacción,  publicado el 24 abril 2026s en 20h46 CEST, modificado el 24 abril 2026 en 20h46 CEST.
Tecnología

Anthropic / PR-ADN

La reciente revelación sobre las dificultades de Anthropic para mantener el control sobre su sistema de inteligencia artificial más avanzado ha generado preocupación entre expertos y observadores, quienes advierten sobre posibles riesgos y la necesidad de mayor vigilancia en el sector tecnológico.

Tl;dr

  • Fuga de datos afecta al modelo Claude Mythos.
  • Error humano permitió el acceso no autorizado.
  • Exigen mayor seguridad en la gobernanza de IA.

Claude Mythos, objetivo de un ataque inesperado

Apenas unos días después del lanzamiento de su nuevo modelo Claude Opus 4.7, la compañía Anthropic vuelve a estar en el centro del debate público. Fuentes próximas a la investigación, consultadas por medios como Bloomberg, confirman que un grupo externo logró acceder sin permiso a uno de sus sistemas más reservados: el modelo interno conocido como Claude Mythos. Este sistema, reservado para muy pocos socios estratégicos y orientado a aplicaciones avanzadas de ciberseguridad, se había presentado como demasiado delicado para su uso público.

El factor humano, protagonista en la brecha de seguridad

Lejos de lo que sugieren las tramas futuristas sobre inteligencia artificial fuera de control, todo apunta a una causa mucho más habitual: un fallo humano en los controles. Los atacantes no vulneraron directamente los servidores centrales de Anthropic; aprovecharon debilidades en el entorno de uno de sus proveedores externos. Accesos insuficientemente protegidos, contraseñas poco robustas y una gestión deficiente entre los límites del proveedor y la empresa principal permitieron esta intrusión. Así, errores comunes expusieron un recurso descrito internamente como «demasiado peligroso» para abrirse al gran público.

Nuevas exigencias para proteger la inteligencia artificial

Este incidente va más allá del impacto técnico inmediato: pone sobre la mesa el reto creciente de custodiar modelos «frontera», aquellos capaces tanto de detectar como de explotar vulnerabilidades críticas. Estos desarrollos se han transformado en activos estratégicos y, por tanto, en blancos prioritarios para quienes buscan ventajas ilícitas en el ámbito digital. Varias prácticas se consideran hoy irrenunciables:

  • Vigilancia estricta sobre proveedores y colaboradores tecnológicos externos.
  • Limitación máxima en los accesos y monitorización continua.
  • Protocolos ágiles para responder ante incidentes.

Dudas crecientes sobre la gobernanza digital

En última instancia, lo sucedido obliga a replantear hasta dónde debe llegar la protección en proyectos confidenciales. Si incluso modelos ultra restringidos pueden ser vulnerados indirectamente, crece la presión sobre empresas como Anthropic: solo con estándares comparables a los del sector bancario o infraestructuras críticas podrán evitar que sucesos similares marquen esta década tecnológica. Y, tras este episodio, la gobernanza responsable y transparente emerge como uno de los grandes desafíos pendientes para todo el sector.

Le Récap
  • Tl;dr
  • Claude Mythos, objetivo de un ataque inesperado
  • El factor humano, protagonista en la brecha de seguridad
  • Nuevas exigencias para proteger la inteligencia artificial
  • Dudas crecientes sobre la gobernanza digital
Más información
  • Apple impide a la policía acceder a notificaciones de mensajes
  • Fin de la disputa de patentes Apple y Masimo en salud digital
  • ChatGPT Images 2.0: novedades en generación de imágenes AI
  • Quiénes somos
  • Contacto
  • Condiciones de uso y política de privacidad
© 2026 - Todos los derechos reservados sobre los contenidos del sitio web 24matins en Español