TÍTULO: Modelo de IA perigoso da Anthropic é acessado por grupo não autorizado
SLUG: modelo-ia-anthropic-acessado-grupo-nao-autorizado
TAGS: inteligencia artificial, Anthropic, segurança digital, IA perigosa, ciberseguranca
META: Modelo avançado de IA da Anthropic, focado em segurança, foi acessado por grupo não autorizado via Discord em abril de 2026.
Um dos modelos de inteligência artificial mais potentes da Anthropic, chamado Mythos, foi obtido ilegalmente por um grupo restrito na internet. Segundo relatos, essa equipe usou acesso indevido de um contratado da Anthropic e ferramentas comuns de investigação online para alcançar o sistema.
O modelo Mythos é capaz de identificar e explorar falhas em sistemas operacionais e navegadores, uma tecnologia limitada a poucos parceiros corporativos e governamentais. A Anthropic investiga o ocorrido, mas até agora não confirmou impactos diretos em seus próprios sistemas.
O que é o modelo Mythos da Anthropic
O Claude Mythos Preview é uma inteligência artificial de uso geral voltada para segurança cibernética. Sua principal função é identificar vulnerabilidades em todos os grandes sistemas operacionais e navegadores quando solicitado por um usuário.
Devido aos riscos potenciais, o modelo está restrito a algumas empresas selecionadas por meio do projeto Glasswing. Entre os parceiros estão gigantes como Nvidia, Google, Amazon Web Services, Apple e Microsoft. Alguns órgãos governamentais também demonstram interesse no uso do Mythos, porém sua liberação pública não está prevista.
Como o acesso não autorizado aconteceu
Segundo investigação, o acesso ocorreu em 7 de abril de 2026, na mesma data em que a Anthropic anunciou o lançamento restrito do Mythos para testes. O grupo ganhou acesso ilegal ao modelo via um contratado terceirizado que trabalha para a empresa.
O grupo utiliza um canal privado no Discord, focado em modelos de IA ainda não lançados oficialmente no mercado. Combinando conhecimento prévio obtido de vazamentos anteriores, como o da base de dados Mercor, os membros conseguiram mapear a localização online do Mythos.
Comportamento e uso do grupo que acessou o Mythos
Apesar de terem obtido o modelo, os integrantes do grupo optaram por não usar o Mythos para fins de segurança cibernética, aparentemente para não serem detectados pela Anthropic. Eles tem compartilhado capturas de tela e demonstrações em tempo real da inteligência artificial como prova de sua posse.
Além do Mythos, outros modelos inéditos da Anthropic também foram acessados pela mesma equipe, o que levanta preocupações sobre a proteção interna dos sistemas da empresa. A companhia afirma não ter identificado impacto em suas operações e avalia o caso detalhadamente.
Posição oficial da Anthropic sobre o incidente
Em comunicado, a Anthropic declarou estar apurando o acesso não autorizado ocorrido em ambiente gerenciado por um fornecedor terceirizado. Até o momento, não há evidências que indiquem que o problema afetou a infraestrutura da própria Anthropic.
Apenas empresas e governos autorizados têm permissão para testar o Claude Mythos, justamente por sua capacidade de explorar brechas de segurança. Esse tipo de ferramenta, altamente sensível, exige controle rigoroso justamente para evitar usos mal-intencionados.
Modelo Mythos da Anthropic: vale a pena acompanhar o caso?
O vazamento do modelo Mythos confirma como as tecnologias avançadas de inteligência artificial podem representar riscos significativos se caírem em mãos erradas. Para quem acompanha o avanço da IA voltada para segurança, o episódio é um alerta importante.
Além disso, reforça a necessidade de proteções robustas para ferramentas que podem ser usadas tanto para defesa quanto para ataques digitais. O desenvolvimento de IA permanece em foco no EventiOZ, que está atento às movimentações dessa área crítica, que combina inovação e segurança.
Interessados também podem acompanhar iniciativas paralelas de tecnologia e hardware, incluindo lançamentos recentes como o chip próprio da Anker para IA em dispositivos, que mostram o ritmo acelerado da transformação digital global.

