Inteligência ArtificialSegurança

Hackers tentam explorar Claude AI

Você já percebeu como a tecnologia anda deixando gente preguiçosa ou sem muita aptidão técnica a um clique de distância do crime de alta complexidade? Pois é exatamente isso que o Anthropic vem enfrentando: uma nova geração de criminosos tentando usar o Claude AI como se fosse um serviço de buffet para planejar ataques cibernéticos.

Continua depois da publicidade

Sem alarde, mas com toda a precisão de uma partida de xadrez bem pensada, o pessoal do Anthropic meteu todo o peso das defesas técnicas classificadores em tempo real, sumarização hierárquica, filtros de contenção e começou a desconstruir tentativas de exploit como quem desarma mina com luva de pelica.

Essas barreiras deixaram claro que o Claude não é playground e contas identificadas foram sumariamente banidas o sistema foi reforçado justamente pra evitar que qualquer inteligência autônoma (a famigerada “agentic AI”) execute estratégias táticas ou decisões estratégicas por conta própria. E tudo isso evidencia um problema que só cresce: IA está reduzindo a barreira para crimes sofisticados, permitindo que qualquer um com vontade e pouco conhecimento execute fraudes e extorsão em escala.

Inteligência artificial sendo utilizada em ataques cibernéticos

O relatório do Anthropic ainda revela que criminosos estão usando IA ao longo de todo o ciclo de operação desde listar vítimas, analisar dados, forjar identidades até criar malware. A tal do “Unified Harm Framework” e os testes de vulnerabilidades de política ajudaram a identificar tudo isso, refinando as regras do modelo para evitar respostas perigosas e harmônicas demais com esses maluquetes.

E tem mais, eles consultaram especialistas externos em segurança e até em saúde mental porque, claramente, dizer “não posso te ajudar nisso” exige um pouquinho de tato garantindo que o Claude se negue a facilitar crimes, mas trate temas sensíveis com a dose certa de empatia.

Imagina só o sucesso, antes de colocar o modelo para rodar, o Anthropic já fez avaliações de segurança, testes de viés e verificações pensando em ameaças de alta periculosidade tipo a tal ameaça CBRNE (química, biológica, radiológica e nuclear). É quase um MBA em segurança antes da IA sair dos bastidores.

Caso “vibe hacking” que virou filme de terror digital

Nesse caso exótico, um criminoso decidiu usar uma ferramenta “agentic” do Claude, que automatiza código, pra escalar um esquema de extorsão envolvendo 17 instituições clínicas, serviços de emergência, governos, igrejas como se fosse um “autoatendimento” do crime.

Continua depois da publicidade

Sem criptografia clássica (tipo ransomware de bloqueio de dados), o tal criminoso deixou a IA fazer tudo: reconhecimento automático da rede, roubo de credenciais, infiltração e até manipulação psicológica nas cartas de extorsão (sério, IA que “brinca com sua cabeça”). O Claude analisou dados financeiros exfiltrados e ajustou valores de resgate para algo acima de US$ 500 000, gerando mensagens de ameaça com visual e estratégias assustadoramente eficazes.

Quando o Anthropic percebeu a balbúrdia, reagiu com um classificador customizado, baniu as contas envolvidas e entregou os indicadores às autoridades ou seja, jogou o jogo de inteligência de volta, mas com categorias de segurança que só surgem em filme de espião.

Outra essa é clássica: golpes com “trabalhador remoto” e fardas falsas

Hackers norte-coreanos usaram o Claude para criar identidades falsas, convencer empresas de tecnologia Fortune 500 a contratá-los, passar entrevistas técnicas e ainda trabalhar de verdade tudo com qualificação falsa plantada pela IA. E o dinheiro? Direcionado ao regime, violando sanções internacionais. Isso mostra que já não é preciso anos de estudo: basta uns prompts criativos e pronto, filho, você já domina recrutamento online.

O Anthropic, lógico, aprimorou suas ferramentas de correlação de comportamento suspeito, derrubou as contas e deu um grito nos órgãos competentes, tipo FBI, para estancar essa sangria.

E tem mais: ransomware-as-a-service de youtubers amadores

Um criminoso, de habilidade técnica mais ou menos, usou o Claude para criar variantes de ransomware “na prateleira” e vender em fóruns da dark web, por algo entre US$ 400 e US$ 1 200. A IA cuidou da criptografia, das técnicas de evasão, anti-recuperação aquela parafernália que você só aprende em curso de segurança, que não é barato.

Continua depois da publicidade

Resultado? Conta banida, métodos detectores de malware reforçados. E isso reforça o recado, IA está virando arma nas mãos de criminosos com pouco preparo, se integrando a todas as fases da fraude.

O Anthropic, claro, não ficou no sofá: continua monitorando o pós-sarampo cibernético com ferramentas que protegem a privacidade, inteligência de ameaça garimpada de fóruns de hacker, e se prepara para possíveis abusos inovadores.

O futuro? Pesquisas focadas em fraudes com IA, compartilhamento de achados com indústria e governos, bug bounty ativo, colaborações em rede tudo para manter o Claude como força do bem, e dar um chute certeiro na porta de quem tenta transformar IA em bingo do crime.

Publicidade

Felipe F

Profissional de tecnologia com formação em Análise e Desenvolvimento de Sistemas e MBA em Segurança da Informação. Atua na área de infraestrutura e segurança, escrevendo sobre ameaças cibernéticas, Linux e segurança digital.