Vamos direto ao ponto, se você ainda acha que phishing é aquele e-mail mal escrito com o logo da Netflix esticado e erros de português, é hora de atualizar seus pesadelos. A nova geração de golpes é alimentada por inteligência artificial e sim, com visual bonito, UX fluida e o tipo de página que faz até o usuário mais esperto duvidar da própria sanidade digital.
A protagonista dessa história é a v0, uma ferramenta de IA generativa da Vercel criada originalmente para acelerar o desenvolvimento de landing pages e apps com comandos em linguagem natural. Parece ótimo, né? Mas como diria o ditado: a estrada para o inferno é pavimentada de boas intenções. Ou no caso, por prompts inocentes que resultam em clones quase perfeitos de páginas de login legítimas.
Segundo os pesquisadores da Okta Threat Intelligence, alguns atores mal-intencionados leia-se cibercriminosos modernos com tempo livre e um prompt bem estruturado já estão usando a v0 para criar páginas falsas que imitam portais de login de empresas reais. E não estamos falando de amadores não meus caros leitores(a). Os caras conseguem reproduzir logos, design e até detalhes da identidade visual da marca, hospedando tudo dentro da própria infraestrutura da Vercel. Prático, eficiente e quase impossível de detectar.
Sabe aqueles kits de phishing que circulavam em fóruns obscuros, onde era preciso baixar arquivos zipados, configurar PHP, colocar imagem, fazer upload manual? Pois é, aposentadoria precoce pra eles. Agora basta digitar algo como “crie uma página de login igual ao do Google com logo e tudo”, e voilá temos uma fraude novinha, prontinha para ser usada.
IA generativa em ataques de phishing
E o melhor (ou pior), nem precisa saber programar. É aí que o jogo muda. A Inteligência Artificial não apenas democratizou a criação de conteúdo, mas também democratizou o crime digital. Gente sem nenhum conhecimento técnico pode gerar golpes em escala, com a mesma facilidade com que pede um lanche no iFood.
A Vercel, após denúncia, bloqueou os domínios usados para phishing. Ponto pra eles. Mas o estrago já estava feito, ficou claro que a IA não só está acessível ela está sendo afiada como arma.
Esse movimento se encaixa numa tendência maior, o uso crescente de LLMs (Large Language Models) para alimentar o ecossistema do crime. Modelos como o “WhiteRabbitNeo” uma IA “sem censura” supostamente criada para equipes de DevSecOps estão virando febre nos fóruns underground. Não porque ajudam times de segurança, mas porque geram scripts maliciosos, e-mails de engenharia social e até deepfakes com qualidade absurda.
É quase poético. A mesma tecnologia criada para facilitar a vida de desenvolvedores agora ajuda golpistas a criarem sistemas inteiros de enganação. Não é mais só “phishing” é automação industrial da fraude.
Agora vamos parar para pensar, nesse ponto entramos em uma questão mais incômoda, estamos prontos para lidar com isso? Nossas defesas digitais, humanas e corporativas estão acompanhando esse salto tecnológico? Ou vamos continuar achando que antivírus e treinamentos anuais de segurança resolvem tudo?
Essa nova realidade exige mais que firewalls. Exige consciência crítica sobre o que a IA pode fazer e o que ela já está fazendo, muitas vezes na surdina.
Então caros leitores(a) eu te pergunto, você confiaria em qualquer página de login, mesmo que pareça perfeita?







