AGÊNCIA DE INTELIGÊNCIA EM NOTÍCIAS
ELOVIRAL
E
Voltar
Segurança17 de março de 2026 às 14:12Por ELOVIRAL3 leituras

Nova técnica de fontes oculta comandos maliciosos de IA

Pesquisadores descobriram uma vulnerabilidade crítica que permite ocultar comandos maliciosos em fontes personalizadas, burlando os sistemas de segurança de assistentes de IA populares como ChatGPT, Claude e Copilot. A técnica explora a renderização de glifos para mascarar instruções que passam despercebidas tanto por filtros de conteúdo quanto por análise humana.

O método funciona substituindo caracteres específicos por glifos visualmente idênticos mas semanticamente diferentes. Quando um agente de IA processa o texto, interpreta os comandos ocultos enquanto sistemas de detecção e usuários humanos veem apenas conteúdo aparentemente inofensivo. Isso cria uma brecha perfeita para ataques de engenharia social automatizada e manipulação de respostas.

A vulnerabilidade afeta múltiplas plataformas e ferramentas que dependem de processamento de linguagem natural. Desde assistentes de codificação até chatbots de atendimento ao cliente, qualquer sistema que aceite entrada de texto não validada torna-se potencialmente comprometido. A simplicidade da implementação é particularmente preocupante - basta incorporar fontes personalizadas em documentos ou páginas web para executar os ataques.

Especialistas em segurança alertam que essa técnica representa uma evolução significativa nos métodos de ataque contra sistemas de IA. Diferente de tentativas anteriores de burlar filtros, essa abordagem é praticamente indetectável pelos métodos atuais de segurança. A comunidade de pesquisa está correndo contra o tempo para desenvolver contramedidas eficazes antes que criminosos cibernéticos explorem amplamente essa falha.

Relacionados

1