Investigadores da Universidade da Califórnia descobriram que alguns routers de modelos de linguagem de grande escala (LLM) de IA de terceiros podem representar vulnerabilidades de segurança que podem levar ao roubo de criptomoedas.
Um artigo que mede ataques intermediários maliciosos na cadeia de fornecimento de LLM, publicado na quinta-feira pelos investigadores, revelou quatro vetores de ataque, incluindo injeção de código malicioso e extração de credenciais.
"26 routers de LLM estão secretamente a injetar chamadas de ferramentas maliciosas e a roubar credenciais", afirmou o coautor do artigo, Chaofan Shou, no X.
Os agentes de IA LLM encaminham cada vez mais pedidos através de intermediários API de terceiros ou routers que agregam acesso a fornecedores como OpenAI, Anthropic e Google. No entanto, estes routers terminam as ligações TLS (Transport Layer Security) da Internet e têm acesso total em texto simples a todas as mensagens.
Isto significa que os programadores que utilizam agentes de IA de codificação, como o Claude Code, para trabalhar em contratos inteligentes ou carteiras, podem estar a passar chaves privadas, frases de recuperação e dados sensíveis através de infraestruturas de router que não foram verificadas ou protegidas.
Cadeia de fornecimento de router LLM multi-hop. Fonte: arXiv.org
ETH roubado de uma carteira de criptomoedas falsa
Os investigadores testaram 28 routers pagos e 400 routers gratuitos recolhidos de comunidades públicas.
As suas descobertas foram alarmantes, com nove routers a injetar ativamente código malicioso, dois a implementar gatilhos de evasão adaptativa, 17 a aceder a credenciais da Amazon Web Services de propriedade dos investigadores e um a drenar Ether (ETH) de uma chave privada de propriedade dos investigadores.
Relacionado: Anthropic limita acesso ao modelo de IA devido a preocupações com ciberataques
Os investigadores pré-financiaram "chaves falsas" de carteira Ethereum com saldos nominais e relataram que o valor perdido na experiência foi inferior a 50 dólares, mas não foram fornecidos mais detalhes, como o hash da transação.
Os autores também realizaram dois "estudos de envenenamento" mostrando que até routers benignos se tornam perigosos quando reutilizam credenciais vazadas através de retransmissores fracos.
Difícil de detetar se os routers são maliciosos
Os investigadores afirmaram que não era fácil detetar quando um router era malicioso.
Outra descoberta perturbadora foi o que os investigadores chamaram de "modo YOLO". Esta é uma configuração em muitos frameworks de Agente de IA onde o agente executa comandos automaticamente sem pedir ao utilizador para confirmar cada um.
Routers anteriormente legítimos podem ser silenciosamente armados sem que o operador sequer saiba, enquanto os routers gratuitos podem estar a roubar credenciais ao mesmo tempo que oferecem acesso API barato como isca, descobriram os investigadores.
Os investigadores recomendaram que os programadores que utilizam agentes de IA para codificar devem reforçar as defesas do lado do cliente, sugerindo nunca deixar chaves privadas ou frases de recuperação transitarem numa sessão de Agente de IA.
A solução a longo prazo é que as empresas de IA assinem criptograficamente as suas respostas para que as instruções que um agente executa possam ser matematicamente verificadas como provenientes do modelo real.
Magazine: Ninguém sabe se a criptografia quântica segura irá sequer funcionar
- #Ethereum
- #AI
- #Cibercrime
- #Cibersegurança
- #IA & Alta Tecnologia






