"Criar camarões" aviso de perda financeira: Controlos de risco bancário enfrentam novo desafio da IA

Se investir em ações, consulte os relatórios de analistas da Golden Kylin, autoridade, profissionalismo, atualidade, abrangência, para ajudá-lo a descobrir oportunidades de temas potenciais!

Fonte: Beijing Business Daily

Uma onda de entusiasmo nacional pelo AI, com o tema “criar lagostas”, está a acontecer.

Recentemente, o AI de código aberto OpenClaw (comumente chamado de “lagosta”) tornou-se viral na internet, atraindo muitos utilizadores que, pelo seu conforto de “libertar as mãos”, seguem a tendência de implementação, sendo carinhosamente apelidados de “criadores de lagostas”. Esta ferramenta, que pode automatizar tarefas como processamento de ficheiros e depuração remota, esconde riscos de segurança, pois alguns utilizadores, ao vincularem informações de cartão de crédito e ao abrirem permissões na rede pública, sofreram roubos de cartões, transformando a “criação de lagostas” numa situação embaraçosa de “perda de dinheiro”.

Este fenómeno já alertou o setor financeiro. No dia 12 de março, o repórter do Beijing Business Daily soube de várias pessoas do centro de cartões de crédito de bancos que, atualmente, alguns bancos iniciaram investigações de risco relacionadas, sem ainda terem registado casos de roubo em grande escala. O próximo passo será estudar esses casos, explorar melhorias nos modelos de deteção de transações anómalas, e aumentar a capacidade de identificar e prevenir operações automatizadas por AI, incluindo exploração de vulnerabilidades de segurança por agentes inteligentes.

Risco de roubo e furto de informações de cartões de crédito

A popularidade do OpenClaw deve-se ao seu apelo central de “libertar as mãos” e à experiência de uso conveniente e eficiente.

Este AI de código aberto, que integra múltiplos canais de comunicação e modelos de linguagem avançados, permite criar assistentes AI personalizados com memória duradoura e capacidade de execução proativa, capazes de automatizar tarefas como processamento de ficheiros, escrita de scripts e depuração remota, atraindo muitos utilizadores a aderir à tendência.

Mas, por trás desta febre, escondem-se riscos de segurança que não podem ser ignorados, sendo o mais direto o roubo e furto de informações de cartões de crédito. Recentemente, um desenvolvedor partilhou numa rede social que um amigo, ao usar a ferramenta AI OpenClaw para programar, abriu o navegador via VNC para a internet pública, e poucos dias depois, o cartão de crédito foi alvo de múltiplos roubos.

Muitos utilizadores estão preocupados, pois, para facilitar o uso do OpenClaw, já vincularam cartões de crédito e contas bancárias, e agora não sabem como apagar esses vestígios, temendo vazamentos de informações e novos furtos. Outros comentam que, inicialmente, pensaram que “criar lagostas” aumentaria a eficiência e libertaria as mãos, mas agora percebem que podem acabar por perder bens, e dizem: “Nunca mais sigo essa tendência”, alertando para não negligenciar a segurança por conveniência momentânea.

O analista sénior da Broadridge, Wang Pengbo, afirma que o uso de AI para roubo de cartões de crédito é uma nova forma de ataque, baseada na utilização de ferramentas AI de uso comum. Essas ações aproveitam os altos privilégios e a popularidade dessas ferramentas para roubar informações de pagamento e realizar transações. Em comparação com o roubo tradicional, esses riscos apresentam características evidentes, como menor barreira de entrada, maior alcance de propagação, operações remotas e furtos sem contato, além de padrões de pequenas transações frequentes e compras virtuais transfronteiriças, que dificultam a deteção por sistemas de controlo de risco convencionais, aumentando a clandestinidade e o risco de disseminação.

Segundo Wu Zewei, investigador do Banco Su, do ponto de vista de segurança, o uso de AI por hackers para roubo de cartões constitui uma nova forma de “abuso de agentes inteligentes”. O ataque não é feito diretamente ao sistema bancário, mas através de técnicas como injeção de prompts, sequestrando AI legítimos para atuar como agentes criminosos. Diferente do roubo tradicional, essa nova modalidade é mais furtiva e automatizada. Os hackers não precisam de acesso direto ao dispositivo do utilizador, pois usam AI agentes autorizados para, em ambiente de alta permissão, automatizar todo o processo, desde o roubo de informações até à realização de transações.

Instituições bancárias iniciam investigação de risco de roubo por AI

Ainda que os casos de roubo de cartões por AI sejam pontuais, eles já soaram o alarme no setor financeiro.

No dia 12 de março, várias fontes do centro de cartões de crédito de bancos disseram ao Beijing Business Daily que já estão atentos a esses novos riscos, e alguns bancos começaram a investigar o risco de roubo por AI.

Uma fonte de um grande banco estatal afirmou: “Ainda não implementámos a ferramenta AI OpenClaw na nossa instituição, e, pelo que sabemos, a sua utilização não é comum na banca.” Ela acrescentou que, até agora, não há registos de roubo de cartões por AI na sua instituição.

Outro responsável do departamento de prevenção de fraudes de um banco de ações também comentou: “Ainda não há casos de roubo de cartões por AI na nossa instituição, e o risco ainda está em fase de observação. Os métodos tradicionais de roubo continuam a ser principalmente vírus trojan para roubo de informações.”

Vários bancos destacaram que a velocidade de evolução dessas tecnologias de agentes inteligentes é rápida, e os riscos potenciais não podem ser ignorados. Um responsável de gestão de risco de um banco afirmou que esses novos ataques podem facilmente contornar os mecanismos tradicionais de bloqueio baseados em limites de valor, tempo ou localização, e, por serem automáticos e furtivos, dificultam a deteção de atividades automatizadas pelo sistema. Os bancos enfrentam dificuldades em garantir uma avaliação precisa antes da transação, monitoramento em tempo real durante a operação, e rastreamento após o evento.

Como Wu Zewei explica, atualmente, os sistemas de controlo de risco de cartões de crédito baseiam-se em regras predefinidas e modelos estatísticos de machine learning, que analisam em tempo real dados estruturados como valores, frequência e localização das transações para identificar riscos. Mas, perante ataques de AI, esses sistemas mostram-se pouco adaptados. Como os comportamentos de AI agentes imitam altamente as ações humanas, incluindo sequências completas de comportamento do utilizador, os modelos tradicionais baseados em características únicas têm dificuldade em distinguir transações legítimas de fraudulentas. Quanto à deteção, os modelos tradicionais treinados com dados históricos não respondem bem a novos tipos de fraude sem exemplos anteriores. Na fase de bloqueio, as transações transfronteiriças, de pequenas quantidades e alta frequência, podem escapar às regras tradicionais, dificultando a intervenção em tempo real.

Atualização do sistema de controlo de risco de cartões de crédito em quatro dimensões

Com a rápida expansão da tecnologia AI, especialmente com a emergência de agentes AI automatizados como o OpenClaw, o cenário de roubo de cartões de crédito evolui, exigindo melhorias nos sistemas de controlo, gestão de permissões e atribuição de responsabilidades dos bancos.

Uma fonte do centro de cartões de um grande banco estatal acrescentou: “No futuro, o nosso departamento de risco irá estudar ativamente esses casos, explorando melhorias nos modelos de deteção de transações anómalas e reforçando a capacidade de identificar e prevenir operações automatizadas por AI e exploração de vulnerabilidades de segurança.”

Outro responsável de gestão de risco bancário destacou que, para lidar com esses novos riscos, os sistemas de controlo de risco serão atualizados, deixando de se limitar à monitorização de elementos tradicionais de transações, passando a focar na identificação aprofundada de ações automatizadas por AI. Isso será feito através do aprimoramento de perfis de risco, construção de modelos inteligentes de deteção e implementação de sistemas de controlo em tempo real.

A pesquisadora sénior da Su喜智研, Su Xiaorui, afirma que, do ponto de vista de segurança, o uso de AI por hackers para roubo de cartões é uma forma de fraude financeira automática dirigida por agentes AI. A essência do ataque é que não se ataca diretamente o banco ou o dispositivo do utilizador, mas manipula o AI autorizado pelo utilizador, usando seus privilégios legítimos para realizar fraudes. Em comparação com o roubo tradicional, o AI sequestrado consegue imitar comportamentos humanos, tomar decisões e executar tarefas complexas, dificultando a sua deteção. Assim, os sistemas tradicionais de controlo de risco, que se baseiam em sinais de “comportamento anómalo”, tornam-se ineficazes, pois o AI furtivo se integra no tráfego normal, criando zonas cegas na monitorização financeira.

Para proteger, os bancos devem evoluir de uma abordagem “passiva, estática e pontual” para uma abordagem “ativa, dinâmica e global”, promovendo a fusão de múltiplos modelos e a cooperação entre eles. Su Xiaorui acrescenta que, a longo prazo, a luta entre AI e segurança financeira será uma rotina, coexistindo na constante evolução de riscos e inovações. Nesse ambiente, é fundamental estabelecer normas e responsabilidades claras, acelerar a criação de padrões nacionais e regulamentos de segurança para aplicações financeiras de AI, e promover uma cooperação entre instituições financeiras para criar um sistema de partilha de informações de risco, rompendo com ilhas de dados e enfrentando riscos sistémicos transinstitucionais e transregionais.

“Para combater os novos ataques de roubo por agentes AI, os bancos devem atualizar integralmente os sistemas de controlo de risco de cartões de crédito, abrangendo regras, modelos, dados e sistemas”, recomenda Wu Zewei. No que diz respeito às regras e modelos, é necessário introduzir modelos complexos com capacidade de raciocínio causal, capazes de compreender o contexto das transações e as intenções do comportamento, para identificar cadeias de ações automatizadas por AI. Na camada de dados, deve-se eliminar ilhas de dados, integrando impressões digitais de dispositivos, sequências de comportamento e outros dados não estruturados, construindo uma visão dinâmica do risco do cliente. Quanto aos sistemas, é preciso desenvolver plataformas de controlo de risco inteligentes, com monitoramento em tempo real e capacidade de aprendizagem adaptativa, para responder rapidamente a novos tipos de ataques. A longo prazo, o equilíbrio entre o desenvolvimento tecnológico de AI e a segurança financeira passa por estabelecer um quadro de “Inteligência Artificial Confiável”, incorporando a segurança no ciclo de vida da aplicação tecnológica, e não apenas remediando após incidentes. Isso implica que as instituições financeiras devem, ao mesmo tempo, adotar AI para aumentar a eficiência e manter uma gestão prudente, criando mecanismos de partilha de informações de risco e auditorias rigorosas de algoritmos, garantindo que a inovação financeira permaneça segura e sob controlo.

Beijing Business Daily, por宋亦桐
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar