Dinheiro, mercados e aprendizado de máquina: desvendando os riscos da IA ​​adversária

blog

LarLar / blog / Dinheiro, mercados e aprendizado de máquina: desvendando os riscos da IA ​​adversária

Jun 29, 2023

Dinheiro, mercados e aprendizado de máquina: desvendando os riscos da IA ​​adversária

É impossível ignorar o papel crítico que a inteligência artificial (IA) e o seu subconjunto, a aprendizagem automática, desempenham hoje no mercado de ações. Embora a IA se refira a máquinas que podem executar tarefas que

É impossível ignorar o papel crítico que a inteligência artificial (IA) e o seu subconjunto, a aprendizagem automática, desempenham hoje no mercado de ações.

Embora a IA se refira a máquinas que podem executar tarefas que normalmente exigiriam inteligência humana, a aprendizagem automática (ML) envolve padrões de aprendizagem a partir de dados, o que aumenta a capacidade das máquinas de fazer previsões e tomar decisões.

Uma das principais maneiras pelas quais o mercado de ações usa o aprendizado de máquina é na negociação algorítmica. Os modelos de ML reconhecem padrões de grandes quantidades de dados financeiros e, em seguida, realizam negociações com base nesses padrões – milhares e milhares de negociações, em pequenas frações de segundo. Estes modelos de negociação algorítmicos aprendem continuamente, ajustando as suas previsões e ações num processo que ocorre continuamente, o que por vezes pode levar a fenómenos como flash crashes, quando certos padrões instigam um ciclo de feedback, enviando certos segmentos do mercado para uma súbita queda livre.

A negociação algorítmica, apesar das suas desvantagens ocasionais, tornou-se indispensável ao nosso sistema financeiro. Tem uma enorme vantagem; o que é outra maneira de dizer que isso rende muito dinheiro a algumas pessoas. De acordo com a empresa de serviços tecnológicos Exadel, os bancos poderão poupar 1 bilião de dólares até 2030 graças à negociação algorítmica.

No entanto, essa dependência de modelos de aprendizado de máquina nas finanças não é isenta de riscos – até mesmo riscos que vão além dos flash crashes.

Uma ameaça significativa e subestimada a esses sistemas é o que é conhecido como ataques adversários. Isso ocorre quando atores mal-intencionados manipulam os dados de entrada que alimentam o modelo de ML, fazendo com que o modelo faça previsões incorretas.

Uma forma desse ataque adversário é conhecida como “envenenamento de dados”, em que malfeitores introduzem “ruído” – ou dados falsos – na entrada. O treinamento nesses dados envenenados pode fazer com que o modelo classifique incorretamente conjuntos de dados inteiros. Por exemplo, um sistema de fraude de cartão de crédito pode atribuir erroneamente atividades fraudulentas onde não houve nenhuma.

Tais manipulações não são apenas uma ameaça teórica. Os efeitos do envenenamento de dados e dos ataques adversários têm amplas implicações em diferentes aplicações de aprendizagem automática, incluindo modelos de previsão financeira. Num estudo conduzido por investigadores da Universidade de Illinois, da IBM e de outras instituições, demonstraram a vulnerabilidade dos modelos de previsão financeira a ataques adversários. De acordo com as suas conclusões, estes ataques podem levar a decisões comerciais abaixo do ideal, resultando em perdas de 23% a 32% para os investidores. Este estudo destaca a gravidade potencial destas ameaças e sublinha a necessidade de defesas robustas contra ataques adversários.

A reacção da indústria financeira a estes ataques tem sido muitas vezes reactiva – um jogo de golpe-a-toupeira em que as defesas são levantadas apenas após a ocorrência de um ataque. No entanto, dado que estas ameaças são inerentes à própria estrutura dos algoritmos de ML, uma abordagem mais proativa é a única forma de abordar de forma significativa este problema contínuo.

As instituições financeiras precisam de implementar métodos de teste e avaliação robustos e eficientes que possam detectar potenciais fraquezas e proteger-se contra estes ataques. Essa implementação poderia envolver procedimentos de testes rigorosos, empregando “equipes vermelhas” para simular ataques e atualizando continuamente os modelos para garantir que não sejam comprometidos por agentes mal-intencionados ou por dados inadequados.

As consequências de ignorar o problema dos ataques adversários na negociação algorítmica são potencialmente catastróficas, desde perdas financeiras significativas a danos na reputação das empresas, ou mesmo perturbações económicas generalizadas. Num mundo cada vez mais dependente de modelos de BC, o setor financeiro precisa de passar de reativo a proativo para garantir a segurança e a integridade do nosso sistema financeiro.

Joshua Steier é analista técnico e Sai Prathyush Katragadda é cientista de dados na organização sem fins lucrativos e apartidária RAND Corporation.

Copyright 2023 Nexstar Media Inc. Todos os direitos reservados. Este material não pode ser publicado, transmitido, reescrito ou redistribuído.