
Quais são as oportunidades e desafios da IA no espaço de prevenção de fraudes e verificação de identidade? Conversamos com Heidi Hunter, diretora de produtos da IDology, uma empresa GBG, para descobrir.

A IDology oferece um conjunto abrangente de soluções de verificação de identidade, AML/KYC e gerenciamento de fraudes para ajudar as empresas a gerar receita, impedir fraudes e manter a conformidade. Fundada em 2003, a IDology estreou no Finovate em 2012. A GBG adquiriu a empresa em 2019.
A Sra. Hunter ingressou na GBG Americas em 2011 e trabalhou em funções de inovação de produtos e sucesso do cliente durante sua carreira na empresa. Ela traz mais de 13 anos de experiência no suporte a clientes e ajudando-os em suas necessidades de negócios por meio de funções de inovação, suporte e implementação de produtos.
Atualmente, a Sra. Hunter é responsável por conduzir o roteiro de produtos da empresa e trazer inovações para o mercado de verificação de identidade por meio do desenvolvimento estratégico de produtos.
A IA trouxe desafios e oportunidades quando se trata de fraude e crime financeiro. Quais são os principais desafios que as instituições financeiras enfrentam?
Heidi Hunter: Existem quatro áreas principais de preocupação: segurança cibernética e fraude, modelos tendenciosos, supervisão humana e conformidade regulamentar.
A Deloitte escreveu sobre a crescente preocupação da IA como uma ameaça de fraude e segurança cibernética, observando que 51% dos executivos entrevistados acreditam que as vulnerabilidades de segurança cibernética da IA são uma grande preocupação. Uma questão é o problema de mais e melhores documentos falsos. A IA simplificará a criação de passaportes, carteiras de motorista e carteiras de identidade que são praticamente indistinguíveis dos genuínos. Outra questão aqui é o aumento da fraude de identidade sintética. A IA generativa é uma ferramenta de produtividade para fraudadores, criando identidades sintéticas altamente realistas em grande escala.
Além disso, há phishing e engenharia social mais eficazes. Um estudo recente com 1.000 tomadores de decisão descobriu que 37% sofreram fraude de voz falsa. E a IA generativa é usada para alimentar um aumento nas táticas de phishing.
Você também mencionou modelos tendenciosos, supervisão humana e conformidade.
Hunter: O uso de algoritmos de IA e aprendizado de máquina (ML) tem sido examinado com preocupações sobre preconceito de dados, transparência e responsabilidade. No que diz respeito à supervisão humana, 88% dos consumidores relataram que descontinuariam um serviço de personalização útil se não compreendessem como os seus dados seriam geridos.
A falta de supervisão humana também é uma preocupação regulatória. A IA muitas vezes carece de transparência, deixando as empresas expostas quando têm de explicar as suas decisões, o que trouxe expectativas de regulamentação futura. Os deepfakes gerados por IA estão avançando rapidamente e os legisladores não conseguem acompanhar.
A mesma tecnologia que permite aos fraudadores também pode permitir que as instituições financeiras os frustrem?
Hunter: Sim, especialmente quando a IA está associada à inteligência humana. A IA se beneficia de especialistas encarregados de supervisionar os dados recebidos e enviados. Um analista de fraude treinado que acompanha soluções baseadas em IA pode detectar tendências de fraude novas e estabelecidas. Isto inclui novas ameaças que as soluções de IA por si só podem ignorar.
Do ponto de vista da conformidade, isto significa que as empresas podem oferecer uma solução mais transparente e gerir possíveis distorções. A IA supervisionada pode eliminar a necessidade de verificar manualmente uma identificação e ajudar a fornecer a explicação necessária para requisitos regulatórios e de conformidade.

A automação desempenha um papel importante na IA. O mesmo acontece com a supervisão humana. Você pode falar sobre a relação entre IA e automação?
Hunter: A automação normalmente é baseada em regras e segue instruções predeterminadas, enquanto a IA pode aprender com os dados e tomar decisões com base nesses dados. Em outras palavras, o software de automação opera com base em um conjunto de regras predefinidas, enquanto a IA pode fazer previsões e decisões com base nos dados que lhe são apresentados. O aspecto das “previsões” da tecnologia baseada em IA e ML é onde a supervisão humana desempenha um papel tão importante.
Qual é o equilíbrio adequado entre a supervisão humana e a IA? Qual o papel dos humanos num mundo cada vez mais movido pela IA?
Hunter: Como acontece com qualquer ferramenta, a IA supervisionada por humanos é ótima quando faz parte de uma estratégia maior de verificação de identidade (IDV).
Os seres humanos têm um papel em todas as “fases” da utilização ou implementação da IA: no desenvolvimento, em termos dos dados que estão a ser utilizados para treinar um modelo; durante a implantação, onde é utilizada uma ferramenta baseada em IA e em que medida; e quando se trata de responsabilizar as ferramentas baseadas em IA. Isto significa analisar um determinado resultado e quais decisões um IF toma com base nesse resultado.
Especificamente para verificação de identidade, como a IA supervisionada por humanos ajudou a resolver problemas?
Hunter: Os consumidores também estabelecem padrões elevados para interações perfeitas. Por exemplo, 37% dos consumidores abandonaram um processo de integração digital porque era muito demorado. Superar este desafio requer uma estratégia abrangente. A IA supervisionada por humanos pode desempenhar um papel crítico no processo, pois pode examinar rapidamente grandes volumes de dados digitais para descobrir padrões de atividades suspeitas, ao mesmo tempo que fornece informações e transparência sobre como as decisões são tomadas.
As empresas estão adotando a IA supervisionada por humanos? Que obstáculos permanecem para uma adoção mais ampla?
Hunter: Sim, porque embora haja muito entusiasmo em torno do que a IA pode fazer, várias empresas e pessoas na comunidade acadêmica acreditam que a IA não está pronta para tomar decisões sem supervisão. Conforme mencionado anteriormente, as empresas mostram preocupação com o fato de a IA operar por conta própria. As preocupações vão desde questões éticas, passando por riscos de segurança cibernética e fraude, até tomar uma má decisão de negócios com base na IA. Numa nota positiva, as empresas estão a tornar-se mais conscientes dos benefícios dos modelos de aprendizagem supervisionada.
Foto do estúdio Cottonbro