Ganhe uma renda extra trabalhando pela internet
Descubra como aumentar seus rendimentos realizando tarefas simples no conforto de sua casa. Junte-se a milhares que já estão aproveitando estas oportunidades.
A segurança dos sistemas de autenticação por voz está enfrentando um desafio significativo com a ascensão da inteligência artificial (IA). Pesquisadores da Universidade de Waterloo, na Bélgica, desenvolveram uma nova técnica de ataque que é capaz de superar esses sistemas em impressionantes 99% dos casos. Essa abordagem inovadora envolve o uso de softwares capazes de reconhecer marcadores de manipulação de áudio e sinais típicos de deep fakes, resultando na criação de áudios “indistinguíveis” dos reais.
Embora menos comuns no Brasil, esses sistemas de autenticação vocal são amplamente utilizados no setor bancário por telefone nos Estados Unidos e Europa. Eles funcionam comparando a gravação de voz atual com a identidade vocal armazenada nos servidores, em busca de semelhanças e indícios de manipulação ou síntese que possam distinguir uma amostra artificial da real.
Os especialistas da Universidade de Waterloo concentraram-se especificamente nesse último aspecto. Eles desenvolveram um software capaz de identificar e remover os marcadores característicos de uma voz gerada por inteligência artificial, que normalmente seriam detectados pelos sistemas de segurança. O resultado final é um áudio capaz de enganar completamente a máquina do outro lado da linha.
Segundo os pesquisadores, a taxa de sucesso de 99% foi alcançada após no máximo seis tentativas, que é o limite comumente usado pelos bancos para bloquear o acesso caso não haja correspondência com a biometria vocal armazenada. As vozes manipuladas foram geradas utilizando-se um sintetizador, com o auxílio de tecnologias de inteligência artificial também usadas na criação de deep fakes.
O estudo publicado pela Universidade de Waterloo destaca que o método desenvolvido é capaz de superar até mesmo as barreiras mais recentes implementadas pelas instituições financeiras após a divulgação de pesquisas e métodos de segurança no início deste ano. Isso significa que existe o risco de fraudes envolvendo transações financeiras não autorizadas e transferências indevidas.
Considerando a insegurança da autenticação vocal, os especialistas recomendam que os clientes utilizem outros métodos de verificação e acesso aos sistemas bancários, sempre que possível. Por exemplo, é mais indicado o uso de biometria facial ou impressão digital em atividades sensíveis desse tipo.
Essa descoberta levanta preocupações sobre a segurança dos sistemas de autenticação por voz e a necessidade de aprimorar as medidas de proteção contra ataques baseados em IA. Os pesquisadores acreditam que é crucial desenvolver novas técnicas de autenticação mais robustas que possam resistir a esses tipos de ataques cada vez mais sofisticados.
Em última análise, a comunidade de segurança e as instituições financeiras precisam colaborar para desenvolver soluções avançadas que protejam os sistemas de autenticação por voz contra essas ameaças emergentes. Somente assim poderemos garantir a confiabilidade e a segurança dos sistemas de autenticação, protegendo assim os usuários de fraudes e transações não autorizadas.