O lançamento de músicas feitas por deepkfake de artistas como Drake, The Weeknd e até mesmo a banda britânica Oasis acendeu um alerta na indústria musical: quais são os limites para a utilização da inteligência artificial?
Ferramentas como o ChatGPT já estão bastante avançadas e disponíveis para o grande público. A partir dessas funcionalidades é possível criar conteúdos baseados na demanda do usuário e, muitas vezes, utilizando a imagem e a voz de pessoas conhecidas ou anônimas, basta alimentar o sistema com os dados necessários para que a IA gere conteúdos como se fossem de autoria de outros.
A inteligência artificial generativa pode criar obras complexas semelhantes a grandes artistas ou simplesmente um vídeo ou áudio para passar informações ou enganar até mesmo quem conhece o sujeito que está sendo vítima do golpe.
Os conteúdos de deepfakes conseguem mesclar, substituir e sobrepor áudios, imagens e vídeos para criar conteúdos falsos que parecem reais. Porém, outras ferramentas podem ajudar a detectar os rastros deixados pela inteligência artificial generativa.
Entre as ferramentas que auxiliam os especialistas em segurança a detectar os casos de deepfake de áudio está a biometria de voz. Integrada a modernas tecnologias de inteligência artificial, essa ferramenta pode reconhecer quando uma voz não é humana ou está sendo reproduzida por um aparelho de som.
De acordo com Marcelo Peixoto, CEO da Minds Digital, ainda há um longo caminho pela frente, mas já é possível detectar esse tipo de fraude.
“Assim como o deepfake se aperfeiçoa para conseguir burlar os sistemas de segurança, as ferramentas que reconhecem essas fraudes também estão sendo aperfeiçoadas. Por isso, é importante que as empresas busquem o que há de mais moderno no mercado na hora de criar barreiras a fim de proteger seu patrimônio, sua imagem e seus clientes”, afirma Peixoto.
O ideal é que cada vez mais os sistemas antifraude sejam compostos por várias camadas e ferramentas, que ajudam a evitar que os fraudadores consigam ultrapassar as barreiras mais vulneráveis.
Assim como a inteligência artificial pode ser usada para aplicar golpes e outros atos ilícitos, ela também pode ser utilizada para aumentar a segurança nos ambientes digitais e em outros tipos de operações. Seja no reconhecimento de padrões suspeitos no comportamento de um usuário ou para certificar sua identidade, essa tecnologia deverá mudar a maneira como os clientes buscam e consomem produtos e serviços não apenas no meio online.
É por isso que grandes empresas estão ávidas por soluções que integrem seu ecossistema de proteção, como a biometria de voz, a fim de gerar barreiras mais fortes contra esses golpes sem colocar em risco uma boa experiência aos seus consumidores.