João Pessoa 29.13ºC
Campina Grande 30.9ºC
Patos 35.75ºC
IBOVESPA 127670.15
Euro 6.1162
Dólar 5.7661
Peso 0.0058
Yuan 0.7972
Golpes com deepfake: como melhorar a cibersegurança para proteger clientes e usuários
27/07/2023 / 14:42
Compartilhe:

O lançamento de músicas feitas por deepkfake de artistas como Drake, The Weeknd e até mesmo a banda britânica Oasis acendeu um alerta na indústria musical: quais são os limites para a utilização da inteligência artificial?

Ferramentas como o ChatGPT já estão bastante avançadas e disponíveis para o grande público. A partir dessas funcionalidades é possível criar conteúdos baseados na demanda do usuário e, muitas vezes, utilizando a imagem e a voz de pessoas conhecidas ou anônimas, basta alimentar o sistema com os dados necessários para que a IA gere conteúdos como se fossem de autoria de outros.

A inteligência artificial generativa pode criar obras complexas semelhantes a grandes artistas ou simplesmente um vídeo ou áudio para passar informações ou enganar até mesmo quem conhece o sujeito que está sendo vítima do golpe.

Os conteúdos de deepfakes conseguem mesclar, substituir e sobrepor áudios, imagens e vídeos para criar conteúdos falsos que parecem reais. Porém, outras ferramentas podem ajudar a detectar os rastros deixados pela inteligência artificial generativa.

Uso da biometria de voz aumenta segurança digital

Entre as ferramentas que auxiliam os especialistas em segurança a detectar os casos de deepfake de áudio está a biometria de voz. Integrada a modernas tecnologias de inteligência artificial, essa ferramenta pode reconhecer quando uma voz não é humana ou está sendo reproduzida por um aparelho de som.

De acordo com Marcelo Peixoto, CEO da Minds Digital, ainda há um longo caminho pela frente, mas já é possível detectar esse tipo de fraude.

“Assim como o deepfake se aperfeiçoa para conseguir burlar os sistemas de segurança, as ferramentas que reconhecem essas fraudes também estão sendo aperfeiçoadas. Por isso, é importante que as empresas busquem o que há de mais moderno no mercado na hora de criar barreiras a fim de proteger seu patrimônio, sua imagem e seus clientes”, afirma Peixoto.

O ideal é que cada vez mais os sistemas antifraude sejam compostos por várias camadas e ferramentas, que ajudam a evitar que os fraudadores consigam ultrapassar as barreiras mais vulneráveis.

Inteligência artificial contra as fraudes

Assim como a inteligência artificial pode ser usada para aplicar golpes e outros atos ilícitos, ela também pode ser utilizada para aumentar a segurança nos ambientes digitais e em outros tipos de operações. Seja no reconhecimento de padrões suspeitos no comportamento de um usuário ou para certificar sua identidade, essa tecnologia deverá mudar a maneira como os clientes buscam e consomem produtos e serviços não apenas no meio online.

É por isso que grandes empresas estão ávidas por soluções que integrem seu ecossistema de proteção, como a biometria de voz, a fim de gerar barreiras mais fortes contra esses golpes sem colocar em risco uma boa experiência aos seus consumidores.