Os deepfakes gerados pela inteligência artificial (IA) estão em toda a internet, alimentando de tudo, desde golpes a desinformação política. O provedor de segurança cibernética McAfee é agora a mais recente entidade a tentar uma solução.
O áudio alterado pode indicar um golpe de deepfake, incluindo aqueles que clonam as vozes dos entes queridos para enganar as pessoas para pagar resgates falsos ou personificar figuras públicas para espalhar informações falsas.
Embora nem todo o conteúdo de IA seja criado com intenção maliciosa, a capacidade de saber se um vídeo é real ou falso ajuda os consumidores a tomar decisões inteligentes e bem informadas.
A empresa lançou seu Deepfake Detector, uma ferramenta baseada em IA que verifica vídeos em busca de sinais de áudio gerado por IA.
Uma vez que um usuário opta, o detector monitora automaticamente o que está sendo reproduzido em um PC e alerta o usuário “dentro de segundos”, se encontrar áudio alterado por IA - tudo sem o uso de software de terceiros ou a necessidade de verificações manuais iniciadas pelo usuário.
O Deepfake Detector só analisa o áudio em vídeos reproduzidos no navegador, não verificando o gerenciamento de direitos digitais, como o conteúdo que encontrado em serviços de streaming de vídeo.
O detector não monitora nenhum vídeo ou áudio reproduzido fora do PC, pois a maioria dos vídeos deepfake usam áudio manipulado por IA, ou gerado por IA, como a principal maneira de enganar os espectadores.
A McAfee criou o Deepfake Detector em parceria com a Lenovo especificamente para seus PCs Copilot+, o que significa que só está disponível nesses dispositivos e, eventualmente, custará pelo menos US $ 10 por ano.
Fonte: zdnet