Close Menu
Jornal Nosso DiaJornal Nosso Dia
  • BELEZA
  • MODA
  • DECORAÇÃO
  • ALIMENTAÇÃO
  • RECEITAS
  • AUTOMOTIVO
  • FINANÇAS
  • TECNOLOGIA
  • TURISMO
  • PET
  • DICAS

Subscribe to Updates

Get the latest creative news from FooBar about art, design and business.

What's Hot

BR-101 segue com os combustíveis mais caros entre as principais rodovias brasileiras em abril, aponta Edenred Ticket Log

09/05/2025

NPS: Techdengue é destaque em pesquisa de satisfação

09/05/2025

Combustíveis recuam em abril, mas seguem mais caros em 2025

09/05/2025
Facebook X (Twitter) Instagram
sexta-feira, maio 9
EM DESTAQUE
  • BR-101 segue com os combustíveis mais caros entre as principais rodovias brasileiras em abril, aponta Edenred Ticket Log
  • NPS: Techdengue é destaque em pesquisa de satisfação
  • Combustíveis recuam em abril, mas seguem mais caros em 2025
  • Primeira carteira aberta de criptomoedas: Renato Albani compartilha jornada com o público e recebe consultoria de Thiago Nigro
  • Mercado educacional desponta como aposta atrativa para investidores em 2025
  • Empreendedorismo jovem cresce no Brasil: veja como começar ainda na universidade
  • Odontoprev agora integra a carteira oficial do ISE e IDIV da B3
  • B2B Match anuncia Rogério Barreira como voz inspiradora da segunda edição Get Together São Paulo
Jornal Nosso DiaJornal Nosso Dia
  • BELEZA
  • MODA
  • DECORAÇÃO
  • ALIMENTAÇÃO
  • RECEITAS
  • AUTOMOTIVO
  • FINANÇAS
  • TECNOLOGIA
  • TURISMO
  • PET
  • DICAS
Jornal Nosso DiaJornal Nosso Dia
Home»TECNOLOGIA»3 dicas valiosas para não cair em golpes deepfake
TECNOLOGIA

3 dicas valiosas para não cair em golpes deepfake

03/05/202400
Facebook Twitter Pinterest LinkedIn WhatsApp Reddit Tumblr Email
Compartilhar
Facebook Twitter LinkedIn Pinterest Email

Os deepfakes invadiram a consciência dos consumidores e das empresas devido à sua crescente sofisticação. De acordo com os pesquisadores da Check Point Software,  a capacidade de imitar um ser humano com uma qualidade superior é agora mais possível que nunca. Isso se deve ao fato de o acesso a ferramentas de IA utilizadas para criar deepfakes ser melhor; e, associado com as barreiras de entrada de baixo custo, isso significa que falsificações convincentes podem ser implantadas em grande escala.

Os pesquisadores voltaram a analisar os deepfakes e descobriram que, em 30 segundos ou menos de conversa sobre qualquer assunto, qualquer pessoa com as ferramentas de IA necessárias pode criar um deepfake a partir da uma voz a respeito de qualquer tema que desejar, durante o tempo que quiser, praticamente sem custos. Isto é um fator de mudança, e atualmente o mesmo se aplica ao vídeo.

Eles observaram que o número de ataques de deepfake (bem-sucedidos) é fenomenal. De acordo com um relatório da Sumsub Research realizado no ano passado, os incidentes globais de deepfake aumentaram dez vezes de 2022 para 2023, com a América do Norte registrando o maior crescimento de ataques de deepfake, com 1740%, enquanto a região da América Latina registrou 410%.

Para as empresas, uma das principais preocupações é saber se um executivo pode ser objeto de um deepfake convincente – ou se um funcionário “privilegiado” pode ser enganado por ações, vídeo e voz falsos.

No início deste ano, um funcionário do setor financeiro em Hong Kong foi enganado a ponto de aprovar um pagamento de US$ 25 milhões por meio de uma elaborada videoconferência com um deepfake do CFO (Chief Financial Officer) da empresa. Ele solicitou uma reunião via Zoom em resposta a uma solicitação de transferência de dinheiro e só enviou a quantia após falar com quem ele pensava que era o diretor financeiro e vários outros colegas na mesma ligação, todos deepfakes. O caso destacou de forma nítida a evolução da tecnologia e seu potencial como um novo vetor de ameaça para fraudes empresariais.

Os impactos de negócios significativos associados ao uso malicioso de deepfakes têm levado pessoas e empresas a perguntarem o que podem fazer para se protegerem, bem como as suas operações. Como podem descobrir se a pessoa do outro lado de uma videoconferência é real e não uma criação de IA?

Em um nível mais elevado, a situação requer que as pessoas estejam vigilantes e realizem algumas verificações de senso comum. Em todas as circunstâncias, as pessoas tendem a avaliar o que está diante de seus olhos e fazer determinadas avaliações de risco e julgamentos.

Da mesma forma que as pessoas verificam a veracidade de um e-mail ou seu conteúdo – checando a identidade do remetente, passando o mouse sobre a URL ou arquivo anexado, examinando o estilo e a gramática –, elas podem se beneficiar ao aplicar o mesmo tipo de abordagem às videoconferências atuais.

Essa triangulação de pistas e fatores de risco é uma espécie de “autenticação de múltiplos fatores” que agora precisa ser realizada de forma mais consciente em ambientes de trabalho.

Dicas e truques

Assim, existem algumas verificações que os funcionários podem realizar para detectar um deepfake ou que os alertem para uma tentativa de golpe mais sofisticada que faça uso da tecnologia de deepfake.

A primeira delas é realizar uma rápida verificação de “vivacidade”, ou seja, pedir à pessoa do outro lado do vídeo para virar a cabeça de um lado para o outro. Atualmente, isso é eficaz porque as ferramentas de IA generativas usadas para produzir deepfakes não criam uma semelhança tridimensional ou de 360 graus da pessoa, apenas imagens planas voltadas para a frente.

Visualizações laterais da cabeça e do rosto não serão imagens renderizadas ou exibidas corretamente. Portanto, se os funcionários suspeitarem de algo, deverão pedir à pessoa para virar para a esquerda ou para a direita e, se o rosto desaparecer, desligar a videoconferência.

Da mesma forma, outros comportamentos humanos naturais frequentemente observados em videoconferências – como alguém levantar a mão para coçar ou tocar a cabeça, por exemplo – também não serão exibidos corretamente com um deepfake.

Isso é eficaz hoje, mas pode não ser amanhã. O ritmo acelerado do desenvolvimento de IA generativa significa que as ferramentas ficarão melhores na criação de semelhanças mais realistas de pessoas e de seus modos, o que poderia tornar a verificação de vivacidade mais desafiadora ao longo do tempo.

A segunda dica tem a ver com o fato de os funcionários serem capazes de identificar pistas adicionais de que uma videoconferência com um executivo não parece ser o que é. Uma verificação útil ao receber um link de videoconferência, ou ao participar de uma chamada com várias partes, é verificar se os participantes estão usando uma versão licenciada corporativa desse software.

Isso muitas vezes é óbvio porque as empresas usam uma “URL de vaidade” – nomedaempresa[.]plataformadevideo[.]com – para mostrar de onde a chamada está sendo realizada. A confiança pode ser ainda mais estabelecida ao comunicar com antecedência, por meio de um método diferente como chat ou e-mail, como as pessoas participarão da videoconferência.

Ao saber com antecedência que receberá um convite de videoconferência de um determinado domínio da empresa, isso deverá ser levado em consideração para decidir se aceita ou não a reunião. Se a reunião for iniciada de uma conta pessoal, ou se alguém se juntar inesperadamente e sem explicação de uma conta pessoal, pode ser um sinal de alerta. Então, vale a pena justificar com pelo menos uma ou duas perguntas ou algumas verificações adicionais.

Uma terceira estratégia útil é ter códigos internos acordados que precisam ser verificados fora do circuito antes de certas ações serem realizadas, como uma transferência de dinheiro. No caso do funcionário de Hong Kong, isso significaria enviar uma mensagem ao CFO com o qual pensava estar conversando por meio de um canal completamente diferente e perguntar: “Qual é a palavra?”. A resposta que receberia de volta rapidamente lhe diria se o “CFO” – a partir do pedido ou pergunta que está sendo feito – é genuíno.

Os funcionários devem permanecer continuamente cautelosos e alertas, bem como empregar todas as maneiras à sua disposição e permanecerem atualizados com a evolução da tecnologia de IA, para lidar com a ameaça ao se depararem com um deepfake. Seus esforços podem ser eficazmente apoiados por organizações que implementam soluções de cibersegurança, incluindo proteções de e-mail robustas, que podem detectar e prevenir muitos convites maliciosos de reuniões antes de serem entregues nas caixas de entrada. Dada a realidade da ameaça, é importante ter proteções abrangentes em vigor e atitudes simples, mas valiosas, para não cair em golpes deepfakes.

 

Compartilhar Facebook Twitter Pinterest LinkedIn Tumblr Telegram Email

Assuntos Relacionados

Daikin lança AirTech Challenge 2025: Reimaginando o futuro do ar

08/05/2025

IAS anuncia soluções de Brand Safety e Suitability com IA para publicidade em podcasts na Spotify Audience Network

08/05/2025

ASUS anuncia promoção de compre e ganhe para o Dia das Mães

08/05/2025
EM DESTAQUE

Governo de SP promove Circuito Mais Mulher em Santa Fé do Sul no domingo (19)

14/11/20230

Goiás registra crescimento expressivo na abertura de novas empresas em 2023

18/11/20230

7 Dicas para fugir da Procrastinação

06/12/20230

PARÁ: Confira agenda da Agência-Barco da CAIXA Ilha de Marajó para o mês de agosto

03/08/20230

FUNAFRO destaca impacto positivo do ‘S’ do ESG e foco na inclusão da comunidade Negra em evento em São Paulo

12/04/20240
QUEM SOMOS
QUEM SOMOS

Site de Notícias e Opinião

EM DESTAQUE

BR-101 segue com os combustíveis mais caros entre as principais rodovias brasileiras em abril, aponta Edenred Ticket Log

09/05/2025

NPS: Techdengue é destaque em pesquisa de satisfação

09/05/2025

Combustíveis recuam em abril, mas seguem mais caros em 2025

09/05/2025
CONTATO

[email protected]

© 2025 Jornal Nosso Dia.

Type above and press Enter to search. Press Esc to cancel.