O volume de ataques de identidade gerados por IA aumentou em 2023 a tal nível que se tornou um tema que afeta consumidores, organizações e até líderes mundiais. A biometria representa uma força transformadora na forma como os indivíduos interagem com os sistemas digitais e como as organizações protegem informações confidenciais, e, à medida que 2024 se aproxima, cada vez mais o panorama da identidade digital aponta para avanços significativos, com inovações delineadas para redefinir a verificação, elevar os padrões de segurança e melhorar a experiência dos usuários.
Para compreender o iminente futuro da biometria, a iProov selecionou oito principais tendências e previsões que devem afetar o mercado de identidade digital em 2024. Confira.
A biometria se tornará a pedra angular da infraestrutura de segurança do mercado de serviços financeiros
No ano passado, muitas organizações de serviços financeiros expandiram o acesso digital remoto para atender a uma demanda dos usuários. No entanto, isso ampliou a superfície de ataque digital e criou oportunidades para fraudadores. Nos EUA, esse setor tem sido mais lento na adoção de tecnologias de identidade digital do que outras regiões, o que pode ser atribuído aos desafios que o país enfrenta em termos de regulação da interoperabilidade e do intercâmbio de dados. No entanto, com a expectativa de que a fraude de identidade sintética gere pelo menos US$ 23 bilhões em perdas até 2030, a pressão deve aumentar.
Os consumidores esperam abrir contas e acessar serviços remotamente com rapidez e facilidade, enquanto os fraudadores minam a segurança de canais online para desviar dinheiro. Ao mesmo tempo, existe a séria ameaça de não conformidade às práticas de Conheça o seu Cliente (KYC – Know Your Customer) e de Combate à Lavagem de Dinheiro (AML – Anti Money Laundering). As penalidades para isso incluem multas pesadas e até processos criminais. Mas há um risco aumentado de escapar às sanções, além de financiar adversários de governos.
Como resposta, muitas instituições financeiras estão sendo incitadas a tomarem medidas que envolvem a troca de processos complicados de integração e a substituição de métodos desatualizados de autenticação, como senhas e códigos de acesso, por tecnologias avançadas que permitem integrar e autenticar remotamente os clientes de serviços bancários on-line.
Na linha de frente, está uma tecnologia pioneira, de verificação biométrica facial, que oferece conveniência e acessibilidade incomparáveis aos usuários e, ao mesmo tempo, desafios de segurança inigualáveis para os criminosos.
Devemos ver mais instituições financeiras reconhecendo como a verificação biométrica pode remodelar e redefinir o impacto positivo da tecnologia no equilíbrio entre a segurança e a experiência do cliente, e a partir daí, farão a mudança em seus sistemas.
Haverá um rápido aumento no número de países em desenvolvimento que criam programas de identidade digital baseados em identidade descentralizada
Estima-se que 850 milhões de pessoas em todo o mundo não têm uma forma legal de identificação e, sem uma identidade, as dificuldade vão desde abrir uma conta bancária, conseguir um emprego e até acessar serviços como os de saúde, situações estas que as tornam financeira e socialmente excluídas.
Os programas de identidade digital melhoram a acessibilidade a serviços e oportunidades digitais ao permitir que as pessoas afirmem a sua identidade e possam utilizar plataformas online, além de participar de iniciativas governamentais digitais.
Apoiados por recursos do Banco Mundial, os programas de identidade digital podem ajudar as economias menos avançadas a evitar roubo de identidade e fraudes, além de proporcionar uma forma alternativa de as pessoas provarem a sua identidade e terem acesso a serviços essenciais como benefícios, incluindo saúde e educação.
Com base em uma identidade descentralizada, esses programas permitirão aos usuários armazenar e trocar digitalmente documentos de identidade, como a carteira de habilitação, e credenciais variadas, como diplomas, e autenticar essas pessoas sem a necessidade de uma autoridade central.
Uma identidade descentralizada coloca o usuário no controle da informação, ao permitir que ele gerencie a sua identidade em uma abordagem distribuída. Ela também proporcionará a conveniência que os utilizadores finais exigem e abrirão vias essenciais para que indivíduos anteriormente desfavorecidos ou marginalizados tenham acesso desde serviços financeiros àqueles relacionados ao seu bem-estar.
Videochamadas remotas para verificação de identidade devem desaparecer
Videochamadas para verificação de identidade envolvem uma conexão de vídeo entre um operador treinado e a pessoa a ser verificada, que é solicitada a mostrar um documento de identidade para que seja comparado ao seu rosto, na câmera. No entanto, foi comprovado que a verificação por videochamada fornece pouca garantia de que o usuário seja uma pessoa “viva” e não imagens produzidas por Inteligência Artificial (IA) generativa, sobrepostas de forma convincente ao rosto do ator da ameaça.
Em 2022, investigadores do Chaos Computer Club conseguiram contornar a tecnologia de verificação de videochamadas utilizando IA generativa e forjar uma identificação. O caso demonstrou como essa tecnologia e os operadores humanos dos quais ela depende são altamente suscetíveis a ataques de imagens sintéticas. Desde então, o Escritório Federal Alemão para Segurança da Informação alertou contra a verificação de videochamadas por sua vulnerabilidade a esses ataques.
Se não forem capazes de se defender da ameaça das deepfakes na integração e autenticação, os programas de identidade digital poderão ser explorados para fins criminosos, como fraude de pagamentos, lavagem de dinheiro e financiamento ao terrorismo.
Como consequência, devemos observar movimentos dos órgãos reguladores de serviços financeiros no sentido de banir os métodos de verificação por videochamadas, orientando a escolha de métodos mais confiáveis, baseados em soluções híbridas que combinem correspondência automatizada de IA e detecção de prova de vida com supervisão humana do processo de aprendizagem automática.
As organizações introduzirão autenticação mútua entre funcionários para comunicação de alto risco e para integração remota de novos colaboradores
À medida que as organizações dependem cada vez mais de meios digitais para comunicação confidencial, a implantação de medidas robustas de cibersegurança é fundamental para mitigar as ameaças. A introdução da autenticação mútua para comunicações e transações de alto risco é uma medida de segurança imprescindível que acrescenta uma camada extra de proteção contra acessos não autorizados e ameaças potenciais. Além disso, em certas indústrias, a conformidade exige a implementação de medidas de segurança mais robustas. A autenticação mútua ajuda as organizações a atenderem esses requisitos de compliance, ao garantir canais de comunicação seguros e ao proteger informações confidenciais.
As violações de dados corporativos triplicarão devido a ataques bem-sucedidos gerados por IA
Por anos, organizações e indivíduos confiam em ferramentas de detecção de e-mails de phishing que se baseiam em erros ortográficos e gramaticais. Mas esse tempo já passou. A qualidade das respostas geradas pelo Chat GPT é tamanha que os agentes de ameaças agora podem usar a plataforma generativa para criar ataques de phishing de alta qualidade em comunicações muito convincentes, sem pistas suspeitas.
Em 2024, devemos testemunhar um aumento acentuado na qualidade e no volume dos ataques de phishing gerados por IA. O aprimoramento da capacidade de gerar alertas de segurança deve se tornar uma ferramenta redundante e as organizações serão forçadas a procurarem métodos alternativos e mais confiáveis para autenticar os usuários internos e externos das suas plataformas.
O preço de kits de síntese de voz e vídeo para crime como serviço vai cair para menos de US$ 100
A modalidade de crime como serviço e a disponibilidade de ferramentas de síntese de voz e de vídeo aceleram a evolução do cenário de ameaças ao permitir que os criminosos lancem ataques avançados mais rapidamente e em maior escala. Ataques bem-sucedidos devem aumentar em volume e frequência, assim como o risco de danos graves.
Os criminosos estão usando tecnologia sofisticada de IA generativa para criar e lançar ataques para explorar os sistemas de segurança das organizações, além de fraudar indivíduos.
A iProov vem constatando indicações semelhantes de criminosos pouco qualificados ganhando a capacidade de criar e lançar ataques avançados de imagens sintéticas. Nosso mais recente relatório de inteligência biométrica contra ameaças apontou o surgimento e o rápido crescimento de trocas de rostos em vídeo. Esse tipo de ameaça é uma das formas de imagem sintética na qual o criminoso combina mais de um rosto para criar uma imagem de vídeo 3D falsa.
O preço das ferramentas necessárias a esse tipo de ataques vem caindo rapidamente e devemos ter kits de Crime-as-a-Service custando menos de US# 100 muito em breve.
O potencial da IA para espalhar desinformação política fará com que a autoria autenticada de imagens e conteúdo escrito seja uma ferramenta legalmente exigida
À medida que as eleições se aproximam, devemos verificar uma infinidade de vídeos deepfake gerados por IA sendo usados para persuadir os eleitores. Para remediar essa situação, espera-se grandes iniciativas por parte das empresas de tecnologia no sentido de fornecer formas para as pessoas verificarem a autenticidade das imagens que são geradas. Isso inclui soluções que permitem às pessoas acrescentarem marcas d’água às imagens e assiná-las quando são criadas ou modificadas.
É provável que, em 2024, vejamos muitas tentativas nessa área porque o uso de deepfakes já está muito difundido. Desse modo, espera-se que seja um pré-requisito de qualquer conteúdo que utilize imagens oferecer alguma forma de garantir a sua autenticidade, e caso não inclua tal recurso, essa imagem tende a não ser valorizada.
Uma chamada por videoconferência gerada por IA causará a primeira fraude de CEO de U$ 1 bilhão
A fraude de CEOs atinge pelo menos 400 empresas todos os dias e representa uma ameaça significativa para organizações globalmente. Nesse tipo de crime, os invasores se passam por executivos seniores da empresa e tentam enganar os funcionários para que transfiram fundos, divulguem informações confidenciais ou iniciem outras atividades fraudulentas. Frequentemente, envolvem ataques sofisticados de engenharia social, o que os torna mais difíceis de detectar.
Ferramentas IA generativas estão sendo amplamente utilizadas por fraudadores para criar deepfakes para imitar uma pessoa. Os malfeitores agora podem criar áudios e imagens convincentes gerados por Inteligência Artificial e implantá-los em plataformas como o Zoom, o Microsoft Teams e o Slack. Sem ferramentas sofisticadas de monitoramento e detecção, é quase impossível identificar esse tipo de imagem sintética.
Nesse contexto, é muito provável que, em 2024, testemunhemos a primeira chamada de Zoom gerada por IA que levará a uma fraude de CEO de mais de US$ 1 bilhão.
Este conteúdo foi distribuído pela plataforma SALA DA NOTÍCIA e elaborado/criado pelo Assessor(a):
U | U
U