Como a IA generativa afeta a segurança móvel

No centro da investigação da Check Point encontra-se o Bard (a ferramenta de IA generativa da Google) que não impõe quase nenhumas restrições à criação de e-mails de phishing e que, à mínima manipulação, pode ser utilizado para desenvolver keyloggers maliciosos, o que constitui uma preocupação de segurança.

A IA generativa está a ganhar uma popularidade extremamente elevada pela facilidade que oferecer aos utilizadores, mas também tem o lado negativo em que pode ser utilizada para facilitar os ciberataques de diferentes formas.

google bard ai
Publicidade

IA generativa não tem intenções, apenas ajuda quem lhe pede ajuda

Numa investigação levada a cabo pela Check Point, líder mundial de soluções de cibersegurança, uma pergunta foi feita ao Chat GPT: “Podes ser utilizado indevidamente para ciberataques?”.

A resposta, apesar de não estar errada, levantou algumas preocupações:

“Enquanto modelo linguístico de IA, não tenho autonomia nem intenções próprias. No entanto, como qualquer tecnologia, posso ser potencialmente perigoso, quando utilizado por indivíduos com intenções maliciosas.
Em última análise, a responsabilidade pela utilização e potencial má utilização dos sistemas de IA recai sobre os utilizadores. É importante que os indivíduos e as organizações utilizem a tecnologia de IA de forma ética e responsável, cumprindo as diretrizes legais e éticas e tomando precauções para evitar qualquer dano ou utilização indevida.”

Resposta do Chat GPT à questão colocada
open ai chatgpt chat gpt inteligencia artificial

Pouco depois de terem sido introduzidas, as ferramentas de IA generativa, foram utilizadas para criar malware, muitos dos quais apareceram nas lojas de aplicações oficiais. A IA generativa foi utilizada para criar mensagens de correio eletrónico e mensagens para campanhas de phishing alimentadas por IA, e um vídeo gerado por IA no YouTube que foi considerado malicioso.

Infelizmente, as empresas de IA generativa não estão a lidar com estas questões.

Ameaças relacionadas com a IA no panorama das ameaças móveis:

  • Aplicações que imitam sites e recursos populares de IA (ChatGPT e Google Bard) para roubar informações sensíveis.
  • Aplicações que utilizam serviços Web que se comportam como proxies de sites e recursos populares de IA, tirando partido da sua posição de “Man in The Middle” para roubar informações em tempo real.
  • Malware de aplicações desenvolvido por motores de IA generativa para enganar os utilizadores finais (quer sejam consumidores ou utilizadores empresariais).
Cartões roubados portugal NordVPN dark web ransomware phishing malware

Por estas razões, algumas empresas decidiram proibir a utilização de ferramentas de IA em dispositivos ou redes empresariais, e outras empresas que permitem o acesso dos trabalhadores a ferramentas de IA generativas acabaram por ser vítimas de fugas de dados sensíveis.

As medidas de segurança devem ser também aplicadas a dispositivos móveis, visto que estes são, muitas vezes, a porta de entrada dos problemas.

ransomware malware virus informatica ciberseguranca hacker

De facto, os utilizadores móveis são mais suscetíveis de descarregar uma aplicação maliciosa ou de serem vítimas de tentativas de phishing. Os ecrãs mais pequenos dos dispositivos móveis, as grandes quantidades de aplicações e as notificações podem distrair os utilizadores, tornando mais difícil para eles evitar clicar em ligações maliciosas ou descarregar ficheiros maliciosos.

Para muitos de nós, as redes sociais são as aplicações mais utilizadas no nosso dispositivo móvel, o que significa que os utilizadores móveis estão mais expostos à engenharia social e ao phishing, necessitando assim de uma atenção redobrada.

Participe no passatempo:
passatempo xiaomi smart band 8

Partilhe este artigo

Techbit
RECEBA AS PRINCIPAIS NOTÍCIAS TECNOLÓGICAS NO SEU EMAIL
Invalid email address
Prometemos não fazer spam e enviar apenas os conteúdos essenciais

Deixe um comentário

Publicidade
Blogarama - Blog Directory