A Inteligência Artificial vai ser o assunto do momento para o ano 2023 e, para já, Itália aplicou algumas limitações ao ChatGPT enquanto avança com uma investigação à empresa por detrás da tecnologia em questão.
Atualmente existe uma limitação aplicada à OpenAI, empresa que detém a popular ferramenta ChatGPT, até que o governo italiano consiga garantir o cumprimento do Regulamento Geral Europeu de Proteção de Dados.
ChatGPT está debaixo de investigação por parte do governo italiano
Datado ao último dia de Março, o regulador de dados italiano (Garante per la Protezione dei dati personali) ordenou a limitação temporária do tratamento dos dados dos utilizadores italianos pelo OpenAI, e, consequentemente, da ferramenta ChatGPT, devido ao lançamento de uma investigação para assegurar o cumprimento do Regulamento Geral Europeu de Proteção de Dados (GDPR).
A Check Point® Software Technologies Ltd., fornecedor mundial e líder em soluções de cibersegurança, explica que esta situação decorre da recente violação de dados da ferramenta de inteligência artificial detetada a 20 de Março, na qual as conversas dos utilizadores foram alegadamente expostas juntamente com informação privada, como a faturação dos assinantes e detalhes parciais dos cartões de crédito.
Segundo a declaração oficial do regulador italiano, o ChatGPT atualmente “não fornece qualquer informação aos utilizadores, nem às pessoas cujos dados foram recolhidos pela OpenAI”, observando “a ausência de uma base jurídica adequada em relação à recolha de dados pessoais e ao seu tratamento” e o não cumprimento dos artigos 5, 6, 8, 13 e 25 do GDPR.
Para já, apenas o governo italiano implementou estas medidas, mas dada a alegada base denão conformidade com o regulamento europeu de processamento de dados, existe a possibilidade destas e outras medidas se agravarem e se estenderem a outros países.
Perigos e possibilidades da Inteligência Artificial
Paal Aaserudseter, engenheiro de segurança da Check Point Software, partilhou a visão da empresa para a Inteligência Artificial, cibersegurança e como as empresas podem permanecer seguras nesta nova era de inovação digital.
“O potencial para a má utilização dos dados é de longe uma das minhas maiores preocupações relativamente ao ChatGPT”, explica Aaserudseter. “O problema aqui é que a maioria dos utilizadores não estão conscientes do risco envolvido no carregamento deste tipo de informação sensível. Esperemos que o efeito positivo da proibição do ChatGPT em Itália seja que a lei de IA da UE entre em vigor muito mais rapidamente.”
Este tipo de tecnologia já demonstrou o seu potencial para revolucionar diversos setores, desde a saúde às finanças e transportes. As tarefas mais maçadoras podem facilmente tornar-se automáticas, é possível melhorar a eficiência em diversas funções e mesmo fornecer informações que anteriormente seriam muito custosas de encontrar.
Mas é igualmente importante manter expectativas realistas e não ver estes instrumentos como uma solução para todos os problemas, pelo menos por enquanto. Atualmente, a maioria da IA que utilizamos está agrupada em Inteligência Artificial Estreita ou “fraca”, longe da Super Inteligência Artificial, cuja inteligência ultrapassaria as capacidades humanas.
Para mitigar os riscos associados à IA avançada, é importante que investigadores e decisores políticos trabalhem em conjunto para assegurar que estas ferramentas sejam desenvolvidas de uma forma segura e benéfica. Isto inclui o desenvolvimento de mecanismos de segurança robustos, o estabelecimento de diretrizes éticas e a promoção da transparência e responsabilidade no desenvolvimento de IA.
Nesta ordem, todos os organismos relacionados, tais como governos, empresas e os próprios criadores, devem considerar os seguintes pilares fundamentais:
- Estabelecer diretrizes éticas: Devem existir diretrizes éticas claras para o desenvolvimento e utilização de IA que estejam alinhadas com os valores e princípios da sociedade, tais como transparência, responsabilidade, privacidade e justiça.
- Incentivar a transparência: As empresas e os criadores devem ser transparentes acerca dos seus sistemas de IA, incluindo a forma como são concebidos, formados e testados.
- Assegurar a privacidade: As empresas devem dar prioridade à proteção da privacidade dos utilizadores, especialmente quando se trata de dados sensíveis, implementando protocolos sólidos de proteção de dados e fornecendo explicações claras sobre a forma como os dados dos utilizadores são recolhidos, armazenados e utilizados.
- Priorizar a segurança: Esta deve ser uma prioridade máxima no desenvolvimento da IA e devem ser criados mecanismos para evitar danos causados por sistemas de IA. Isto inclui o desenvolvimento de protocolos de teste robustos e a implementação de mecanismos à prova de falhas e à prova de vulnerabilidades.
- Fomentar a inovação: Os governos devem fornecer fundos e recursos para apoiar a investigação e desenvolvimento de IA, assegurando ao mesmo tempo que a inovação seja equilibrada com uma governação responsável.
- Incentivar a participação e acessibilidade do público: Deve haver oportunidades de participação e envolvimento do público no desenvolvimento e regulamentação da IA, para garantir que as suas necessidades e preocupações são consideradas. As empresas devem conceber os seus sistemas de IA para serem acessíveis a todos os utilizadores, independentemente das suas capacidades físicas ou conhecimentos técnicos, fornecendo instruções claras e interfaces de utilizador fáceis de compreender e de utilizar.
O lado mais assustador da IA é que é uma tecnologia que poderá ser utilizado tanto por atacantes como defensores. Com o avançar da tecnologia, ferramentas como o ChatGPT podem ser utilizadas para criar ataques mais sofisticados e difíceis de detetar.
Como a Check Point Research demonstrou no passado, o ChatGPT já está atualmente a ser utilizado para automatizar processos e mesmo criar campanhas de phishing direcionadas ou mesmo lançar ataques automatizados.