Sobre ChatGPT, tecnologia e ética

A humanidade avença no debate a respeito das inteligências artificiais generativas, a ética e os limites do que vamos fazer com isso.

08:44 | Abr. 17, 2023

Por: Hamilton Nogueira
Quanto mais específica e direta for sua pergunta, mais útil será a resposta do ChatGPT (foto: FCO FONTENELE)

No último dia do mês de março, o órgão regulador de dados italiano (Garante per la Protezione dei dati personali) ordenou a limitação temporária do processamento de dados de usuários italianos pela OpenAI e, portanto, sua popular ferramenta ChatGPT, ao mesmo tempo em que iniciou uma investigação para garantir a conformidade com o Regulamento Geral sobre a Proteção de Dados Europeia (GDPR). E, nos primeiros dias de abril, a Alemanha, França e Irlanda contataram o órgão regulador da Itália e manifestaram intenção de também bloquear o ChatGPT.

Conforme aponta a Check Point® Software Technologies Ltd. (NASDAQ: CHKP), uma fornecedora líder de soluções de cibersegurança global, esse evento teve origem no recente vazamento de dados da ferramenta de inteligência artificial da OpenAI detectado em 20 de março passado, no qual foram expostas conversas de usuários com informações privadas, como dados de cobrança e cartões de crédito parcial de assinantes.

De acordo com o que foi detalhado no comunicado oficial do órgão italiano, o ChatGPT atualmente "não fornece qualquer informação aos usuários, nem aos interessados cujos dados tenham sido reunidos pela OpenAI", apontando "a ausência de uma base legal adequada em relação à obtenção de dados pessoais e seu tratamento" e a violação dos artigos 5.º, 6.º, 8.º, 13.º e 25.º da GDPR.

Embora atualmente apenas a Itália tenha lançado esta portaria e investigação, dada a alegada base de não conformidade com o regulamento europeu de proteção de dados, é possível que outros países ou o próprio órgão central da União Europeia anunciem medidas semelhantes em breve.

Os perigos e as possibilidades da IA

Por sua vez, Pål (Paul) Aaserudseter, engenheiro de segurança da Check Point Software, compartilhou a visão da empresa em relação à inteligência artificial, segurança cibernética e como as organizações podem se manter seguras nesta nova era de inovação digital.

“O potencial de uso indevido de dados é de longe uma das minhas maiores preocupações com o ChatGPT”, diz Aaserudseter. “O problema em questão é que a maioria dos usuários desconhece o risco que envolve o upload desse tipo de informação sensível. Felizmente, o efeito positivo da proibição do ChatGPT na Itália é que a Lei de IA da UE entrará em vigor muito mais rapidamente.”

A IA já demonstrou seu potencial para revolucionar campos como saúde, finanças ou transporte, entre muitos outros. É possível automatizar tarefas tediosas, melhorar a eficiência e proporcionar informações que antes eram impossíveis de serem obtidas, ajudando a resolver problemas complexos e a tomar melhores decisões.

Mas, é igualmente importante manter suas expectativas realistas e não ver essas ferramentas como uma panacéia para todos os problemas, pelo menos por enquanto. Atualmente a maior parte da IA que utilizamos está agrupada dentro da Inteligência Artificial Estreita ou “fraca” (ANI - Artificial Narrow Intelligence), longe da Superinteligência Artificial (ASI - Artificial Super Intelligence) cuja inteligência ultrapassaria as capacidades humanas.

Para mitigar os riscos associados à IA avançada, é importante que pesquisadores e legisladores trabalhem juntos para garantir que essas ferramentas sejam desenvolvidas de maneira segura e benéfica. Isso inclui o desenvolvimento de fortes mecanismos de segurança, definição de diretrizes éticas e promoção da transparência e responsabilidade no desenvolvimento da IA. Nesta ordem, todas as organizações relacionadas, como governos, empresas e os próprios desenvolvedores devem considerar os seguintes pilares fundamentais:

Estabelecer diretrizes éticas: Deve haver diretrizes éticas claras para o desenvolvimento e uso de IA que estejam alinhadas com valores e princípios sociais, como transparência, responsabilidade, privacidade e justiça.

Fomentar a transparência: as empresas e os desenvolvedores devem ser transparentes sobre seus sistemas de IA, incluindo como são projetados, treinados e testados.

Assegurar a privacidade: as empresas devem priorizar a proteção da privacidade do usuário, especialmente quando se trata de dados confidenciais, implementando protocolos de proteção de dados sólidos e fornecendo explicações claras sobre como os dados do usuário são coletados, armazenados e usados.

Priorizar a segurança: a segurança deve ser uma prioridade máxima no desenvolvimento de IA, e mecanismos devem ser implementados para evitar danos causados por sistemas de IA. Isso inclui o desenvolvimento de protocolos de teste robustos e a implementação de mecanismos à prova de falhas e de vulnerabilidade.

Promover a inovação: os governos devem fornecer fundos e recursos para apoiar a pesquisa e o desenvolvimento da IA, garantindo ao mesmo tempo que a inovação seja equilibrada com uma governança responsável.

Incentivar a participação e acessibilidade do público: Deve haver oportunidades para participação do público e no desenvolvimento e regulamentação da IA, para garantir que as necessidades e preocupações do público sejam consideradas. As empresas devem projetar seus sistemas de IA para serem acessíveis a todos os usuários, independentemente de suas habilidades físicas ou conhecimento técnico, fornecendo instruções claras e interfaces de usuário fáceis de entender e usar.

A IA pode ser uma ferramenta tanto para os atacantes quanto para os defensores. À medida que as tecnologias se tornam mais avançadas, elas podem ser usadas para criar ataques mais sofisticados e difíceis de serem detectados. Como a Check Point Research (CPR) mostrou em ocasiões anteriores, o ChatGPT está sendo usado atualmente para automatizar processos e também criar campanhas de phishing direcionadas ou até mesmo lançar ataques automatizados.

No entanto, ao contrário destes fatos, hoje a inteligência artificial e o machine learning são dois dos grandes pilares que ajudam a melhorar constantemente as capacidades de cibersegurança, alguns especialistas chegam mesmo a apontar que a próxima geração de defesa dependerá fortemente destas funcionalidades robóticas.

O grau de complexidade e dispersão dos sistemas com que as empresas trabalham atualmente faz com que os meios tradicionais e manuais de vigilância, supervisão e controle de riscos comecem a ser insuficientes. Razão pela qual podemos encontrar algumas ferramentas de segurança que fazem uso desses tipos de capacidades. É o caso da recém-lançada Check Point Infinity Spark, uma nova solução de prevenção de ameaças que oferece segurança baseada em IA e conectividade integrada.

Essa ferramenta oferece segurança de nível empresarial para toda a rede, e-mail, escritório, endpoints e dispositivos móveis. Com a melhor taxa de prevenção do setor, com 99,2% de eficácia, é capaz de proteger empresas contra ameaças avançadas como phishing, ransomware, roubo de credenciais e ataques de DNS.

“A corrida contra os cibercriminosos continua sendo uma das principais prioridades dos especialistas em segurança cibernética. Devemos nos manter atualizados para tentar lidar com todas as ameaças atuais e futuras”, afirma Eduardo Gonçalves, country manager da Check Point Software Brasil. “O Infinity Spark é um claro exemplo das possibilidades da inteligência artificial, apresentando uma robusta e acessível ferramenta capaz de oferecer segurança integral com total proteção às empresas e aos seus colaboradores, dentro e fora do escritório.”