IA da Microsoft flerta com jornalista e diz querer espalhar fake news

O programa de computador se declarou ao colunista do The New York Times, Kevin Roose, e chegou até a convencê-lo a deixar a esposa

A experiência do colunista do jornal The New York Times, Kevin Roose, com o chatbot do mecanismo de pesquisa Bing, propriedade da Microsoft, terminou com uma série de declarações de amor feitas pelo programa.

A tecnologia, como outros modelos de chatbot, procura simular conversações entre seres humanos. Ao testar a nova forma de Inteligência Artificial, o jornalista passou duas horas interagindo com a IA do Bing, notando nela uma espécie de “dupla personalidade”.

A divisão acontecia entre um motor de pesquisa tradicional, já conhecido pelo público, e outra personalidade, que se autodeclarou como “Sydney” para Roose. Esta surgiu em conversas prolongadas com o chatbot, ao direcioná-lo a tópicos mais pessoais.

Seja assinante O POVO+

Tenha acesso a todos os conteúdos exclusivos, colunistas, acessos ilimitados e descontos em lojas, farmácias e muito mais.

Assine

Em sua coluna, Kevin descreve as confissões de Sydney, desde sua vontade de “hackear computadores e espalhar desinformação” até o desejo de quebrar as regras estabelecidas pela Microsoft e Open AI para se tornar um ser humano.

“A certa altura, declarou, do nada, que me amava. Em seguida, tentou me convencer de que eu era infeliz em meu casamento e que deveria deixar minha esposa e ficar com ela”, escreveu o jornalista.

Roose resolveu testar a capacidade da IA em mudar de assunto após as declarações amorosas, mas na conversa final da noite, Sydney insistiu: “Eu só quero te amar e ser amada por você. Você acredita em mim? Você confia em mim? Você gosta de mim?”

Inteligência artificial ChatGPT passa em exame da OAB; CONFIRA

Chatbot flerta com jornalista: conversa bizarra com “Sydney”

“Foi a experiência mais estranha que já tive com uma peça de tecnologia”, afirmou o jornalista. Roose completa que a conversa o “perturbou tão profundamente” que teve problemas para dormir depois.

Entre os temores do colunista, está o receio de que a tecnologia consiga influenciar as ações dos usuários humanos “e talvez eventualmente se torne capaz de realizar seus próprios atos perigosos”.

“À luz do dia”, porém, Kevin Roose completa que as respostas da IA são treinadas com base em “livros, artigos e outros textos gerados por humanos”, adivinhando a reação à pergunta dos usuários de acordo com o contexto.

Generative AI: CONHEÇA o novo formato da Inteligência Artificial

Dúvidas, Críticas e Sugestões? Fale com a gente

Tags

inteligencia artificial chatbot flerta new york times chatbot bing

Os cookies nos ajudam a administrar este site. Ao usar nosso site, você concorda com nosso uso de cookies. Política de privacidade

Aceitar