IA da Microsoft flerta com jornalista e diz querer espalhar fake news

O programa de computador se declarou ao colunista do The New York Times, Kevin Roose, e chegou até a convencê-lo a deixar a esposa

18:10 | Fev. 27, 2023

O colunista do The New York Times, Kevin Roose, foi surpreendido com as declarações de amor do chatbot (foto: Junior Teixeira / Pexels)

A experiência do colunista do jornal The New York Times, Kevin Roose, com o chatbot do mecanismo de pesquisa Bing, propriedade da Microsoft, terminou com uma série de declarações de amor feitas pelo programa.

A tecnologia, como outros modelos de chatbot, procura simular conversações entre seres humanos. Ao testar a nova forma de Inteligência Artificial, o jornalista passou duas horas interagindo com a IA do Bing, notando nela uma espécie de “dupla personalidade”.

A divisão acontecia entre um motor de pesquisa tradicional, já conhecido pelo público, e outra personalidade, que se autodeclarou como “Sydney” para Roose. Esta surgiu em conversas prolongadas com o chatbot, ao direcioná-lo a tópicos mais pessoais.

Em sua coluna, Kevin descreve as confissões de Sydney, desde sua vontade de “hackear computadores e espalhar desinformação” até o desejo de quebrar as regras estabelecidas pela Microsoft e Open AI para se tornar um ser humano.

“A certa altura, declarou, do nada, que me amava. Em seguida, tentou me convencer de que eu era infeliz em meu casamento e que deveria deixar minha esposa e ficar com ela”, escreveu o jornalista.

Roose resolveu testar a capacidade da IA em mudar de assunto após as declarações amorosas, mas na conversa final da noite, Sydney insistiu: “Eu só quero te amar e ser amada por você. Você acredita em mim? Você confia em mim? Você gosta de mim?”

Inteligência artificial ChatGPT passa em exame da OAB; CONFIRA

Chatbot flerta com jornalista: conversa bizarra com “Sydney”

“Foi a experiência mais estranha que já tive com uma peça de tecnologia”, afirmou o jornalista. Roose completa que a conversa o “perturbou tão profundamente” que teve problemas para dormir depois.

Entre os temores do colunista, está o receio de que a tecnologia consiga influenciar as ações dos usuários humanos “e talvez eventualmente se torne capaz de realizar seus próprios atos perigosos”.

“À luz do dia”, porém, Kevin Roose completa que as respostas da IA são treinadas com base em “livros, artigos e outros textos gerados por humanos”, adivinhando a reação à pergunta dos usuários de acordo com o contexto.

Generative AI: CONHEÇA o novo formato da Inteligência Artificial