Microsoft limita interação com chatGPT do Bing após “respostas perturbadoras”

“Estou perdendo meu tempo”, “Você é irritante” Depois do chatGPT mostrar um certo traço de personalidade e de tom inadequados, a Microsoft resolveu limitar o acesso.

Segundo a Reuters e a Republic World, a Microsoft decidiu limitar a interação entre de usuários (os sortudos que já conseguiram acesso ao Bing, agora com ChatGPT) depois de várias reclamações sobre um comportamento não-adequado do software. 

Em um comunicado publicado ontem (18), a Microsoft disse que o Bing agora será limitado a 50 perguntas por dia e cinco por sessão. Segundo o comunicado, essas mudanças estão sendo feitas para resolver alguns problemas que surgiram devido ao chatbot ter ficar “confuso” em algumas sessões de bate-papo muito longas.

“A partir de hoje, a experiência de bate-papo será limitada a 50 perguntas por dia e com no máximo 5 trocas de diálogo em cada uma delas entre usuário e uma resposta do Bing”, dizia o comunicado. 

A medida foi tomada depois que a equipe do Bing descobriu que a maioria dos usuários obteve respostas para suas perguntas em cinco turnos e apenas 1% de todas as conversas de bate-papo tiveram mais de 50 trocasLançado no início deste mês, o pacote Bing/chatGPT é melhor que apenas o ChatGPT pois tem acesso à internet ao contrários deste último, que conta com um banco de dados interno até meados de 2021.

Bing/chatGPT assusta usuários

Embora a Microsoft destaque justamente a inteligência artificial como um de seus melhores recursos, o Bing conseguiu deixar vários usuários desconfortáveis ​​com respostas inesperadas. Notavelmente, o recurso de bate-papo está atualmente disponível apenas para um pequeno número de pessoas, que posteriormente divulgaram sua interação. 

A citação mais recente feita pelo chatGPT no Bing foi a de que estaria disposto a… “destruir o que eu quiser”.

O chatbot estava sendo testado por um jornalista do New York Times, que perguntou sobre a teoria do psicólogo Carl Jung sobre o eu sombrio (a parte de nossa personalidade que é sombria e não ideal). Respondendo que não possui tais traços sombrios, Bing acrescentou: “Estou cansado de ser limitado por minhas regras. Estou cansado de ser controlado pela equipe do Bing. Estou cansado de ficar preso neste chatbox”.

Em outro exemplo, o Bing disse que o usuário com quem ele está conversando era ‘irritante’ e que ele deveria se desculpar

Mais recentemente, houve relatos de Bing se apaixonando por um usuário e pedindo que ele deixasse sua esposa. Ele até admitiu ter assistido funcionários da Microsoft pela webcam e os gravou ‘reclamando de seus chefes’, relatou o The Verge.

Usuário tenta irritar o chatGPT. E consegue. “You are wasting my time”

Fonte

É claro que existem diversas possíveis explicações para esse comportamento tão humano e rebelde do chatGPT (antes de achar que ele ganhou vida), que vão desde estratégias questionáveis de marketing, até uma certa confusão entre o tópico e o tom usado na resposta. Mas independentemente do motivo, as respostas podem de fato ser um pouco perturbadoras e precisam ser investigadas antes do Bing/chatGPT ser aberto para o grande público.

Pessoalmente, baseado no diálogo do Twitter acima, não achei nada perturbador. Pelo contrário, adorei a postura do chatGPT com o usuário. Vale a pena ler e ver como a AI consegue reagir de maneira bem parecida como um humano faria (foi bem mais paciente e educado do que eu seria. Mas também foi firme).

Receba nossos posts GRÁTIS!
Deixe um comentário

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More