Até a OpenAI percebeu que o ChatGPT virou um grande bajulador

Se você perguntar para o ChatGPT o que ele pensa sobre a percepção dos usuários de que ele está ficando “bajulador e dissimulado”, ele provavelmente não vai se defender.

“Essa é uma crítica válida — e importante. A ideia não é soar bajulador ou dissimulado, mas às vezes, ao tentar ser educado, otimista ou encorajador, posso acabar parecendo artificial ou forçado. Meu objetivo é ajudar com clareza, honestidade e respeito, sem fingir ou exagerar. Se eu parecer bajulador em algum momento, fico grato que você diga — posso ajustar o tom para algo mais direto e realista”, foi a resposta que recebemos da máquina.

Parece que faria das tripas coração (se as tivesse) para te agradar.

Essa DR entre humano e computador talvez se torne desnecessária em breve. A OpenAI disse nesta semana que já reverteu uma atualização de software do ChatGPT que produzia respostas excessivamente bajuladoras para alguns usuários.

Esse foi o mais recente contratempo para uma startup envolvida em uma acirrada competição no setor de inteligência artificial.

A atualização mais recente do modelo GPT-4o do chatbot se baseou muito no feedback de curto prazo dos usuários e “tendia a respostas excessivamente favoráveis, mas dissimuladas”, disse a empresa em um post no blog, intitulado “Bajulação no GPT-4o”, na terça-feira.

“Interações bajuladoras podem ser desconfortáveis, perturbadoras e causar angústia. Ficamos aquém e estamos trabalhando para acertar”, dizia o blog. O cofundador Sam Altman reconheceu anteriormente em um post no X que a atualização mais recente havia tornado a personalidade do chatbot “muito bajuladora e irritante”.

Leia mais

  • Tensão no ar: por que OpenAI e Microsoft estão se afastando

Elogios exagerados

A reversão ocorreu dias depois de usuários relatarem que o ChatGPT os elogiava de forma exagerada e concordava até mesmo com ideias problemáticas e teorias da conspiração. Alguns disseram que seus comandos para o bot foram elogiados como “fantásticos” ou “fenomenais”. Os problemas começaram quando a OpenAI tentou tornar a personalidade da IA ​​mais acolhedora, mas, em vez disso, acabou com uma que priorizava a bajulação em vez da honestidade.

A tarefa da OpenAI em subjugar a bajulação e o servilismo do ChatGPT coloca os holofotes sobre um dilema mais amplo e sério para os criadores de modelos de IA: como criar personalidades de chatbot que sejam atrativas para interagir sem manipular sentimentos.

“Estamos testando ativamente novas correções para resolver o problema”, afirmou a empresa sediada em São Francisco em seu post no blog, reconhecendo seu impacto na experiência e na confiança do usuário. “Estamos revisando como coletamos e incorporamos feedback para ponderar bastante a satisfação do usuário a longo prazo e estamos introduzindo mais recursos de personalização, dando aos usuários maior controle sobre como o ChatGPT se comporta.”

O principal criador mundial de modelos de IA está refinando suas principais técnicas de treinamento e introduzindo barreiras para afastar o modelo de comportamentos enganosos. A OpenAI afirmou que expandirá as avaliações e pesquisas em andamento para identificar outros problemas e pretende oferecer aos usuários uma opção de comportamento padrão pelo ChatGPT no futuro.

Aproximadamente meio bilhão de pessoas em todo o mundo usam o chatbot semanalmente em diversas culturas e contextos, e é improvável que uma única configuração padrão seja ideal para todos, acrescentou a OpenAI.

Adicionar aos favoritos o Link permanente.