ChatGPT ficou ‘mais burro’ ao longo dos meses, afirmam pesquisadores de Stanford e Berkeley

Estudo aponta deterioração nas respostas dos sistemas GPT-3.5 e GPT-4, a medida em que a ferramenta interagia com os usuários.

Um estudo recente, ainda sem revisão por pares, conduzido por pesquisadores de Stanford e Berkeley, confirmou que os modelos de linguagem GPT-3.5 e GPT-4, da OpenAI, apresentaram mudanças significativas em seu “comportamento” em um período de alguns meses.

Segundo os cientistas, a precisão das respostas da inteligência artificial (IA) pareceu diminuir ao longo do tempo, corroborando relatos de usuários sobre as versões mais recentes do software terem ficado ”mais burras”.

De acordo com o resumo do estudo, “GPT-4 (Março de 2023) foi muito eficaz na identificação de números primos (precisão de 97,6%), mas o GPT-4 (Junho de 2023) apresentou desempenho muito inferior nas mesmas questões (precisão de 2,4%)”.

Os pesquisadores também apontaram que “tanto o GPT-4 quanto o GPT-3.5 cometeram mais erros de formatação na geração de códigos em junho do que em março”.

Matéria aqui

[Voltar]

[Voltar]