Os chatbots de inteligência artificial (IA) estão a fazer-nos escrever e pensar de forma igual. É o que defende um grupo de psicólogos e cientistas computacionais da Universidade do Sul da Califórnia (EUA) num artigo publicado esta quarta-feira na revista científica Trends in Cognitive Sciences.
Para evitar esta homogeneização da linguagem e do raciocínio, os especialistas acreditam que os programadores devem treinar estes grandes modelos de linguagem (LLM) – como o ChatGPT, o Claude ou o Gemini – com mais exemplos e mais diversidade da vida real.
Os investigadores consideram que a diversidade cognitiva na linguagem e na forma de argumentar é “vital” para a criatividade e resolução de problemas, além de ser um espelho da experiência pessoal e riqueza cultural de cada pessoa. Só que a utilização da mesma “mão-cheia” de chatbots por milhares de milhões de pessoas em todo o mundo pode estar a levar a uma redução desta diversidade cognitiva.
E dão um exemplo: uma pessoa que utilize um programa de inteligência artificial para melhorar o seu texto acaba por perder alguns traços próprios da sua escrita, havendo também o risco de sentir que o produto final não é verdadeiramente seu.
Outra das preocupações é que este novo padrão “redefina de forma subtil aquilo que se considera ser discurso credível, um ponto de vista correcto ou até o que é um bom raciocínio”, refere Zhivar Sourati, principal autor do artigo e cientista computacional na Universidade do Sul da Califórnia. Mesmo quem não use inteligência artificial pode acabar por ser influenciado por esta forma de falar, diz.
Além disso, como muitos modelos de IA vão sugerindo alterações e respostas subsequentes, o investigador acha que os utilizadores acabam por escolher opções que lhes pareçam ser suficientemente boas, em vez de tomarem as rédeas da conversa. Esta tomada de decisões vai assim passando “de forma gradual do utilizador para o modelo”, indica o investigador, citado em comunicado.
É também essa a percepção de muitos adultos norte-americanos: um inquérito do Pew Research Center feito no ano passado mostra que mais de metade dos inquiridos acreditam que a inteligência artificial fará com que os humanos sejam menos capazes de pensarem de forma criativa ou de criar laços com outras pessoas.
Havendo cada vez mais pessoas a utilizarem estes modelos de linguagem no seu dia-a-dia – tanto a nível profissional como pessoal –, os autores do artigo temem que haja uma uniformização do estilo de linguagem e das próprias ideias, sem espaço para vozes alternativas. O artigo faz uma síntese de outros estudos sobre o tema, abordando áreas diferentes como a linguística, a psicologia ou a ciência cognitiva que mostram que os LLM “reflectem e reforçam estilos dominantes”.
Os investigadores referem que a escrita da inteligência artificial tem menos variedade do que a escrita humana e que a maior parte destes modelos tende a reflectir a linguagem e valores dos países ocidentais, com mais escolaridade, industrializados, ricos e democráticos (os países WEIRD, na sigla em inglês). Assim, os seus resultados acabarão por representar também uma “pequena fatia da experiência humana”, aponta Zhivar Sourati.
“As pessoas são diferentes na forma como escrevem, raciocinam e vêem o mundo”, observa o autor. “Quando essas diferenças são mediadas pelos mesmos LLM, os seus estilos linguísticos, as suas perspectivas e estratégias de raciocínio distintivas tornam-se homogeneizados, produzindo expressões e pensamentos padrão entre os utilizadores”, refere o cientista em comunicado.
Como dizia a investigadora Helena Moniz ao PÚBLICO em Dezembro, a propósito do fenómeno AI slop, “somos seres únicos, mas tudo o que estamos a criar é mais do mesmo”. A utilização de ecrãs e inteligência artificial está a deixar os jovens agarrados aos ecrãs, com dificuldades nas suas relações sociais e a perder a riqueza vocabular, afirmava a professora que é presidente do Comité de Ética do Center for Responsible AI. “E é essa riqueza que nos faz compreender o mundo, discutir conceitos, conceptualizar a nossa vida em relação aos outros.”
Há outros estudos que têm alertado para os perigos da IA e para uma possível perda de pensamento crítico se houver uma utilização excessiva: um estudo do MIT alertava que usar o ChatGPT para escrever ensaios ou relatórios podia levar a um défice cognitivo e a uma “provável diminuição das capacidades de aprendizagem” – ainda que também houvesse críticas à forma como o estudo foi feito. Além disso, há outros estudos e relatórios que apontam vantagens à utilização moderada de inteligência artificial.
A forma como estes modelos de inteligência artificial são treinados faz também com que alguns preconceitos perdurem nas respostas que produzem. Uma análise divulgada em Outubro mostrava que os modelos de IA “aprendiam” com dados deturpados e acabavam por replicar preconceitos de género, como a ideia errada de que as mulheres são mais novas e menos experientes do que os homens em contextos profissionais – o que não bate certo com a realidade.
Disclaimer : This story is auto aggregated by a computer programme and has not been created or edited by DOWNTHENEWS. Publisher: feeds.feedburner.com







