
Ao recolher informação e realizar tarefas que antes requeriam empenho humano, as aplicações de inteligência artificial podem minimizar o esforço de procura e geração de novo conhecimento e conduzir a um estado de “colapso do conhecimento” colectivo, avisam o prémio Nobel da Economia Daron Acemoglu e os seus colegas do MIT Dingwen Kong e Asuman Ozdaglar.
Num artigo disponibilizado online, os autores avançam com a hipótese de este fenómeno já estar a acontecer com a Wikipedia, bem como com os fóruns online onde programadores informáticos colocam e respondem a questões sobre código.
Citando estudos anteriores, dão como exemplo o fórum de programadores Stack Overflow, onde “há agora menos actividade, menos envolvimento humano com as perguntas, e possivelmente menos geração de novo conhecimento criado por programadores experientes a lidar com novas questões”. A geração de código tem sido uma das áreas em que a tecnologia de IA generativa tem encontrado mais usos: serve tanto para auxiliar profissionais, como para que pessoas com muito poucos conhecimentos técnicos possam criar sites, aplicações ou serviços.
Este padrão de menor actividade, referem, “parece ser semelhante ao da Wikipedia, onde há menos leitura e geração [de texto] em áreas em que o ChatGPT é um substituto eficaz.”
Na base da teoria está uma questão de motivação humana.
O artigo argumenta que tomar decisões implica dois tipos de informação: informação específica de contexto (sobre uma determinada tarefa profissional, ou sobre um problema concreto que a pessoa precisa de resolver) e informação geral que faz parte do conhecimento colectivo da humanidade. A principal motivação de um indivíduo é a aquisição de informação específica; mas deste processo resulta a criação de alguma informação que acaba por ser acrescentada ao conhecimento colectivo.
Um exemplo poderá ser o caso do programador informático que coloca uma questão num fórum online, que acaba por ser respondida por outros profissionais – o problema e as respectivas soluções ficam disponíveis para quem os queira consultar, além de que quem responde pode ter-se debruçado sobre um problema específico em que nunca tinha pensado. Outro caso será o do utilizador que procura algo na Wikipedia e acaba a acrescentar informação a uma página.
Com o recurso a ferramentas de inteligência artificial – incluindo os agentes de IA que são capazes de executar processos complexos que implicam várias tarefas, em vez de apenas irem respondendo a questões escritas pelo utilizador – reduz-se a motivação humana para a procura de conhecimento específico, uma vez que o problema é resolvido pela máquina. Isto significa que se reduz também a geração de conhecimento colectivo.
“Melhor conhecimento geral na sociedade é um complemento ao esforço de aprendizagem humano, enquanto melhores recomendações para contextos específicos são substitutos. Como a IA generativa fornece este tipo de informação específica de contexto, pode ser esse substituto e reduzir o esforço humano”, resumem os autores. “Mas então, à medida que o menor esforço humano reduz à construção geral de conhecimento, a IA (especialmente a IA de agentes) pode empurrar dinamicamente a sociedade para menos informação efectiva, e até levar a um estado estável de colapso de conhecimento”.
O trio de investigadores lembra que “os modelos de IA podem agora analisar e escrever texto sobre um leque impressionante de temas, ao nível de peritos humanos especializados, e podem analisar vastos conjuntos de dados para reconhecer padrões e encontrar informação útil e relevante”. Mas “o uso crescente das ferramentas de IA generativa também tem suscitado medos, por exemplo, sobre o quanto a dependência da IA vai afectar a cognição humana, o conhecimento e a criatividade”.
Observam que há duas visões sobre a questão. Numa delas, a IA é vista como um complemento do processo de aprendizagem; na outra, é um substituto. No primeiro caso, “expandir a IA fará com que os humanos ponham o seu esforço e atenção onde interessa e usem a informação da IA com eficácia crescente”. Mas, no caso da substituição, “IA cada vez melhor vai desencorajar o esforço humano – porque a informação mais relevante passa a ser servida aos humanos numa travessa.”
Acemoglu (co-autor do influente Porque Falham as Nações e, mais recentemente, de Poder e Progresso – A Nossa Luta Milenar pela Tecnologia e Prosperidade) já algumas vezes avisou para riscos relacionados com a tecnologia.
Em Maio de 2024, um ano e meio após o lançamento do ChatGPT, mostrou-se céptico sobre os eventuais ganhos económicos permitidos pela tecnologia, contrariando a ideia de enormes saltos de produtividade que tem ajudado a justificar os investimentos elevados no sector. Nessa altura, calculou que os ganhos de produtividade seriam muito inferiores a 0,1% anuais ao longo de uma década, e que os contributos para o PIB mundial não iriam além dos 1,56%, numa perspectiva mais optimista.
O argumento era o de que a proliferação da IA traria efeitos negativos, que em boa parte mitigariam os ganhos: “As novas tarefas criadas com IA podem aumentar significativamente a produtividade. Contudo, algumas das novas tarefas geradas por IA são manipulativas e podem ter um efeito social negativo, como os deepfakes, publicidade digital enganadora, redes sociais viciantes ou ataques informáticos maliciosos assentes em IA. Embora seja difícil pôr números nas tarefas novas boas e más, com base em investigação recente, sugiro que os efeitos negativos podem ser de monta.”
Disclaimer : This story is auto aggregated by a computer programme and has not been created or edited by DOWNTHENEWS. Publisher: feeds.feedburner.com






