Um grupo de investigadores internacionais conclui que o ChatGPT apresenta erros factuais, distorções cronológicas, omissões e até factos inventados, tais como batalhas inexistentes, documentários não realizados, datas incorretas e contradições, no que diz respeito a dados históricos. O estudo analisou mais de 3500 exemplos de conversação, em sete línguas, relativos à Guerra do Vietname, às guerras na Jugoslávia, às guerras coloniais envolvendo Portugal e ao conflito Israel-Palestina, tendo identificado “problemas sistemáticos, como conteúdo fabricado e distorções cronológicas”.
freepik
O grupo de 7 investigadores, de entre os quais o português Miguel Cardina (Centro de Estudos Socias da Universidade de Coimbra), sublinha que o Chat GPT fornece uma "História de dados", estando os enviesamentos associados à lingua dominante nos dados de terino, podendo influenciar a informação apresentada noutra língua. Os investigadores alertam que “cada ano que passa sem intervenção resulta num novo conjunto de estudantes cuja compreensão histórica pode incluir cada vez mais conteúdos fictícios gerados por estes sistemas”, uma vez que a utilização de IA pelos alunos é crescente.
Os investigadores apresentam três recomendações: (1) a criação de um grupo de trabalho para desenvolver orientações sobre o uso de IA no ensino básico e secundário; (2) a elaboração de recomendações claras pelas instituições de ensino superior sobre as potencialidades e riscos destas ferramentas; (3) e a alocação de financiamento público para investigação que permita ao sistema educativo enfrentar criticamente os desafios colocados pela IA. (adaptado daqui)
Na sala de aula, sabendo que os alunos recorrem a plataformas de IA para escarecer dúvidas e auxiliar no estudo, o papel do professores passa também pelo alerta para a possibilidade destas incorreções e enviesamentos, para a necessidade de cruzar diferentes fontes, contribuindo assim para desenvolvimento do espírito crítico dos seus alunos.
Sem comentários:
Enviar um comentário