Identificar se um texto foi gerado por inteligência artificial é um desafio?
Na Universidade Federal de Minas Gerais (UFMG), o professor de Ciência da Computação, Adriano Machado, comemorou recentemente o Dia dos Namorados de forma inusitada. Para surpreender sua esposa, decidiu utilizar uma inteligência artificial, o ChatGPT, para ajudá-lo a escrever uma carta de amor mais poética. O resultado foi tão convincente que sua esposa, Maira, ficou encantada, embora tenha notado algo diferente.
Esse episódio pessoal levanta questões sobre a distinção entre conteúdo gerado por humanos e por IA. Segundo Machado, a evolução dos modelos de IA torna cada vez mais difícil diferenciar entre os dois. Apesar de existirem programas no mercado que prometem identificar com precisão, na prática essa distinção não é tão simples.
Para Machado, o foco principal não deve ser a origem do conteúdo, mas sim se os alunos estão realmente aprendendo. Ele destaca a importância de utilizar a IA de forma ética e transparente, principalmente no ambiente acadêmico. A discussão sobre o uso da IA nas universidades tem se intensificado, levando a instituições como a UFMG a estabelecer comissões para avaliar seu uso ético e implementar diretrizes claras.
A evolução dos modelos de linguagem, como o ChatGPT, tem levado a uma maior integração da IA em diversas áreas, o que pode impactar a forma como aprendemos e produzimos conteúdo. Educar uma geração de “nativos LLM” (que crescem utilizando IA) será um desafio, mas a integração da IA no currículo pode trazer benefícios se feita de forma cuidadosa e transparente.
O avanço da IA em textos é inevitável, e a distinção entre o que é humano e o que é artificial tende a se dissolver. A discussão sobre o uso ético da IA e a necessidade de adaptação da educação a essa nova realidade são temas cada vez mais relevantes no cenário acadêmico e profissional.