Pular para o conteúdo principal

Estudo identifica três tipos de plágios produzidos pelo ChatGPT

Estudos mostram como modelos de linguagem natural podem ser fonte de má conduta acadêmica e indicam formas de prevenir o problema

FABRÍCIO MARQUES | revista Pesquisa FAPESP
jornalista

Pesquisadores da Universidade do Estado da Pensilvânia (Penn State), nos Estados Unidos, investigaram até que ponto modelos de linguagem natural como o ChatGPT, que usam inteligência artificial para formular uma prosa realista e articulada em resposta a perguntas de usuários, conseguem gerar conteúdo que não se caracterize como plágio. Isso porque esses sistemas processam, memorizam e reproduzem informações preexistentes, baseadas em gigantescos volumes de dados disponíveis na internet, tais como livros, artigos científicos, páginas da Wikipédia e notícias.

O grupo analisou 210 mil textos gerados pelo programa GPT-2, da startup OpenAI, criadora do ChatGPT, em busca de indícios de três diferentes tipos de plágio: a transcrição literal, obtida copiando e colando trechos; a paráfrase, que troca palavras por sinônimos a fim de obter resultados ligeiramente diferentes; e o uso de uma ideia elaborada por outra pessoa sem mencionar sua autoria, mesmo que formulada de maneira diferente.

A conclusão do estudo foi de que todos os três tipos de cópia estão presentes. E, quanto maior é o conjunto de parâmetros usados para treinar os modelos, mais frequentemente a má conduta foi registrada.

 
A análise utilizou dois tipos de modelos — os pré-treinados, baseados em um amplo espectro de dados, e os de ajuste fino, aprimorados pela equipe da PennState a fim de concentrar e refinar a análise em um conjunto menor de documentos científicos e jurídicos, artigos acadêmicos relacionados à Covid-19 e solicitações de patentes. 

A escolha desse tipo de conteúdo não foi ocasional — nesses textos, a prática de plágio é considerada muito problemática e não costuma ser tolerada.

No material gerado pelos pré-treinados, a ocorrência mais prevalente foi de transcrições literais, enquanto nos de ajuste fino eram mais comuns paráfrases e apropriação de ideias sem referência à fonte. 

“Constatamos que o plágio aparece com diferentes sabores”, disse um dos autores do trabalho, Dongwon Lee, cientista da computação da Faculdade de Tecnologia e Ciências da Informação da Penn State, conforme o serviço de notícias Eurekalert.

Inteligência
artificial
eleva o
patamar
do plágio

O ChatGPT é um entre vários sistemas baseados em inteligência artificial e ganhou grande notoriedade porque foi disponibilizado para uso público. Desde novembro, já foi testado por mais de 100 milhões de pessoas e impressionou por sua capacidade de gerar textos coerentes que mimetizam a escrita dos seres humanos. Uma das polêmicas que levantou envolveu justamente a originalidade de suas respostas e o receio de que se transforme em uma fonte de má conduta acadêmica.

“As pessoas perseguem grandes modelos de linguagem porque, quanto maior um modelo fica, mais suas habilidades aumentam”, disse o autor principal do trabalho, Jooyoung Lee, estudante de doutorado na Faculdade de Ciências e Tecnologia da Informação da Penn State. 

Ferramentas de escrita de inteligência artificial conseguem criar respostas únicas e individualizadas a perguntas apresentadas por usuários, mesmo extraindo as informações de um banco de dados. Essa habilidade, contudo, não livra a ferramenta de ser uma fonte de plágio, mesmo em formatos mais difíceis de detectar. “Ensinamos os modelos a imitar a escrita humana, mas não os ensinamos a não plagiar”, afirmou Lee.

Várias ferramentas estão sendo desenvolvidas para detectar conteúdo gerado por softwares de inteligência artificial. A própria OpenAI desenvolveu um programa capaz de apontar textos feitos por robôs, (disponível em openai-openai-detector.hf.space/). Há outras do gênero na internet, como o Writer AI Content Detector (writer.com/ai-content-detector/) e o Content at Scale (contentatscale.ai/ai-content-detector/).

Como os sistemas de linguagem natural estão em desenvolvimento, também será necessário atualizar continuamente a tecnologia para rastrear sua produção.

Uma equipe da Escola de Engenharias e Ciências Aplicadas da mesma PennState mostrou ser possível treinar as pessoas para identificar esses textos, sem precisar depender exclusivamente de programas detectores. 

Apresentado em fevereiro em um congresso da Associação para o Avanço da Inteligência Artificial realizado em Washington, Estados Unidos, o estudo liderado pelo cientista da computação Chris Callison-Burch mostrou que essas ferramentas já são muito eficientes em produzir prosa fluente e seguir as regras gramaticais. “Mas eles cometem tipos distintos de erros que podemos aprender a identificar”, disse ao blog Penn Engineering Today o cientista da computação Liam Dugan, aluno de doutorado da Penn State e um dos autores do artigo.

> Com informação da Universidade do Estado da Pensilvânia.

• ChatGPT não estimula o pensamento crítico dos estudantes

• ChatGPT se recusa a gerar pedido de dízimo. É enganação, afirma

• O que o ChatGPT diz sobre o ateísmo no Brasil? Veja


Comentários

Post mais lidos nos últimos 7 dias

90 trechos da Bíblia que são exemplos de ódio e atrocidade

Veja 14 proibições das Testemunhas de Jeová a seus seguidores

'Sou a Teresa, fui pastora da Metodista e agora sou ateia'

Historiador católico critica Dawkins por usar o 'cristianismo cultural' para deter o Islã

Pereio defende a implosão do Cristo Redentor

Ateu, Dawkins aposta no cristianismo cultural contra avanço do Islã. É um equívoco

Música gravada pelo papa Francisco tem acordes de rock progressivo. Ouça

Comissão aprova projeto que torna a Bíblia patrimônio imaterial. Teocracia evangélica?

Misterioso cantor de trilha de novela é filho de Edir Macedo

Baleias e pinguins faziam parte da cultura de povos do litoral Sul há 4,2 mil anos