Sim, Jason instruiu a AI, ele definiu as palavras que orientaram o sistema DALL-E a criar a imagem. Talvez até tenha feito algum retoque final em um programa de edição de imagens. Mas a criação não foi resultado da imaginação de Jason. Foi o resultado de um amálgama de imagens pré-treinadas pelas redes neurais do sistema DALL-E. Uma ilustração gerada assim por um software pode ser considerada arte? O fato é que a imagem gerada por DALL-E impactou os jurados a ponto de levar o prêmio do concurso.
O ChatGPT cria textos como respostas a perguntas feitas pelos usuários. Mas não são apenas respostas simples. O grau de maturidade da tecnologia e o volume de informações treinadas permitem que se mantenha uma conversa contextualizada com o sistema. Além disso, o ChatGPT pode gerar códigos de programação, criar poemas, responder e-mails, fazer roteiros de blogs e criar vários outros tipos de texto, inclusive escrever artigos.
Uma matéria do G1, de autoria de Luiza Tenente, fez um teste e publicou o resultado com o título ”Robô ’ChatGPT’ escreve redação do Enem em 50 segundos; saiba quanto ele tiraria na prova”. A autora solicitou ao ChatGPT para criar uma redação ao estilo do ENEM (Exame Nacional de Ensino Médio) sobre o tema ”Desafios para a valorização de comunidades e povos tradicionais no Brasil”.
O resultado foi avaliado, a pedido da reportagem, por duas professoras de redação, Marina Rocha e Flávia Consolato. A nota final da redação, escrita pelo ChatGPT, ficaria, segundo as especialistas, em 680 de um máximo de 1.000 pontos. A nota média dos candidatos do ENEM gira em torno de 588 pontos!
Em um outro exemplo, o economista Pedro Fernando Nery apresentou um texto parcialmente escrito pelo ChatGPT em sua coluna no Estadão e colocou o título ”Não escrevi esta coluna, foi uma inteligência artificial”. O artigo mostra como o conteúdo criado pelo ChatGPT pode facilmente ser confundido com textos criados por pessoas.
Há várias outras matérias em jornais, revistas especializadas e até vídeos no YouTube com esse mesmo teor. Um artigo do jornal britânico, The Guardian, anunciava em 2020: ”A robot wrote this entire article. Are you sacred yet, human?”. A autoria do artigo, publicado na coluna de opinião do jornal, tinha a assinatura: GPT-3.
A matéria do The Guardian exemplifica bem que, complementado o espanto e fascínio, assinalados pelo colunista Pedro Nery, a qualidade do conteúdo produzido pelo ChatGPT também assusta.
O temor decorre de duas incertezas que assombram quem se depara pela primeira vez com essa tecnologia. A primeira dúvida que surge se trata de como diferenciar um texto escrito por um mecanismo artificial do trabalho intelectual criado por um humano? Há diferenças? A IA tem criatividade, tem lógica, consegue se referir a um argumento contextualizado? Ou seriam esses atributos exclusivos de conteúdos produzidos por humanos?
A segunda questão, que parece ser uma decorrência lógica da primeira (mas não é): se não for possível diferenciar o conteúdo produzido por inteligência artificial do conteúdo produzido por pessoas, então, logo, por consequência, as pessoas serão substituídas pela IA? Não, necessariamente.

Plágio e outros perigos reais

Quando se pensa no uso do ChatGPT no ensino, a primeira reação é o temor do plágio. Se é possível produzir um texto, como uma redação do ENEM ou uma coluna de jornal, em alguns segundos com o ChatGPT, como será possível evitar que os alunos recorram a essa tecnologia para burlar os trabalhos escolares? O risco de plágio é real. Em Nova Iorque, nos Estados Unidos, as escolas públicas proibiram o uso do ChatGPT.
Além do plágio, há a suposição de que essas respostas automatizadas possam expor os alunos a textos com viés de sexismo, racismo e outras manifestações discriminatórias. Esse problema já foi observado em outros protótipos de conversação baseados em inteligência artificial. A equipe da OpenAI informa que mantém todo o cuidado para evitar esse tipo de conteúdo, mas que a tecnologia ainda é experimental e sujeita a erros, respostas incorretas e incongruentes.
Um risco que vai além do ensino está no potencial que esse tipo de serviço de conversação baseado em IA pode ter para o cibercrime. A tecnologia, ainda não disponível publicamente, anunciada pela Microsoft, chamada de VALL-E, apresenta um risco ainda maior. Esse sistema pode imitar uma voz humana, incluindo as entonações e emoções da fala, com uma amostra de apenas 3 segundos da fala original.

As oportunidades

Toda mudança tecnológica traz riscos, mas também oportunidades. O plágio acadêmico é um problema ao menos desde os tempos medievais. Enfrentar esse problema é um assunto urgente e merece uma reflexão a parte. Mas coibir um tipo específico de tecnologia nas escolas não vai reduzir o plágio. Assim como dar acesso à tecnologia não vai aumentar a cópia de trabalhos. Talvez o ChatGPT seja um problema para os donos de serviço online, encontrados aos montes na Internet, com milhões de trabalhos, TCC e teses prontas.