Vamos explorar essa possibilidade, mostrando uma conversa detalhada e
direta com o chatGPT. Nessa conversa, vamos abordar vários tópicos para
tentarmos demonstrar porque o chatGPT tem sido tão admirado e temido por
quem produz e trabalha com conteúdos intelectuais. Ao final, vamos
refletir sobre a questão: professores podem vir a ser substituídos por
um sistema de inteligência artificial como esse? Não, se não quisermos.
A novidade
Em 2022, a empresa
OpenAI tornou acessível ao público alguns de
seus produtos, entre os quais, o gerador de
imagens
DALL-E 2 e o sistema
de conversação
ChatGPT-3. A
OpenAI resulta de um empreendimento iniciado em 2015, entre outras
pessoas, por Elon Musk, o multibilionário dono da Tesla, da Space X e
agora do Twitter, e por Sam Altman, um cientista da computação
e investidor anjo (investe basicamente em startups), com participação em
vários negócios inovadores como Airbnb, Reddit e, entre outros, a
OpenAI.
O objetivo da empresa era criar uma inteligência artificial que pudesse
se comunicar de forma amigável e produzir conteúdo de qualidade. De
início, a OpenAI teve o apoio da Amazon e era um projeto sem fins
lucrativos. Em 2018, mudou seu perfil com a estratégia de comercializar
os produtos que estavam sendo desenvolvidos. Nesse mesmo ano, Elon Musk
saiu da companhia para se concentrar no desenvolvimento do seu próprio
projeto de inteligência artificial para os carros autônomos da Tesla. No
ano seguinte, a Microsoft tornou-se parceira da OpenAI e entrou com um
investimento de US$1 bilhão, com acesso aos recursos da infraestrutura
de computação do Azure.
Em 2020, a OpenAI lançou o GPT-3, um modelo de processamento de
linguagem natural (PNL) que utiliza recursos de aprendizagem de máquina.
A sigla GPT significa Generative Pre-trained Transformer (Transformador
Generativo Pre-treinado). O número três representa a terceira geração do
modelo. Grosso modo, essa sigla quer dizer que o sistema gera novas
sentenças a partir da probabilidade da ocorrência de determinadas
sequências de palavras previamente analisadas. Para encontrar a
probabilidade de gerar o texto com sequência correta de palavras para
uma dada pergunta, o modelo utiliza um conjunto enorme de textos que
compõe os zettabytes de informações disponíveis na Internet, que todos
nós alimentamos diariamente.
No ano de 2022, a OpenAI colocou à disposição do público um novo formato
de seu mecanismo de IA e chamou de ChatGPT-3. A Microsoft anunciou, em
2023, seu interesse em adquirir a tecnologia e incluí-la em produtos
como o buscador Bing e o pacote Office 365 (Word, Powerpoint, Excel),
além de outros usos. Várias outras empresas estão desenvolvendo produtos
similares e muito provavelmente, em breve, essa tecnologia estará
incorporada em vários serviços utilizados pelo público e por empresas. O
ChatGPT, inclusive, foi pautado como tema
no
Fórum
Econômico Mundial, em Davos, em 2023.
Por que o burburinho?
Inteligência artificial e aprendizagem de máquina não são tecnologias
novas. Os primeiros experimentos computacionais nessas áreas datam dos
anos 50 do século XX. Atualmente, já convivemos, sem nos darmos conta,
com várias decisões realizadas automaticamente por sistemas baseados em
IA, em áreas tão diversas como comércio, indústria, finanças, governos,
serviços públicos em geral. Mas, o GPT apresenta um nível de resultado
bem superior a tudo que se produziu, até o momento, nesse campo de
processamento de linguagem natural.
Para uma comparação inicial, o GPT não é um sistema de busca como o
Google que, uma vez feita uma consulta, o mecanismo vasculha a internet
em busca dos resultados que contém, em várias partes da página de texto,
as palavras buscadas.
Um sistema como o GPT, assim como os assistentes virtuais Cortana, Alexa
e Siri, decompõe a pergunta em unidades linguísticas, para simular uma
”compreensão” do que se está solicitando como resposta. Por isso, se
trata de um modelo de processamento de linguagem natural, um campo
científico complexo, que une a linguística e a ciência da computação.
A partir desse ”entendimento” do conteúdo da frase inicial, o modelo
busca os resultados mais satisfatórios para a pergunta em sua base de
informações textuais. Encontradas as informações com mais alta
probabilidade de satisfazerem a pergunta, o modelo compõe a resposta
utilizando o mecanismo de processamento de linguagem natural e gera um
novo texto de saída. Assim, o texto criado pelo GPT não é uma cópia de
um texto da Internet simplesmente, ou uma resposta padrão (como muitos
dos assistentes virtuais). É um novo texto, criado a partir das
informações encontradas em seu corpus.
Os termos ”compreensão” e ”entendimento” estão entre aspas porque se
trata de um sistema computacional. Como escreveu Hobbes, na introdução
do ”O Leviatã” (em 1651), um mecanismo com molas e partes mecânicas,
como um relógio, mesmo que funcione de forma autônoma, não tem vida.
Podemos dizer que o mesmo vale para os sistemas robóticos e
computacionais, ao menos até esse momento.