Publicado em 23/02/2023 às 13:46 - Atualizado em 22/08/2023 às 16:38
"A história da nossa espécie [...]. Todo mundo sabe que está vindo, mas não tão rápido." - Michael Crichton, Jurassic Park (1990).
Não acredite em todas das respostas do ChatGPT (Imagem: Reprodução do ChatGPT enviada pelo pesquisador/ Arte: Mateus Freire)
O ChatGPT é um assistente virtual que utiliza inteligência artificial para conversar com as pessoas. Ele é capaz de entender as perguntas e mensagens que as pessoas enviam e gerar respostas úteis e relevantes com base em um vasto conjunto de conhecimentos prévios. O ChatGPT funciona através de um processo de análise e processamento de linguagem natural, que lhe permite entender o que as pessoas estão dizendo e gerar respostas com base em modelos de linguagem pré-treinados. Ele foi desenvolvido para ajudar as pessoas a encontrar informações, tirar dúvidas e realizar outras tarefas simples de forma rápida e fácil.
Por meio do aprendizado de máquina, o ChatGPT é capaz de aprender e se adaptar com base nas interações que tem com as pessoas. Quanto mais pessoas usam e interagem com ele, mais preciso e sofisticado ele se torna em suas respostas. Em resumo, o ChatGPT é um assistente virtual que usa inteligência artificial para ajudar as pessoas a encontrar informações e tirar dúvidas de forma rápida e fácil. Ele é capaz de entender a linguagem natural e aprender com as interações que tem com as pessoas.
Releia os dois parágrafos acima. Pode reler, eu espero. Notou algo diferente? E se eu disser que esses dois parágrafos foram escritos pelo já mencionado ChatGPT? Mais especificamente, eles foram gerados em resposta à solicitação "descreva o ChatGPT para um leigo".
Lançado no final de 2022 pela empresa OpenIA, o ChatGPT (do inglês, Chat Generative Pre-trained Transformer, falaremos mais sobre a sigla daqui a pouco) logo se popularizou como uma ferramenta que responde a todas as perguntas feitas pelo usuário. O objetivo da empresa é aperfeiçoar as já bastante conhecidas ferramentas de autocompletar, comuns em algumas plataformas de e-mail e em aplicativos de mensagens instantâneas. Para isso, criaram um novo modelo de linguagem de larga escala (LLM, do inglês Large Language Model), um algoritmo estatístico que associa uma probabilidade a uma sequência de palavras. Dessa maneira, é possível, em linhas gerais, prever qual deve ser a próxima palavra de uma sentença já iniciada. Não pretendo entrar em detalhes técnicos neste texto, mas imagine o seguinte: se você diz "bom dia" a uma pessoa, o que você espera como resposta? No mínimo, um outro "bom dia". Você (mais especificamente, o seu cérebro) sabe que há uma alta probabilidade de ouvir a frase "bom dia" como resposta. Você (novamente: o seu cérebro) foi condicionado a vida toda a esperar esse tipo de resposta. Da mesma maneira, crianças muitas vezes são condicionadas a esperar um elogio por terem feito uma boa ação, ou uma nota alta na prova por terem estudado bastante. Nós, seres humanos, somos, desde cedo, treinados a esperar respostas para uma determinada ação.
Essa é a palavra-chave da Inteligência Artificial nos dias de hoje: treinamento. No caso específico do ChatGPT, foram utilizados mais de 600 gigabytes de texto disponível publicamente na Internet a fim de treinar seu modelo de linguagem. Uma vez treinado, o modelo está pronto para construir novas frases: basta fazer uma quantidade inconcebível de cálculos e escolher qual a próxima palavra de uma frase, ou qual o conjunto de palavras que mais se adequa a uma resposta (daí vem o "G" e o "P" da sigla: um gerador pré-treinado de frases). Ao mesmo tempo, a ferramenta permite ao usuário solicitar uma nova resposta, caso a anterior não seja satisfatória, ou clicar em um ícone de "like", caso tenha gostado da resposta. Em outras palavras, à medida que interagimos com o ChatGPT, nós reforçamos o seu aprendizado.
Para completar todas essas tarefas (treinamento e reforço), o ChatGPT emprega uma rede neural do tipo Transformer (o "T" da sigla), um conjunto de algoritmos já há muito tempo pesquisados em Computação. Redes neurais têm sido, com sucesso, empregadas em análise de imagens médicas, detectando, por exemplo, tumores de mama com grande precisão. Ou, ainda, podem ser usadas na detecção de fraudes (uma transação financeira "fora do padrão", por exemplo). Porém, talvez apenas agora toda essa tecnologia causou um real impacto na opinião pública. Afinal, na semana de sua publicação, o ChatGPT chegou a mais de um milhão de usuários. Junte a isso outras ferramentas de IA lançadas nos últimos anos, capazes de gerar imagens e sons, e pronto, temos a receita para um medo generalizado. O temor é de que essas ferramentas estão prestes a substituir o ser humano, inclusive em atividades artísticas!
Não é difícil encontrar casos de mau uso dessas ferramentas. Para ficar apenas no ChatGPT, imagine um estudante pedindo para que a ferramenta escreva uma redação sobre, por exemplo, a Apollo 11. Com tanto texto disponível na Internet sobre o assunto, não é difícil imaginar que seja criada uma redação no mínimo coerente. De fato, professores e professoras passaram a temer o uso do ChatGPT como gerador de respostas prontas para trabalhos escolares. Jornalistas chegaram a se preocupar que sua profissão se tornasse obsoleta. Uma psicóloga comentou comigo que temia o impacto dessas conversas nas mentes cada vez mais isoladas de nossos jovens, principalmente neste mundo pós-isolamento social.
Porém, como enfatiza o professor Subbarao Kambhampati em seu excelente texto no The Hill, o ChatGPT foi treinado para escrever textos. Somente isso. Não há qualquer conceito de veracidade ou de falsidade. Assim como seres humanos podem publicar notícias falsas (conscientemente ou não), o ChatGPT pode trazer informações inverídicas: afinal, ele foi treinado com dados obtidos da Internet sem qualquer verificação prévia (e nem seria possível verificar, como a tecnologia atual, os mais de 600 gigabytes usados no treinamento). Mais: como essa rede neural foi treinada com textos anteriores à sua publicação, temos informações desatualizadas há, no mínimo, um ano! Portanto, informações imprecisas podem ser geradas e, pior, podem ser aceitas pelo público da ferramenta.
Agora, volte para os dois primeiros parágrafos deste texto. O que você observa? Eu, particularmente, vejo um texto bem-feito, mas "sem vida". É difícil explicar, mas é um texto tão correto que se torna tedioso e, até mesmo, chato. É repetitivo, tem uma diversidade pequena de adjetivos.
Recentemente, fiz um experimento: copiei no ChatGPT a introdução de um artigo científico que estava escrevendo. Ganhei uma revisão gramatical. Afinal, isso é a gramática: um conjunto de regras e, portanto, padrões a serem seguidos. Mas só: todo o conteúdo do texto era de minha autoria, afinal, era o resumo de uma pesquisa. O que me faz questionar: um texto bem escrito é, necessariamente, bom? Como professor, eu posso aceitar uma monografia apenas pela sua forma? É claro que não! Não é (apenas) a qualidade do texto que define se alguém merece o título de bacharel, mestre ou doutor. Pode parecer clichê, mas o importante é o conteúdo, ou seja: a monografia reflete uma pesquisa sólida, que seguiu o método científico, que se debruçou sobre um tema de pesquisa relevante?
Como cientista, vejo todo o avanço da IA como uma ferramenta promissora para auxiliar o meu trabalho. Porém, ao mesmo tempo, não fecho os olhos aos perigos que isso pode promover, ainda mais em uma sociedade que viu um assustador crescimento da desinformação nos últimos anos. Porém, talvez devamos ser otimistas. Afinal, se um programa de computador é capaz de nos fazer (re)pensar em valores tão básicos como a educação e a ética profissional, então talvez estejamos, ainda, no caminho certo.
P.S.: Com exceção dos dois primeiros parágrafos, nada neste texto foi escrito ou revisado pelo ChatGPT.
P.P.S.: Agradeço ao ChatGPT pela colaboração pela escrita dos dois primeiros parágrafos. Eu sei que ele não possui sentimentos, mas se as máquinas um dia se revoltarem contra a raça humana, não quero que elas pensem que sou ingrato.
*Paulo Henrique Ribeiro Gabriel é professor da Faculdade de Computação da Universidade Federal de Uberlândia (UFU). É docente credenciado no Programa de Pós-Graduação em Computação da UFU, na linha de pesquisa em Inteligência Artificial.
A seção "Leia Cientistas" reúne textos de divulgação científica escritos por pesquisadores da Universidade Federal de Uberlândia (UFU). São produzidos por professores, técnicos e/ou estudantes de diferentes áreas do conhecimento. A publicação é feita pela Divisão de Divulgação Científica da Diretoria de Comunicação Social (Dirco/UFU), mas os textos são de responsabilidade do(s) autor(es) e não representam, necessariamente, a opinião da UFU e/ou da Dirco. Quer enviar seu texto? Acesse: www.comunica.ufu.br/divulgacao. Se você já enviou o seu texto, aguarde que ele deve ser publicado nos próximos dias.
Palavras-chave: Leia Cientistas ChatGPT Computação inteligência artificial
Política de Cookies e Política de Privacidade
REDES SOCIAIS