Pular para o conteúdo principal
Leia Cientistas

Um Nobel para a Computação

Aprendizado de máquina e redes neurais artificiais... o que significam?

Publicado em 03/12/2024 às 11:30 - Atualizado em 04/12/2024 às 17:26

Nos dias de hoje, mesmo um físico teórico precisa de conhecimentos aprofundados tanto em Física quanto em Computação. (Imagem: Freepik)

Sendo bem honesto, acho muito pouco provável que, neste ano de 2024, alguém tenha considerado o Prêmio Nobel de Física como algo previsível. Afinal, se olharmos apenas para os últimos 10 anos, o prêmio foi concedido cinco vezes a pesquisadores da área de Astrofísica. Com o telescópio espacial James Webb expandindo, quase semanalmente, os limites do conhecimento humano, seria uma aposta segura supor que algum pesquisador dessa área receberia o prêmio deste ano. Ou, talvez, o prêmio fosse para alguém da área de Física Quântica, ou da Física de Materiais — duas áreas que também são frequentemente lembradas pela Academia Real das Ciências da Suécia.

No entanto, o que nós vimos foi o reconhecimento dos trabalhos de dois pesquisadores da área de Computação. Ok, da área de Física Computacional, para que ninguém me chame de bairrista. John Joseph Hopfield e Geoffrey Everest Hinton foram laureados por suas “descobertas e invenções fundamentais que permitem o aprendizado de máquina com redes neurais artificiais.” Aprendizado de máquina e redes neurais artificiais... o que significam? Falando informalmente, o aprendizado de máquina (ou machine learning) é um ramo da inteligência artificial (IA) que ensina os computadores a identificar padrões e aprender a partir de dados. Em outras palavras, criamos programas que, a partir de diversos dados já existentes, “aprendem” a reconhecer padrões e, assim, auxiliam pessoas na tomada de decisão. Por exemplo, imagine uma base de dados contendo milhares de imagens médicas — de mamografia, por exemplo. Todas essas imagens já foram analisadas por especialistas humanos, que identificaram, em algumas, a presença de tumores. Um programa de computador é, então, criado para analisar essas mesmas imagens, identificando texturas, cores ou formas (chamamos essa fase de treinamento). Após analisar centenas de milhares de imagens, o programa passa a reconhecer padrões e aplicá-los na análise de novos exames. Como esses padrões podem ser até mesmo imperceptíveis para os olhos humanos, essa tecnologia tem potencial de tornar o diagnóstico mais preciso e eficiente, evitando intervenções cirúrgicas desnecessárias ou antecipando o início de um tratamento.

É claro que erros podem ocorrer. Dependendo da qualidade da imagem, até mesmo médicos experientes podem encontrar dificuldades em identificar a presença de um tumor, exigindo exames adicionais. É aí que entram as pesquisas em aprendizado de máquina. Cientistas em todo o mundo buscam criar ferramentas (ou, algoritmos) mais poderosas para auxiliar na tarefa de aprendizado. Entre as muitas ferramentas estudadas, estão as redes neurais artificiais. Como o nome sugere, as ANNs (do inglês: artificial neural networks) são projetadas como inspiração no cérebro humano, que possui diversas entidades simples (os neurônios) que, em conjunto, identificam e armazenam padrões.

Embora antigas, com os primeiros estudos datando da década de 1940, as ANNs permaneceram pouco exploradas por décadas. Seu poder de processamento era bastante limitado, principalmente quando comparado a outros algoritmos de aprendizado de máquina. Na década de 1980, John Hopfield trouxe um avanço significativo ao introduzir as chamadas redes de Hopfield, que incorporavam mecanismos de memória associativa. Essa abordagem permitiu que as redes armazenassem e recuperassem padrões, mesmo quando os dados de entrada estavam incompletos ou ruidosos, revolucionando o campo. Pouco depois, Geoffrey Hinton e Terry Sejnowski expandiram essas ideias ao formalizar a Máquina de Boltzmann. Esse modelo, uma evolução das redes de Hopfield, utilizava probabilidades para lidar com incertezas nos dados, permitindo a descoberta de padrões mais complexos e ocultos.

Todos esses avanços abriram caminho para o que hoje conhecemos como redes neurais profundas, ferramentas fundamentais para o aprendizado de máquina moderno. Atualmente, ferramentas como ChatGPT e Meta AI são amplamente conhecidas pelo público geral.

Se você leu este texto até agora, deve estar se perguntando: “Ok, mas... e a Física?”. Essa pergunta faz ainda mais sentido se pensarmos que Hinton sequer possui formação em Física — ele é, de fato, um cientista da Computação (Hopfield, porém, tem diplomas de físico e biólogo). Ora, nos dias de hoje, mesmo um físico teórico precisa de conhecimentos aprofundados tanto em Física quanto em Computação. Não são poucos os exemplos de ferramentas de IA (especificamente, ANNs) sendo usadas para simular buracos negros ou para solucionar equações diferenciais parciais, essenciais em áreas como Mecânica Quântica. Isso sem contar que há muita física (principalmente Física Estatística) nos trabalhos originais de Hopfield e Hinton.

Curiosamente, a própria Academia da Suécia parece ter se antecipado à polêmica e atribuiu, no dia seguinte, o Nobel de Química a três pesquisadores (David Baker, Demis Hassabis e John M. Jumper) que utilizam redes neurais na simulação de estruturas de proteínas. Tais pesquisas têm impacto significativo no desenvolvimento de novos fármacos e vacinas, além de permitir uma maior compreensão do funcionamento das células. Aliás, uma curiosidade: os neuropeptídios, responsáveis pela comunicação entre os neurônios, são exemplos de proteínas. Não deixa de ser poético pensar que as mesmas ANNs, criadas para mimetizar o funcionamento do cérebro, estejam sendo agora utilizadas para entender o real funcionamento desse mesmo cérebro.

Embora não tenha premiado diretamente uma descoberta na área da Física, a Academia Real das Ciências da Suécia honrou o testamento de Alfred Nobel, segundo o qual o prêmio deve ser entregue à “pessoa que fez a descoberta ou invenção mais importante no campo da física.” Redes neurais artificiais são uma invenção humana que, juntamente com diversos outros algoritmos de inteligência artificial, têm gerado avanços significativos nas mais diversas áreas do conhecimento. Porém, como toda criação humana, também estão sujeitas a erros: muitos já apontam os “delírios” do ChatGPT e do Meta AI nas respostas apresentadas. Com uma crescente corrida de empresas de todo o mundo, por um maior uso de IAs, é real a necessidade de um conhecimento mais aprofundado sobre essas tecnologias e sobre seu impacto na sociedade. E, se você achou esse último comentário um tanto alarmista, saiba que ele foi dito por um grande cientista: o vencedor do Prêmio Nobel de Física de 2024, John Hopfield.

 

Paulo Henrique Ribeiro Gabriel é doutor em Ciências de Computação e Matemática Computacional e docente da Faculdade de Computação da UFU.

A seção "Leia Cientistas" reúne textos de divulgação científica escritos por pesquisadores da Universidade Federal de Uberlândia (UFU). São produzidos por professores, técnicos e/ou estudantes de diferentes áreas do conhecimento. A publicação é feita pela Divisão de Divulgação Científica da Diretoria de Comunicação Social (Dirco/UFU), mas os textos são de responsabilidade do(s) autor(es) e não representam, necessariamente, a opinião da UFU e/ou da Dirco. Quer enviar seu texto? Acesse: www.comunica.ufu.br/divulgacao. Se você já enviou o seu texto, aguarde que ele deve ser publicado nos próximos dias.

 


Política de uso: A reprodução de textos, fotografias e outros conteúdos publicados pela Diretoria de Comunicação Social da Universidade Federal de Uberlândia (Dirco/UFU) é livre; porém, solicitamos que seja(m) citado(s) o(s) autor(es) e o Portal Comunica UFU.

 

Palavras-chave: Aprendizado de máquina Prêmio Nobel Física Computação

A11y