Pesquisadores da Universidade da Califórnia (UC), em Berkeley, desenvolveram o PPI, uma alternativa para tornar as previsões e cálculos das IAs mais confiáveis. O estudo foi publicado na revista Science.
Promovendo agilidade no processamento de dados, otimizando varreduras em erros e até realizando predições de estruturas de proteínas e suas interações, as inteligências artificiais exercem papel fundamental na construção do conhecimento. Mas a utilização dessa tecnologia vem acompanhada de alguns percalços: a IA não é infalível e pode ser limitada.
Saiba um pouco mais sobre a história da inteligência artificial, seu impacto para o desenvolvimento da ciência e uma possível solução para resolver suas limitações.
Teseu e o labirinto
A primeira inteligência artificial foi desenvolvida por Claude Elwood Shannon, matemático e engenheiro eletrônico americano, conhecido como "pai da teoria da informação", em 1950. Seu experimento consistia em rato eletrônico que conseguia memorizar trajetos em um labirinto, encontrando a saída.
Em alusão o mito do Labirinto do Minotauro, Shannon batizou seu experimento de Teseu, herói grego que desbravou o desconhecido e matou o monstro. O termo Inteligência Artificial foi utilizado pela primeira vez em 1956 pelo matemático americano John McCarthy, na Dartmouth College.
No seu início o estudo da IA tinha um caráter quase alegórico em mostras de como as máquinas poderiam superar a inteligência humana, como no jogo de xadrez em 1997, contra o enxadrista mais famoso do mundo Garry Kasparov, onde a Deep Blue o venceu.
Mas se antes era uma curiosidade em feiras científicas, atualmente as inteligência artificial tomam um grande espaço em como desenvolvemos o conhecimento e testamos novas hipóteses. E isso pode ser um problema.
O viés da Inteligência Artificial
Engana-se quem acha que a IA é neutra. Toda inteligência artificial, independentemente de seu tipo de construção, pode ter um viés. Os dados com que alimentamos suas programação podem interferir em como ela processa as informações e nos devolve os resultados.
Quem já realizou pesquisas no ChatGPT, por exemplo, pode ter se deparado com informações um tanto quanto peculiares, erradas ou mesmo confusas. Neste quesito entra o alerta sobre o uso da inteligência artificial no desenvolvimento de ciências: a limitação nas respostas confiáveis.
O desenvolvimento de ciência é baseado na busca por novas informações e pela compreensão de fenômenos ainda inexplicados da natureza e da existência humana. É fácil classificar uma informação como incorreta se conhecemos a resposta certa, mas e se não sabemos nem qual é a pergunta, como separar o que é certo do que é errado?
As inteligências artificiais são excelentes em predizer e descrever fenômenos pontuais em determinadas áreas. Mas em relação ao agrupamento de dados e a análise estatísticas desses, ela pode gerar respostas pouco confiáveis.
Em busca de menorizar esse tipo de efeito no uso das IAs e proporcionar intervalos de confiança em predições dessa tecnologia, uma equipe de pesquisadores da UC, em Berkeley desenvolveram um método chamado de inferência baseada em predição (PPI).
O PPI entra como um "confrontador" de dados. Ele utiliza informações sobre as hipóteses em teste, conjunto de previsões de resultados e combina com uma pequena parcela de dados imparciais. Essa miscelânea gera um intervalo estatístico confiável, onde os pesquisadores podem confrontar dados e analisar se eles são plausíveis ou não.
Ultrapassar esse tipo de limitação da IA é essencial para que a o desenvolvimento do conhecimento seja realizado de forma mais generalista, com boas previsões das interações entre diversas campos da ciência.
Ciência à moda antiga?
A inteligência artificial sempre responderá ao que foi programada para fazer. Ela ainda não consegue generalizar e "pensar" em variáveis as quais não tenham sido exposta. A aprendizagem de máquina é muito eficaz, mas sua limitação está no mesmo patamar da limitação humana em corrigir seus erros.
Para a produção de ciência, os humanos ainda devem ser capazes de pensar criticamente sobre suas hipóteses e seus experimentos, para conseguir explicar a fidedignidade dos seus resultados. A IA é, e deve continuar sendo, uma ferramenta para o desenvolvimento da ciência, e não sua preditora.
A ciência é dependente de tecnologia e tem se beneficiado cada vez mais do uso de inteligência artificial para análise de amostras laboratoriais, cálculos de previsibilidade de desenvolvimento de doenças, entre outros.
Dificilmente voltaremos à era das pranchetas e dos cálculos feitos à mão. Por tanto, são imprescindíveis estudos como o da equipe da UC Berkeley, para o refinamento da IA, tornando-a mais confiável e consequentemente, melhorando a qualidade dos estudos onde são aplicadas.
Gostou do conteúdo e quer saber mais sobre os usos da inteligência artificial? Então, descubra quais setores já utilizam a inteligência artificial no dia a dia e para mais conteúdos de de ciência e tecnologia continue acompanhando o TecMundo.