Um brasileiro vem utilizando recursos de inteligência artificial para preservar a fauna do país. Gabriel Souto Ferrante, da Universidade de São Paulo (ICMC-USP), em São Carlos, criou um modelo de visão computacional que está sendo treinando para identificar, em tempo real, os mamíferos da fauna brasileira que mais são atropelados nas estradas.
O jovem de 25 anos criou então um banco de dados com milhares de imagens desses animais e treinou um modelo de IA para reconhecê-los em tempo real e, desta forma, alertar os motoristas sobre a presença dos animais nas pistas.
Segundo o Centro Brasileiro de Ecologia Rodoviária (CBEE), cerca de 475 milhões de animais vertebrados morrem nas estradas todos os anos – principalmente espécies menores, como capivaras, tatus e gambás.
Dentre as espécies identificadas com as que correm maior risco, o mestrando destacou cinco animais de médio e grande porte:
- Puma;
- Tamanduá-bandeira;
- Anta;
- Lobo-guará;
- Jaguarundi, uma espécie de gato selvagem.
Sua pesquisa colaborativa com o Instituto de Ciências Matemáticas e de Computação da USP foi publicada recentemente na revista Scientific Reports.
À AFP, Gabriel Souto disse que, para que o projeto se torne realidade, os cientistas precisariam de “apoio das empresas que administram as estradas”, incluindo acesso a câmeras de trânsito e dispositivos de “computação de ponta” – hardware que pode transmitir um aviso em tempo real aos motoristas, como alguns sistemas de navegação como o Waze fazem.
Também seria necessária a colaboração das concessionárias rodoviárias, “para retirar o animal ou capturá-lo”.
Por enquanto, a sinalização que alerta os motoristas para estarem atentos à travessia de animais tem pouca influência, disse ele à AFP, levando a uma redução média de apenas três por cento na velocidade.
Como funciona
Os pesquisadores criaram um banco de dados de mamíferos brasileiros com maior probabilidade de serem atropelados pelo trânsito, localizando e baixando da internet 1.823 fotografias de domínio público (sem proteção de direitos autorais).
Quando necessário, as imagens foram editadas para remover “ruídos” (variações aleatórias de cor, brilho, etc.) que pudessem dificultar a identificação das espécies, ou para auxiliar na identificação, incluindo uma diversidade de ângulos.
Os pesquisadores então testaram diferentes versões do YOLO (You Only Look Once), um algoritmo de visão computacional amplamente utilizado para detecção de objetos em tempo real, incluindo animais selvagens.
Uma de suas vantagens é a detecção em estágio único, o tipo mais adequado para identificação em tempo real de animais de grande porte, pois a velocidade é favorecida em detrimento da precisão. Outro fator que influenciou a escolha foi a possibilidade de rodar o sistema nos chamados dispositivos edge, como tablets e computadores portáteis com recursos relativamente limitados.
Vídeos de animais gravados pelos pesquisadores no Parque Ecológico de São Carlos foram utilizados para testar a eficiência do sistema. Atualizações futuras do banco de dados incluirão imagens de animais capturados por armadilhas fotográficas florestais e câmeras de beira de estrada.
Curiosamente, as versões mais antigas do YOLO eram melhores na detecção de animais. “Os modelos detectaram corretamente a espécie em 80% das imagens tiradas durante o dia com o animal aparecendo com clareza”, disse Ferrante em artigo.
Problemas típicos de visão computacional (como má detecção à noite, em tempo chuvoso ou quando o animal está parcialmente escondido) persistem e serão o foco de estudos futuros.
Novas imagens serão incluídas na base de dados e parcerias com operadores de estradas com portagem e governos municipais permitirão que o sistema seja testado em situações do mundo real, incluindo a integração com tecnologias existentes.