Governo estuda utilizar inteligência artificial no SUS, diz secretária
A secretária de Saúde Digital, Ana Estela Haddad, disse que o ministério pode implementar IA no Sistema Único de Saúde, sem dar detalhes
A Secretaria de Informação e Saúde Digital (Seidigi) do governo federal estuda usar inteligência artificial (IA) nem serviços do Sistema Único de Saúde, disse a secretária Ana Estela Haddad ao portal O Globo nesta segunda-feira (22).
"Estamos acompanhando a tramitação do PL de regulamentação da inteligência artificial e analisando os impactos e especificidades das suas aplicações na área da saúde", afirmou.
Resultados promissores na análise de dados clínicos e diagnóstico de doenças por meio de inteligência artificial em outros países motivaram a iniciativa. No entanto, a aplicação no SUS requer mais investimento em inovação tecnológica e a regulamentação do uso geral de IA no país.
As maiores atenções estão sobre a tramitação do projeto de lei 2338/2023, iniciativa do Senador Rodrigo Pacheco (PSD/MG), que tramita no Senado.
Um dos principais pontos do texto é a previsão de responsabilização do fornecedor ou operador do sistema de IA, na medida de sua participação em eventual dano causado. Além disso, o projeto estabelece normas gerais para o desenvolvimento, implementação e um uso mais responsável de sistemas de inteligência artificial no país.
A secretária Ana Estela Haddad não deu mais informações sobre datas ou quantidade de investimentos necessários para a implementação da tecnologia no SUS.
OMS teme erro médico com IA na saúde
A Organização Mundial da Saúde (OMS) lançou na última terça-feira (16) um comunicado que pede cautela no uso de inteligência artificial no setor de saúde. Na avaliação do órgão, a adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde.
No comunicado, a OMS listou as preocupações que a levaram a fazer o alerta:
- Os dados usados para treinar IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde;
- Os modelos com IA geram respostas que podem parecer confiáveis e plausíveis para um usuário final; no entanto, essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para respostas relacionadas à saúde;
- Os modelos de linguagem podem ser mal utilizados para gerar e disseminar desinformação altamente convincente, na forma de texto, áudio ou vídeo, tornando difícil para o público diferenciar conteúdos falsos de confiáveis.