Numa nota divulgada no site, a IGAS explica que esta auditoria pretende contribuir para o uso responsável da Inteligência Artificial (IA) no SNS, avaliando a estratégia de inteligência artificial nos serviços públicos de saúde e o investimento em formação e capacitação dos profissionais.
A política de gestão de dados utilizados pela inteligência artificial, a segurança da informação e robustez dos sistemas e o impacto da inteligência artificialsão outras áreas em foco nesta auditoria.
Na semana passada, o bastonário da Ordem dos Médicos, Carlos Cortes, avisou que a inteligência artificial não pode substituir um médico, alertando que ferramentas como o ChatGPT não estão habilitadas a fazer diagnósticos médicos.
O bastonário acrescentou que a IA deve ser encarada como uma ferramenta de apoio à decisão clínica e não como agente autónomo de diagnóstico.
Insistindo que as ferramentas de IA não estão habilitadas a fazer diagnósticos, Carlos Cortes lembrou que faltam “evidência científica robusta, mecanismos de validação rigorosos e, sobretudo, transparência algorítmica que permita aos médicos compreender e confiar nas decisões sugeridas”.
Nos casos de diagnósticos errados, o bastonário refere que as “consequências podem ser gravíssimas: atrasos no início de terapêuticas adequadas, agravamento de estados clínicos, exposição a tratamentos desnecessários ou inapropriados, sofrimento evitável e até perda de vidas humanas”, ao mesmo tempo que as ferramentas de IA não assumem responsabilidade moral.
O rmédico diz ainda que em Portugal não foram identificados casos em que o uso de IA tenha causado consequências clínicas relevantes, embora a ausência de casos não possa ser confundida com a ausência de risco.
Em declarações à Lusa, Carlos Cortes defendeu ainda a criação de uma agência nacional para a IA na área da saúde, como forma de prevenir diagnósticos errados e desinformação médica.