Por que a IA na saúde sem governança é um risco para pacientes e instituições em 2026?
Emir Vilalba Moreira (Head of Health da Semantix) fala sobre a importância das organizações de saúde terem lideranças capazes de equilibrar inovação, ética e segurança.
À medida que a tecnologia avança na saúde, cresce também um paradoxo de que nunca foi tão fácil adotar IA, e nunca foi tão perigoso fazê-lo sem controle. Profissionais já utilizam ferramentas generativas no dia a dia, muitas vezes fora dos sistemas institucionais, criando um cenário de shadow AIque expõe dados sensíveis e amplia riscos legais.
Governança deixou de ser um tema teórico. Hoje, a maioria das organizações ainda não possui frameworks claros para uso responsável de IA, monitoramento de modelos ou planos de resposta a incidentes. Isso é especialmente crítico em um setor onde decisões automatizadas podem afetar diretamente a vida das pessoas.
O risco não está apenas em falhas técnicas, mas em vieses algorítmicos, falta de transparência e violações de privacidade. Já houve casos em que sistemas de apoio clínico reproduziram desigualdades históricas ao priorizar determinados perfis de pessoas. Outros falharam ao explicar decisões automatizadas, comprometendo a confiança de médicos e pacientes.
É nesse contexto que o papel do Chief AI Officer (CAIO) se torna central. Cabe a ele estruturar políticas claras de uso de IA, garantir supervisão humana em decisões críticas e alinhar tecnologia às exigências regulatórias — como LGPD, HIPAA e normas emergentes de IA em saúde.
Segurança também ganha uma nova dimensão. Agentes de IA ampliam a superfície de ataque cibernético, exigindo controles específicos, como isolamento de ambientes, monitoramento contínuo e restrições de acesso. Ao mesmo tempo, privacidade precisa ser pensada desde o design dos projetos, evitando o uso excessivo ou indevido de dados pessoais.
Outro pilar essencial é a transparência. Pacientes e profissionais têm o direito de saber quando a IA está envolvida em diagnósticos, recomendações ou decisões administrativas. Curiosamente, experiências mostram que a comunicação clara sobre o uso de IA tende a aumentar — e não reduzir — a confiança, desde que haja opção de revisão humana.
Na América Latina, esse debate é ainda mais urgente. Enquanto profissionais já adotam IA de forma individual, poucas instituições possuem estratégias estruturadas. Isso cria riscos, mas também uma oportunidade: aprender com experiências globais e implementar IA de forma responsável desde o início, evitando erros já conhecidos.
A IA é irreversível na saúde. A diferença entre gerar valor ou criar problemas está na forma como ela é governada. Mais do que tecnologia, o setor precisa de liderança capaz de equilibrar inovação, ética e segurança. Sem isso, a promessa da IA pode rapidamente se transformar em um passivo difícil de administrar.
Emir Vilalba Moreira é Head of Health da Semantix, empresa brasileira especializada em dados e inteligência artificial. Executivo com mais de 20 anos de experiência nos setores de tecnologia e saúde, construiu sua trajetória em posições de liderança estratégica e comercial, incluindo passagens por grandes farmacêuticas multinacionais. Atua também como professor de MBA e palestrante, com foco em inovação, uso responsável de IA e transformação digital na saúde.