IA na Saúde — Regulação no Brasil: ANS, ANVISA e LGPD
Por Anderson Chipak · ALC Consultoria · Atualizado em abril de 2026
A saúde é um dos setores de maior risco regulatório para IA no Brasil. Ela combina dados pessoais sensíveis (LGPD art. 11), regulação setorial de produtos médicos (ANVISA), vigilância de planos (ANS) e o impacto direto do PL 2338 — que classificará sistemas de IA em diagnóstico, triagem e gestão de saúde como alto risco.
ANVISA — RDC 657 e softwares como dispositivo médico
A Resolução RDC 657/2022 da ANVISA regulamenta softwares que são dispositivos médicos (SaMD — Software as a Medical Device). IA usada para diagnóstico, prognóstico, triagem ou recomendação clínica se enquadra como SaMD e exige:
- Registro na ANVISA antes da comercialização
- Classificação de risco (Classe I a IV baseada no impacto clínico)
- Documentação técnica: dados de treinamento, validação clínica, desempenho do modelo
- Processo de pós-comercialização: monitoramento de eventos adversos e degradação de performance
Modelos de IA que apenas auxiliam o médico (sem tomar decisão) têm tratamento diferente de modelos que emitem laudos de forma autônoma. A linha divisória ainda está sendo consolidada pela ANVISA.
ANS — Planos de saúde e IA em autorizações
A ANS não publicou regulamento específico sobre IA, mas a Resolução Normativa 566/2022 sobre avaliação de tecnologias em saúde cria exigências indiretas. O uso de IA para negar autorizações de procedimentos (ex: pré-autorização por algoritmo) sem revisão humana documentada é uma área de altíssimo risco regulatório e de imagem.
LGPD — Dados sensíveis de saúde
Dados de saúde são dados pessoais sensíveis (LGPD art. 5º, II). O tratamento por IA exige base legal do art. 11 — mais restritiva que o art. 7º para dados comuns. As bases legais viáveis são: consentimento explícito do titular, tutela da saúde (por profissional de saúde ou entidade sanitária), ou pesquisa científica com anonimização.
Decisões automatizadas que afetam o acesso do paciente a tratamentos se enquadram diretamente no art. 20 da LGPD — com direito de revisão humana e explicabilidade obrigatória.
PL 2338 — Alto risco no setor de saúde
O texto aprovado no Senado classifica explicitamente como alto risco sistemas de IA usados em diagnóstico, prognóstico, triagem de pacientes e recomendação de tratamentos. As obrigações incluem AIA (Avaliação de Impacto Algorítmico), supervisão humana efetiva e registro no MCTI.
Checklist para healthtechs e hospitais
- Mapeamento de todos os sistemas de IA que afetam decisões clínicas ou acesso a tratamentos
- Verificação de necessidade de registro ANVISA (SaMD) para sistemas de diagnóstico
- Base legal LGPD art. 11 documentada para tratamento de dados de saúde
- Audit log das decisões automatizadas com retenção mínima de 20 anos (prazo de guarda de prontuário)
- Processo de revisão humana para negativas de autorização de procedimento
- Preparação para AIA do PL 2338 (sistemas de triagem e diagnóstico)
Auditoria de IA para o Setor de Saúde
A ALC audita sistemas de IA em saúde contra ANVISA RDC 657, LGPD e os requisitos do PL 2338. Parecer técnico documentado.
Ver alc.srv.br →