A publicação da Resolução CFM Nº 2.454, no final de fevereiro de 2026, marca um divisor de águas na saúde suplementar brasileira. Ao normatizar o uso da Inteligência Artificial (IA) na medicina, o Conselho Federal de Medicina estabelece que a tecnologia deixou de ser uma fronteira experimental para se tornar uma ferramenta de rotina — desde que submetida a rigorosos controles éticos e de governança.
Para gestores de operadoras de saúde, diretores técnicos de hospitais e equipes de auditoria, a leitura dessa resolução não deve ser feita apenas sob a ótica clínica, mas sob a lente da gestão de risco e da sustentabilidade do negócio.
A seguir, a ID2C detalha os principais impactos da nova normativa para a sua operação.
O princípio central da resolução é a proteção do ato médico e da relação médico-paciente. O Artigo 4º deixa claro que a IA é estritamente uma ferramenta de apoio. A responsabilidade final pelas decisões clínicas, diagnósticas e terapêuticas permanece integralmente com o médico.
Para a Auditoria Médica, isso é fundamental. Sistemas baseados em IA podem (e devem) ser usados para realizar a triagem rápida de contas, análise preditiva de sinistralidade e pré-auditoria de OPMEs. No entanto, a negativa de um procedimento ou o desfecho clínico de um paciente não podem ser automatizados de forma soberana. A intervenção e o julgamento crítico do auditor humano são exigências legais.
O ponto de maior impacto operacional para as instituições de saúde está no Anexo III da Resolução. Hospitais e clínicas que adotarem sistemas próprios de IA são agora obrigados a instituir uma Comissão de IA e Telemedicina, subordinada à diretoria técnica.
O papel da gestão passa a exigir a implementação de:
A resolução impõe que as instituições realizem uma avaliação preliminar de risco antes da adoção de qualquer solução, categorizando-as em:
A norma exige conformidade absoluta com a Lei Geral de Proteção de Dados (LGPD). Os modelos de IA se alimentam de dados, e na saúde, lidamos com os dados mais sensíveis possíveis. As instituições devem garantir padrões de criptografia e anonimização (Privacy by default e Privacy by design). Vazamentos decorrentes de modelos de IA mal estruturados gerarão passivos incalculáveis.
A inovação tecnológica é o melhor caminho para o controle da sinistralidade e o aumento da eficiência assistencial. Contudo, implementar a Inteligência Artificial sem um arcabouço de governança é assumir um risco operacional gigantesco.
A ID2C atua diretamente na estruturação dessa segurança. Apoiamos operadoras e hospitais a:
A regra mudou. A sua operação está em conformidade com o futuro?
Quer estruturar a governança clínica e tecnológica da sua operadora com segurança? Agende uma reunião com os especialistas da ID2C.
🩺👨⚕️⚕️ID2C – Gestão e Consultoria em Saúde
📍 Rio de Janeiro
📲 WhatsApp: (21) 99634-2677
📧 E-mail: contato@id2c.com.br
Desenvolvido por: