No início de 2024, o Conselho Federal de Medicina (CFM) surpreendeu positivamente o setor médico ao regulamentar, por meio da Resolução CFM nº 2.454/2026, o uso da inteligência artificial (IA) na prática médica no Brasil. A novidade chega em meio ao crescimento do uso dessas tecnologias, com diretrizes detalhadas sobre responsabilidades, limitações e a autonomia indispensável do profissional. Mas, afinal, o que muda na rotina dos médicos? E como garantir que o paciente permaneça sempre no centro das decisões?
Aqui na SegureMed, acompanhamos diariamente o avanço da IA e seus impactos na medicina. Nosso compromisso é compartilhar de forma clara o que realmente importa e como essas transformações impactam sua atuação e a responsabilidade civil do médico.
Panorama das novas diretrizes: o que diz o CFM?
O CFM salienta pontos que mudam a forma como a IA será utilizada na medicina brasileira, equilibrando inovação e segurança. A Resolução rege que:
- O uso de IA é permitido para apoio à decisão clínica, pesquisa, educação e gestão.
- Quem toma a decisão final sobre diagnóstico, tratamento e prognóstico é sempre o médico.
- O profissional pode recusar tecnologias que não tenham validação científica nem certificação regulatória.
- O histórico do uso da IA deve ser registrado cuidadosamente no prontuário do paciente.
- As atividades com IA estão categorizadas em níveis de risco: baixo, médio e alto.
Esses pontos, presentes na Resolução CFM nº 2.454/2026, mostram o quanto o tema tem sido debatido em fóruns, congressos e dentro do próprio departamento de IA do CFM, como visto no fortalecimento do departamento responsável pela área.
Registros obrigatórios: transparência no prontuário do paciente
De acordo com as novas normas, a utilização de qualquer tecnologia de IA deve ser claramente informada e documentada no prontuário do paciente. Isso detalha:
- Qual ferramenta foi utilizada
- Qual foi a finalidade (apoio diagnóstico, gestão etc.)
- Resultados encontrados ou avaliações propostas pela IA
- Decisão clínica adotada após análise do profissional
Essa exigência aumenta a transparência, protege o paciente e fortalece a segurança jurídica tanto para médicos quanto para instituições. Para quem atua com seguros de responsabilidade civil, como nós, da SegureMed, esse controle detalhado é indispensável para evitar dúvidas sobre a conduta médica em eventuais litígios.
A autonomia do médico está mantida?
A resolução do CFM determina que o médico permanece como o único responsável pela decisão final. Ou seja, a IA pode sugerir diagnósticos, propor tratamentos ou ajudar na triagem, mas cabe ao médico analisar, ponderar e decidir.
A inteligência artificial é uma aliada, não uma substituta da medicina.
Esse entendimento também ficou claro em debates recentes como o I Fórum sobre Inteligência Artificial na Medicina promovido pelo CFM. Especialistas reforçaram a necessidade de o médico sempre validar as informações da IA e garantir um olhar humano sobre cada dado apresentado pela máquina.
Classificação de risco: baixo, médio e alto
As atividades envolvendo IA estão agora organizadas em três categorias principais, cada uma com exemplos práticos:

Risco baixo: agilidade e automatização sem impacto direto clínico
Atividades de risco baixo envolvem tarefas administrativas ou de suporte sem impacto na saúde do paciente. São exemplos:
- Marcação e confirmação automática de consultas
- Gestão de filas e agendamento eletrônico
- Envio de lembretes para exames regulares
- Suporte a pesquisa acadêmica documental
Nestes casos, a participação do médico é indireta, e a IA atua apenas otimizando fluxos e reduzindo tempo de espera. É aqui que grande parte das aplicações vem ganhando espaço nos últimos anos, como mostramos em nosso artigo sobre como a inteligência artificial está transformando a saúde brasileira.
Risco médio: auxílio com supervisão direta
No risco médio, a IA auxilia em tarefas clínicas sob supervisão direta do médico. Exemplos incluem:
- Sugestão de diagnósticos baseada em protocolos reconhecidos
- Pré-análise de exames laboratoriais ou de imagens
- Recomendações de tratamentos ou medicações que precisam de validação do médico
Nessas situações, o médico precisa conferir as sugestões fornecidas e decidir, com base em sua experiência e conhecimento, o que será seguido. O registro desse processo também deve ser feito no prontuário, contemplando tanto a indicação da IA quanto a decisão final.
Nada substitui a análise crítica e a validação humana no cuidado médico.
Risco alto: uso proibido ou altamente restrito
Nas situações de risco alto, o uso de IA é restrito ou expressamente proibido. Isso ocorre sempre que:
- Há risco direto imediato à vida ou à integridade do paciente
- A decisão envolve aplicação de medicações, realização de procedimentos invasivos ou cirúrgicos
- Existe risco elevado de consequências graves caso a orientação da IA esteja incorreta
Por exemplo, não é permitido que a IA decida, sem intervenção médica, prescrever medicamentos, determinar doses de anestésicos ou realizar procedimentos invasivos. Apenas o médico, após avaliação criteriosa, pode tomar essas decisões.
Adoção da IA: cenário atual no Brasil
Os números mostram que o uso da IA já é realidade. Segundo resultados da pesquisa TIC Saúde 2024, 17% dos médicos brasileiros já empregam IA generativa na rotina, sendo as aplicações mais comuns:
- Suporte à pesquisa acadêmica (69%)
- Elaboração de laudos e relatórios médicos (54%)
No setor público, esse uso chega a 14%, enquanto no privado, atinge 20%. A adoção cresce mais rápido em hospitais de maior porte e em áreas administrativas. Entre os profissionais de enfermagem, o índice chega a 16%.
Supervisão médica: por que o olhar atento é indispensável?
O novo texto normativo é categórico: toda decisão relevante sobre diagnóstico, terapêutica ou prognóstico precisa passar pelo crivo do médico.

Esta supervisão tem benefícios diretos:
- Evita erros gerados por vieses ou falhas dos sistemas de IA
- Permite que fatores individuais do paciente sejam considerados
- Garante respaldo ético e jurídico à prática médica
- Reduz riscos de responsabilização civil ou processos ligados a falhas tecnológicas
Para SegureMed, que zela pela proteção dos profissionais da saúde, a supervisão ativa é um pilar tanto para segurança do paciente quanto para a defesa do médico em situações de erro médico ou litígios. Falhas na validação ou no acompanhamento da IA podem ser interpretadas como negligência, por isso recomendamos sempre a cautela alinhada às novas normas.
Exemplos práticos das novas regras em ação
- Uma clínica agenda consultas automaticamente por IA e envia lembretes aos pacientes. A atividade é de risco baixo, sem impacto direto na saúde.
- Um laboratório usa IA para pré-analisar hemogramas. O resultado da IA é revisado por um patologista que assina o laudo: risco médio, exige validação.
- Um software sugere ajuste de dose de insulina para um paciente de UTI. O sistema propõe, mas apenas o intensivista pode autorizar qualquer alteração: risco alto, decisão sempre médica.
No nosso artigo sobre o futuro da IA na medicina, trazemos outros exemplos e reflexões sobre os limites éticos e práticos dessas novas ferramentas no dia a dia.
Desafios e perspectivas: ética, segurança e formação
A regulamentação do CFM surge diante de debates intensos sobre ética médica, segurança do paciente e os limites do uso de algoritmos no cuidado à saúde. O XII Congresso Brasileiro de Direito Médico do CFM reuniu médicos e juristas para discutir riscos, oportunidades e os desafios regulatórios do tema.
Entre os principais desafios, destacam-se:
- Prevenção de vieses nos algoritmos de IA
- Transparência e rastreabilidade das decisões digitais
- Formação contínua dos profissionais sobre uso seguro das novas tecnologias
- Garantia de consentimento informado do paciente em usos sensíveis de IA
Temos acompanhado, inclusive, avanços da IA em outras frentes da medicina, como o rejuvenescimento celular e a redução de eventos críticos em hospitais. Para quem busca entender como diferentes países estão tratando o tema, sugerimos ler este guia sobre IA em saúde pelo mundo.
Qual é o papel da SegureMed nesse cenário?
Na SegureMed, apoiamos médicos e clínicas a se adaptarem a esse novo universo. Compartilhamos conhecimento sobre risco, proteção patrimonial e como boas práticas em IA impactam diretamente o seguro de responsabilidade civil médico.
A tendência é que profissionais bem informados, alinhados às normas, estejam não só mais protegidos de litígios como também agreguem valor à experiência do paciente e garantam maior longevidade na carreira.
Nossos especialistas orientam sobre como documentar procedimentos, analisar contratos e monitorar atualizações regulatórias, tornando o uso da IA mais transparente e seguro. Vai além da teoria, ajudamos a aplicar o que realmente funciona para segurança de médicos e pacientes.
Conclusão: informação e preparo são os melhores aliados!
O cenário da inteligência artificial na medicina está em plena transformação. O CFM deixa claro: médicos podem usar IA, mas precisam seguir regras, garantir a responsabilidade clínica e registrar cada passo.
A resolução entra em vigor em 180 dias. Por isso, nossa sugestão é investir agora na atualização do conhecimento, rever protocolos e buscar orientação com quem entende do assunto.
Aqui na SegureMed, seguimos próximos de você, trazendo orientações, novos conteúdos e ferramentas para tornar sua atuação cada vez mais segura. Siga nossas redes, leia nossos artigos e, se quiser conversar sobre gestão de risco e proteção na prática médica, fale com um especialista que conhece de verdade os desafios do seu dia a dia!
Perguntas frequentes sobre as novas regras de IA na medicina
O que são as novas regras do CFM?
As novas regras do CFM regulam o uso da inteligência artificial na medicina, detalhando que só é permitido empregar essas ferramentas como apoio (e nunca como substituto) ao julgamento clínico do médico. Elas classificam as aplicações de IA segundo o nível de risco, exigem registro completo no prontuário e mantêm o profissional como responsável por todas as decisões clínicas. A resolução autoriza o uso, mas ressalta a necessidade de validações científicas e regulatórias.
Como a IA pode ser usada na medicina?
A IA pode atuar em diferentes atividades, como agendamento de consultas, elaboração de relatórios, sugestão de diagnósticos e suporte em pesquisas. Contudo, apenas tarefas sem impacto clínico direto podem ser feitas pela IA sem supervisão; já nas atividades de risco médio e alto, o médico precisa sempre auditar, validar e decidir sobre os dados apresentados.
Quais limitações existem para IA em saúde?
As limitações principais envolvem a proibição do uso da IA para decisões críticas como aplicação de medicamentos, definição de doses ou realização de procedimentos invasivos sem intervenção médica. Também não é permitido usar sistemas sem validação científica ou certificação regulatória. A responsabilidade pelo acompanhamento e registro é sempre do médico.
Como profissionais devem aplicar IA conforme normas?
O profissional precisa: escolher ferramentas validadas, informar no prontuário cada uso da IA, detalhar resultados e decisões adotadas após análise crítica. O médico deve recusar qualquer solução não aprovada por órgãos como a Anvisa e supervisionar o uso sempre que houver impacto clínico.
As regras valem para todo o Brasil?
Sim. A Resolução CFM nº 2.454/2026 tem abrangência nacional e orienta todos os profissionais médicos que atuam no território brasileiro, tanto no setor público quanto no privado. A normativa define diretrizes uniformes e estabelece padrões alinhados à ética e à segurança do paciente em todo o país.