Resolução CFM 2.454/26: Uso da Inteligência Artificial na Medicina

Inteligência artificial na medicina: entenda a Resolução CFM 2.454/26, responsabilidade médica e os impactos da LGPD na saúde. [...]
Artigo feito por:

Resolução CFM 2.454/26: Uso da Inteligência Artificial na Medicina

Inteligência artificial na medicina: entenda a Resolução CFM 2.454/26, responsabilidade médica e os impactos da LGPD na saúde.

Lista de conteúdo

Revolucione sua Gestão de Requisitos Legais

Cadastre-se e seja um de nossos colunistas

Entenda a Resolução CFM nº 2.454, de 11 de fevereiro de 2026, que disciplina o uso da inteligência artificial na medicina, representando um marco regulatório para a governança ética, técnica e jurídica da tecnologia no setor de saúde.

Neste artigo para o Portal ESG em Dia, analisamos os principais impactos da norma, seus reflexos na governança corporativa e os cuidados essenciais para clínicas, hospitais e empresas de tecnologia em saúde.

A Resolução CFM 2.454/26 trouxe o uso da inteligência artificial como ferramenta de apoio à decisão médica, deixando claro que jamais conta como substituta do médico.

A responsabilidade ética e legal permanece com o profissional, e seu uso deve respeitar princípios de segurança, transparência, rastreabilidade, e a observância especialmente da Lei Geral de Proteção de Dados Pessoais (LGPD).

A norma se alinha ao movimento global de governança algorítmica aplicada à saúde, reforçando a centralidade da autonomia médica e da proteção do paciente.

Um dos pontos mais relevantes da Resolução CFM 2.454/26 é a definição clara de responsabilidade profissional.

Mesmo com o uso de algoritmos, a decisão clínica final deve permanecer humana. A inteligência artificial na medicina pode sugerir diagnósticos, auxiliar na triagem ou apoiar condutas terapêuticas, mas não pode assumir o ato médico.

A inteligência artificial é uma aliada poderosa, mas não é agente moral, nem sujeito de responsabilidade. O médico continua sendo o protagonista do cuidado — e o paciente, o centro da decisão.

A utilização inteligência artificial na medicina envolve, em regra, o tratamento de dados pessoais sensíveis, especialmente dados de saúde, o que exige observância à Lei Geral de Proteção de Dados Pessoais.

A Resolução CFM nº 2.454/2026 reforça que:

  • O uso de dados deve ter base legal adequada;
  • Devem existir mecanismos de segurança da informação;
  • O paciente deve ser informado sobre o uso da IA;
  • A governança de dados deve ser documentada.

A adequação à LGPD é um ponto sensível e estratégico. O tratamento de dados de saúde exige bases legais específicas, medidas rigorosas de segurança da informação e governança clara sobre o uso, armazenamento e compartilhamento dessas informações.

A Resolução CFM 2.454/26 consolida a regulamentação da inteligência artificial na medicina no Brasil, equilibrando inovação e responsabilidade.

A incorporação da inteligência artificial à prática médica inaugura uma nova etapa na assistência à saúde — mais analítica, mais preditiva e potencialmente mais eficiente. No entanto, como deixa claro a regulamentação do Conselho Federal de Medicina, a tecnologia deve ser compreendida como instrumento de apoio, e jamais como substituta da atuação médica.

A decisão clínica continua sendo um ato humano, que envolve não apenas análise técnica, mas também sensibilidade, experiência, contexto e responsabilidade ética. Algoritmos podem processar grandes volumes de dados e identificar padrões complexos, mas não assumem deveres legais, não respondem eticamente por condutas e não estabelecem vínculo terapêutico com o paciente.

Além disso, o uso responsável da IA exige observância rigorosa à Lei Geral de Proteção de Dados Pessoais, reforçando que inovação e proteção de direitos fundamentais devem caminhar juntas. A confiança do paciente, elemento central da relação médico-paciente, depende da transparência, da segurança da informação e da governança adequada dos dados.

Assim, o verdadeiro avanço não está em substituir o médico pela máquina, mas em potencializar sua capacidade de decisão com ferramentas tecnológicas seguras, éticas e juridicamente estruturadas. A inteligência artificial, quando bem implementada, não reduz o protagonismo médico ao contrário, o fortalece.

Diante desse novo cenário regulatório, a Ius Natura pode apoiar clínicas, hospitais e empresas da área da saúde na estruturação de uma governança segura para o uso da inteligência artificial. Por meio de soluções especializadas em compliance regulatório, proteção de dados e gestão de riscos, a Ius auxilia na adequação à Lei Geral de Proteção de Dados (LGPD), na implementação de políticas de governança de dados, na estruturação de processos de segurança da informação e na definição de protocolos internos para o uso ético e responsável da IA na prática médica. Além disso, a empresa apoia organizações na interpretação e implementação de normas como a Resolução CFM nº 2.454/26, garantindo que o uso de tecnologias inovadoras esteja alinhado às exigências legais, à proteção dos dados sensíveis de pacientes e às melhores práticas de governança, fortalecendo a confiança institucional e a segurança jurídica das operações.

Gostou ou foi útil este conteúdo?

Bacharela em Direito pelo Centro Universitário Newton Paiva. Atua com destaque na gestão de requisitos legais aplicáveis a sistemas de gestão e certificações, com expertise em normas ISO (14001, 45001, 26000, 22000, 50001, 9001, 39001, 27001 e 37001) no setor de Inteligência em Requisitos Legais da Ius Natura.

Cadastre-se e faça parte do nosso time de colunistas!

BATE-PAPO

Diversidade, Equidade e Inclusão (DEI) nas organizações

18/03/2026 às 14h30

Especialistas com experiência

O que você vai aprender nessa live

Apresentaremos os principais conceitos de Diversidade, Equidade e Inclusão (DEI) e sua importância estratégica para as organizações. Você entenderá como os três pilares contribuem para ambientes de trabalho mais justos, inovadores e alinhados às práticas de ESG.