Inteligência Artificial na formação médica: existe risco de dependência?
Texto de Rozangela Wiszomirska – médica e profa. da Ufal
A Inteligência Artificial (IA) já faz parte do cotidiano: sugere filmes, organiza rotas e responde a perguntas em segundos. Na medicina, também vem transformando a forma como futuros médicos aprendem. Mas qual é, de fato, seu papel na formação médica? Ela substitui o raciocínio humano ou pode fortalecê-lo?
A formação médica tradicional se baseia em três pilares: conhecimento científico baseado em evidências, habilidades técnicas e competências, como o raciocínio clínico com empatia. O raciocínio clínico é a capacidade de ouvir o paciente, interpretar sinais e sintomas, formular hipóteses diagnósticas e decidir a melhor conduta. Trata-se de um processo complexo que envolve análise crítica, experiência prática e tomada de decisão diante de incertezas — além de sensibilidade humana.
O Conselho Federal de Medicina publicou a Resolução CFM nº 2.454/2026, publicado em 27 de fevereiro de 2026, estabelecendo diretrizes para o uso da IA na prática e na formação médica. A norma reforça que a tecnologia deve atuar como ferramenta auxiliar, jamais substituindo a autonomia e o julgamento clínico do profissional. Também deixa claro que a responsabilidade ética e legal permanece sendo do médico, mesmo quando há apoio de sistemas automatizados.
A IA oferece benefícios relevantes, como sistemas que analisam milhares de artigos científicos em segundos, sugerir diagnósticos prováveis a partir de sintomas e identificar padrões em exames de imagem com alta precisão. Na formação médica , os treinamentos por meio de simulações clínicas virtuais e o apoio à decisão baseado em diretrizes já são uma realidade. Além disso, plataformas inteligentes podem adaptar conteúdos às dificuldades individuais, promovendo aprendizado mais personalizado.
Entretanto, há riscos. Um dos principais é a dependência excessiva. Com respostas rápidas e aparentemente completas, existe o perigo de o médico — especialmente o estudante — passar a consultar a IA antes mesmo de estruturar seu próprio raciocínio, aceitando a informação sem análise crítica. Surge, assim, a chamada “terceirização do pensamento”, que pode enfraquecer a capacidade de formular hipóteses diagnósticas e tomar decisões fundamentadas.
A própria Resolução CFM destaca que o uso inadequado da IA pode comprometer a formação do juízo clínico e impactar a segurança do paciente. A medicina não é feita apenas de algoritmos. Além disso, sistemas de IA aprendem com dados humanos, que podem conter erros e vieses. Confiar automaticamente nessas respostas pode perpetuar falhas ou gerar condutas inadequadas.
Isso significa que os médicos irão se acomodar? O risco existe, sobretudo em ambientes marcados por alta pressão por produtividade e rapidez nas decisões. No entanto, a solução não é rejeitar a tecnologia, mas aprender a utilizá-la como instrumento de apoio, de forma crítica e responsável. A IA não deve ser usada como substituta do pensamento clínico.
Em síntese, a Inteligência Artificial pode ser grande aliada na formação e prática médica, ampliando o acesso à informação e apoiando decisões complexas. Mas é fundamental o desenvolvimento e treino do raciocínio clínico, desde a formação e durante toda prática clínica.
O coração da medicina continuará sendo humano: o raciocínio clínico, a responsabilidade ética e o cuidado centrado na pessoa.
** Este texto não reflete, necessariamente, a opinião do EXTRA



