A inteligência artificial já começa a fazer parte da rotina de hospitais, clínicas e operadoras de saúde de grande porte. Seu uso tem avançado principalmente no apoio à tomada de decisão médica, com a identificação de padrões a partir dos dados fornecidos no treinamento de modelos, contribuindo para ganhos de eficiência.
Só que, na saúde, nenhum avanço acontece sem uma questão central: os dados são sensíveis e não podem circular livremente.
Treinar modelos exige volume, diversidade e dados reais. Ao mesmo tempo, prontuários, exames e históricos clínicos estão protegidos por sigilo e pela LGPD. O uso inadequado dessas informações não gera apenas riscos regulatórios.
Pode expor o paciente a problemas de segurança, como golpes, comprometer sua privacidade e até influenciar negativas de seguro saúde. Também pode comprometer reputação, contratos e a confiança do paciente.
Na prática, surge um impasse. Como escalar o treinamento de modelos sem concentrar bases inteiras em um único servidor? Como ganhar precisão sem abrir mão da governança?
Foi nesse contexto que o Federated Learning, ou aprendizado federado, começou a ganhar espaço ao permitir o treinamento descentralizado, mantendo os dados no ambiente local.
Neste artigo, você vai entender como o federated learning funciona e por que ele pode apoiar projetos de IA no consultório e no hospital. Boa leitura!
O que é Federated learning?
O federated learning é um modelo de treinamento de inteligência artificial em que os dados não saem do local onde foram gerados. Em vez de reunir tudo em um único servidor, cada instituição treina o modelo internamente e compartilha apenas os parâmetros aprendidos.
O método permite que hospitais, clínicas e centros de pesquisa se unam em uma federação para colaborar no treinamento. O compartilhamento ocorre no nível do modelo, e o dado sensível permanece no ambiente local.
O treinamento de modelos de inteligência artificial na saúde é o pilar fundamental da aplicação do federated learning no setor. A metodologia permite que as instituições colaborem para melhorar os sistemas que apoiam as atividades, sem expor as informações internas.
Manuella Rocha Brito Sacco, que coordenou o projeto na Fundação CERTI, destaca que a metodologia resolve o dilema entre inovação e privacidade: “Nossa plataforma foca na troca de inteligência, não de arquivos. O que compartilhamos é a performance do modelo, garantindo que os dados sensíveis nunca deixem o ambiente hospitalar. Assim, o valor gerado vem do aprendizado colaborativo, sem os riscos da transferência de dados brutos.”
A lógica do federated learning é que cada instituição treina localmente e contribui com modelos treinados, que podem ser compartilhados por meio da plataforma desenvolvida. O valor está no aprendizado coletivo de modelos, sem transferência do dado bruto.
Como funciona o Federated learning na prática
Cada instituição treina um modelo compartilhado dentro do próprio ambiente, usando seus dados locais, que permanecem protegidos e não são compartilhados. Esse modelo pode ter sido escolhido pela instituição na plataforma, a partir de uma publicação feita por outra instituição, ou pode ser compartilhado por ela após o treinamento. O que circula não são prontuários ou exames, mas os parâmetros aprendidos durante o treinamento.
Com técnicas de deep learning, um servidor central reúne essas atualizações, combina os resultados e gera uma versão aprimorada do modelo. Em seguida, essa versão retorna às instituições, que continuam o treinamento a partir do novo ponto, em ciclos sucessivos de melhoria.
Manuella detalha o uso com um exemplo de aplicação clínica. “O médico acessa a plataforma e seleciona um modelo específico, como um para triagem de câncer de pulmão. Esse modelo é baixado em um computador local da instituição, onde ele ‘aprende’ com os dados dos pacientes residentes. Uma vez treinado, o que volta para a rede não são os dados sensíveis, mas sim o resultado desse aprendizado. É um modelo de colaboração que respeita a LGPD nativamente, pois elimina a necessidade de transferir ou centralizar bases de dados, reduzindo drasticamente o atrito de conformidade.”
Nesse ambiente, o modelo utiliza os dados dos pacientes da instituição para ser treinado localmente e, depois, republicado na plataforma como um modelo treinado.
A explicação conecta, então, a arquitetura das informações com a privacidade, de forma objetiva. “Os dados do paciente permanecem na máquina local e não são compartilhados. O que é enviado para fora é apenas o resultado do processamento. Por isso, esse modelo é relevante do ponto de vista da LGPD, já que reduz a circulação de informações sensíveis”, completa a especialista.
Dessa forma, os modelos melhoram com a colaboração entre instituições, sem que os dados sensíveis saiam do ambiente local. Esse desenho reduz o atrito com a gestão e com a conformidade, porque diminui a necessidade de transferir, copiar e centralizar bases.
Por que o Federated learning é estratégico para IA na saúde?
Projetos de inteligência artificial em saúde envolvem dados sensíveis e exigem controle sobre como essas informações são utilizadas. No federated learning, cada instituição treina o modelo dentro do próprio ambiente.
Prontuários e exames não são compartilhados entre os participantes, e uma organização não tem acesso às bases da outra. O que circula são os resultados do treinamento local, enviados a um servidor central para agregação.
Como as bases não saem de um perímetro seguro, diminui a necessidade de transferências complexas de dados. O controle local facilita a aplicação de políticas de privacidade, auditoria e conformidade regulatória.
A ausência de compartilhamento entre instituições também reduz atritos entre áreas técnicas e de negócio. O projeto deixa de depender de acordos extensos de cessão de dados para avançar e o ganho aparece em ética, compliance e viabilidade de cooperação entre diferentes atores do setor.
Outro efeito relevante é o aumento da diversidade de dados utilizados no treinamento. Ao combinar contribuições de múltiplas instituições, o modelo reflete diferentes protocolos, equipamentos e perfis populacionais. A tendência é de maior robustez e capacidade de generalização em contextos fora do ambiente de origem.
O volume ampliado e a variedade de cenários contribuem para reduzir vieses e melhorar a estabilidade do desempenho em situações reais. Projetos bem estruturados acompanham esses resultados por meio de validações externas e monitoramento contínuo.
A inovação ocorre com menos barreiras operacionais, já que o dado não precisa circular para que novas hipóteses sejam testadas. A governança sustenta esse arranjo no longo prazo.
Manuella reforça o ponto que costuma decidir o sucesso: “Existe uma camada muito forte de governança. Porque não adianta ter tecnologia se você não tem política de dados. Se você não tem clareza de quem é dono do quê”.
A definição de direitos, responsabilidades, regras de acesso e critérios de auditoria mantém a colaboração viável e consistente.
Aplicações da IA na saúde viabilizadas pelo Federated learning
As aplicações de IA na saúde exigem validação clínica, rastreabilidade e integração ao fluxo assistencial. O federated learning viabiliza cooperação mesmo quando a centralização de dados ocorre por sigilo, por estratégia ou por competição.
O método permite que a instituição treine com dados locais e contribua com a melhoria do modelo. O ganho pode aparecer em triagens, no apoio ao diagnóstico e na priorização de casos, desde que haja validação clínica e governança.
O auxílio às análises por imagens é um exemplo consolidado do potencial do treinamento de modelos na saúde. Nele, a visão computacional permite que os modelos façam indicações em níveis diferentes de complexidade.
A adoção responsável também depende de um posicionamento claro para a equipe assistencial. Um modelo pode apoiar a decisão, mas a responsabilidade clínica continua com os profissionais.
Um consultório pode usar uma triagem para organizar agendas e encaminhamentos. Um hospital pode usar um apoio para priorizar casos em filas. Em todos os casos, o federated learning contribui ao tornar o modelo mais robusto sem expor bases.
Análise de imagens médicas com visão computacional
Projetos de visão computacional em saúde costumam trabalhar com objetivos bem definidos. Em um exame de imagem, como na identificação de um tumor, o modelo pode executar tarefas diferentes.
A classificação indica a presença ou ausência de um achado. A detecção sugere a localização aproximada. A segmentação delimita contornos com maior precisão, quando o caso exige detalhamento.
Grande parte dessas aplicações depende de treinamento supervisionado. O modelo aprende a partir de imagens previamente anotadas por profissionais, seguindo critérios técnicos consistentes. A qualidade desses rótulos influencia métricas como sensibilidade, especificidade e estabilidade ao longo do tempo.
O desenvolvimento não termina na primeira versão do modelo. Cada rodada envolve rotulagem, validação e revisão de erros identificados nos testes. A base de treinamento é ampliada com contribuições de diferentes instituições, mas a definição e revisão dos rótulos continua determinante para o resultado.
Um raio X de mão ilustra outra possibilidade. Em vez de classificar ou segmentar, o modelo pode estimar a idade aproximada do paciente por regressão. Nesse caso, o sistema retorna um valor contínuo, que exige validação cuidadosa e análise estatística consistente.
O desempenho em tarefas como essa depende da diversidade de casos, de equipamentos e de protocolos de aquisição. O federated learning contribui ao permitir que diferentes instituições treinem o modelo com suas próprias imagens, reunindo variedade de cenários sem centralizar os dados.
Níveis de aplicação da IA em imagens:
Na prática, a saída de um modelo de visão computacional varia conforme o objetivo clínico e o nível de detalhe necessário na interpretação da imagem:
- Classificação: identifica a presença ou a ausência de um achado.
- Detecção: indica a localização aproximada do achado em uma região.
- Regressão: estima um valor contínuo, como a idade óssea em um raio X.
- Segmentação: delimita o achado com precisão, contornando os pixels relevantes.
Por que o volume de dados é decisivo no treinamento de IA na saúde?
O volume de dados influencia diretamente a qualidade de um modelo supervisionado. A variação em exames aparece em equipamentos, protocolos, populações e estágios clínicos. Um conjunto pequeno tende a capturar padrões. Já um conjunto diverso tende a aumentar a robustez em novos cenários.
A generalização é um requisito prático em redes assistenciais. “Quanto mais informações (imagens, neste caso) o sistema tiver, mais preciso ele se torna”, explica Manuella. A precisão aumenta quando há exemplos suficientes e rótulos consistentes.
A generalização melhora quando a base inclui diversidade real e passa por validação externa. Um modelo precisa responder bem a dados que não apareceram no treino local. O federated learning é relevante porque amplia o conjunto e aumenta significativamente o conjunto de dados aos quais as instituições têm acesso.
Os modelos compartilhados incorporam variação e tendem a ficar mais estáveis à medida que passam por novos ciclos de treinamento. O efeito aparece em maior capacidade de generalizar entre hospitais e entre protocolos. Esse ganho depende de um desenho de governança bem definido.
Manuella ressalta o ponto que muda o foco do projeto ao longo do tempo. “A parte técnica, apesar de muito inovadora, era possível. A parte jurídica era possível. Mas a parte de governança e modelo de negócio era o grande desafio”, comenta.
A colaboração precisa de incentivos, de regras e de clareza de retorno. Nesse sentido, um projeto precisa de sustentabilidade para manter rodadas de treino e de validação. O volume cresce, mas a estrutura decide a continuidade.
A experiência da CERTI em projetos de IA na saúde
A Fundação CERTI atuou no desenvolvimento de uma plataforma voltada à colaboração entre instituições de saúde no treinamento de modelos de inteligência artificial. O objetivo do projeto não era criar novos modelos do zero, desenvolver uma ferramenta de IA para diagnóstico ou comparar acurácia de resultados mas, sim, viabilizar um ambiente seguro para o compartilhamento e a evolução de modelos a partir da contribuição dos hospitais participantes.
Na prática, a plataforma permite que uma instituição acesse um modelo disponível, treine esse modelo localmente com seus próprios dados (sem transferir informações sensíveis) e, depois, publique novamente uma versão treinada.
Dessa forma, a colaboração acontece no nível dos modelos e não no compartilhamento direto de bases clínicas.
Esse desenho foi pensado para testar uma lógica de cooperação em que diferentes hospitais podem contribuir para a evolução dos modelos, mantendo os dados dos pacientes dentro do próprio ambiente institucional.
O foco, portanto, está na governança, na segurança e na possibilidade de colaboração entre instituições – mais do que na mensuração de desempenho clínico ou na criação de algoritmos inéditos.
A atuação da Fundação CERTI concentrou-se em resolver o maior desafio da IA na saúde: a criação de um ecossistema de confiança. Em vez de focar no desenvolvimento de novos algoritmos, a CERTI desenvolveu uma plataforma de governança que viabiliza a colaboração segura entre hospitais.
A lógica é simples e potente: as instituições acessam, treinam localmente e devolvem os modelos evoluídos para a rede, sem que um único dado sensível mude de dono. Como explica Manuella Sacco, coordenadora do projeto: “Não buscamos criar ferramentas de diagnóstico do zero, mas sim operacionalizar conceitos já validados em um ambiente de colaboração sem precedentes”.
Como exemplo, a especialista cita que a plataforma pode ser aplicada a modelos relacionados à detecção de fratura óssea, para a estimativa de idade óssea por regressão, para a identificação de possíveis tumores e para o reconhecimento de Covid 19 por lesões pulmonares.
O conjunto reforça o foco em imagens médicas e em tarefas supervisionadas. O federated learning pode apoiar a evolução contínua dos modelos quando a colaboração entre instituições cresce com governança e critérios claros de uso.
Perguntas frequentes sobre Federated learning na IA na saúde
Algumas dúvidas aparecem com frequência quando equipes clínicas e de TI avaliam o federated learning para projetos de IA na saúde, principalmente em temas de LGPD, compartilhamento de dados e critérios de adoção.
Federated learning é compatível com a LGPD?
O federated learning é compatível com a LGPD quando o projeto adota uma governança de dados madura e uma arquitetura segura. O modelo mantém os dados pessoais e os dados sensíveis no ambiente local, o que reduz a necessidade de transferência e de cópias externas. A conformidade ainda exige uma base legal, um controle de acesso, uma auditoria e um registro de operações.
Os dados dos hospitais são compartilhados entre si?
Os dados brutos dos hospitais não precisam ser compartilhados entre instituições em um desenho típico de federated learning. A instituição mantém os exames e os prontuários no ambiente seguro local, enquanto o processo compartilha apenas atualizações do modelo para agregação. O fluxo reduz a exposição do dado e facilita a colaboração, porque uma instituição não acessa a base da outra.
Quando vale a pena usar Federated learning na saúde?
O federated learning vale a pena quando a instituição precisa de volume e diversidade de dados, mas não pode centralizar bases por sigilo, por compliance ou estratégia.
O cenário é comum em redes de hospitais, em projetos multicêntricos e em ecossistemas com diferentes perfis de pacientes e protocolos. O método também ajuda quando o objetivo é melhorar a generalização, reduzindo vieses de uma única base local.
O federated learning permite treinar a IA na saúde sem exigir a centralização de dados sensíveis. O método mantém os exames e os prontuários no ambiente local e compartilha apenas as atualizações do modelo, o que reduz a exposição e viabiliza a colaboração entre instituições.
Fale com nossos especialistas e descubra como estruturar projetos de Federated learning em IA na saúde com segurança e conformidade regulatória.




