Perícia Médica Federal e Inteligência Artificial: ministério cria laboratório de IA
O Ministério da Previdência Social (MPS) anunciou, por meio da Portaria MPS nº 135, de 26 de janeiro de 2026, publicada no Diário Oficial , a criação do Laboratório de Inovação em Inteligência Artificial (LAB‑IA/MPS). A portaria estabelece uma estrutura institucional para testar, pilotar, aprovar e medir tecnologias de IA na Previdência, com foco em governança e transparência.
Quem acompanha sabe que a escala do INSS é gigantesca: milhões de requerimentos, documentos, atendimentos, filas, revisões e auditorias. Por isso, a decisão de criar um laboratório formalizado para provas de conceito, prototipagem e pilotos controlados sinaliza que a IA entrará nos processos por um pipeline bem definido e não como experimentos isolados. A mesma portaria que institui o LAB‑IA/MPS vem acompanhada do Programa de Conscientização e Capacitação em Segurança da Informação (PREV‑SEG), criado pela Portaria MPS nº 133, que promove cultura de segurança e capacitação de servidores. Esse pacote mostra a aposta na digitalização com trilhos de segurança e governança.
Segundo a portaria, o LAB‑IA/MPS tem a missão de desenvolver, experimentar, avaliar e implementar soluções de IA com três finalidades principais: aperfeiçoar processos internos, melhorar a qualidade regulatória e aprimorar os serviços previdenciários ao cidadão. A norma já define o “como”: o laboratório atuará por meio de provas de conceito, prototipagem e pilotos controlados, garantindo que qualquer tecnologia seja testada em ambiente limitado antes de ser usada em produção.
Um dos pontos mais importantes do LAB‑IA é o coração regulatório, que abrange princípios como finalidade, necessidade, proporcionalidade, transparência, responsabilização, não discriminação, acessibilidade e segurança da informação. A portaria exige que os projetos de IA respeitem a proteção de dados, permitam supervisão humana significativa e ofereçam explicabilidade. Dados pessoais só podem ser tratados com base legal adequada, registro das operações, minimização e, quando possível, anonimização ou pseudonimização. Decisões automatizadas com efeitos relevantes precisam de revisão humana e direito à explicação, conforme exige a LGPD. Essas regras evitam que benefícios sejam negados por algoritmos opacos.
O Art. 13 da portaria estabelece vedações claras: é proibido usar dados pessoais fora da finalidade definida, adotar decisões automatizadas relevantes sem revisão humana e sem previsão legal, treinar modelos com dados pessoais sem base legal e avaliação de impacto, e implantar ferramentas sem controles de segurança e governança. Em outras palavras, o LAB‑IA/MPS não libera a IA para decidir tudo; ao contrário, ela só pode operar dentro de regras, rastros e controles.
Ao institucionalizar a IA com governança, o Ministério da Previdência Social envia um recado claro: haverá mais tecnologia nos processos, mas também mais exigência de controle, auditoria e responsabilidade. Para quem acompanha concursos e pretende ingressar na Perícia Médica Federal (PMF), o laboratório de inovação sinaliza que novas habilidades serão indispensáveis:
-
IA como apoio, não substituição: a portaria proíbe decisões automatizadas com efeitos relevantes sem revisão humana e sem base legal. Os peritos médicos continuarão centrais na avaliação, mesmo que algoritmos auxiliem na triagem e processamento.
-
Novas competências digitais: entre as competências do LAB‑IA estão identificar oportunidades, testar soluções e capacitar servidores. Isso indica que os profissionais precisarão entender os fundamentos de IA, os princípios da LGPD e as boas práticas de segurança da informação.
-
Foco em ética e transparência: os projetos de IA devem respeitar princípios de não discriminação, proteção de dados e explicabilidade.