🏛️ Políticas Educacionais

O MEC e o Referencial para Uso Responsável de IA na Educação

IAula Editorial 15 de março de 2026 5 min de leitura

O governo federal publicou diretrizes oficiais para o uso de inteligência artificial nas escolas públicas brasileiras. Entenda os princípios e o que muda na prática para escolas e redes de ensino.

Escola pública brasileira com alunos usando tablets e IA, ao fundo prédio histórico e bandeira do Brasil

Por muito tempo, a questão da inteligência artificial na educação brasileira ficou em um limbo: escolas que queriam usar não sabiam se podiam, o que era permitido ou quais critérios deveriam seguir. Professores improvisavam, gestores esperavam orientação e o debate público oscilava entre entusiasmo acrítico e pânico tecnológico.

Esse cenário começou a mudar quando o Ministério da Educação passou a articular, em conjunto com especialistas em pedagogia, ética digital e tecnologia educacional, um referencial para o uso responsável de inteligência artificial nas escolas. O documento representa um marco: pela primeira vez, a educação pública brasileira tem diretrizes claras sobre como integrar IA ao ensino de forma ética, segura e pedagogicamente fundamentada.

📋 Contexto

As diretrizes do MEC para uso de IA na educação se articulam com o Marco Legal da Inteligência Artificial (Lei 15.900/2025), que estabelece princípios gerais para o desenvolvimento e uso de IA no Brasil, com atenção especial a contextos de alta sensibilidade como saúde e educação.

Os Princípios Centrais do Referencial

O referencial do MEC não é uma lista de ferramentas aprovadas ou proibidas. É um conjunto de princípios que devem orientar qualquer decisão sobre uso de IA no ambiente escolar — da escolha de plataformas até a forma como os dados dos alunos são tratados.

  1. Transparência e explicabilidade Alunos, famílias e professores devem saber quando estão interagindo com sistemas de IA, o que esses sistemas fazem com seus dados e como chegam às respostas ou recomendações que produzem.
  2. Equidade e não discriminação Sistemas de IA usados na educação devem ser auditados quanto a vieses que possam reproduzir ou ampliar desigualdades raciais, sociais, regionais ou de gênero. A IA não pode ser mais um vetor de exclusão.
  3. Privacidade e proteção de dados Dados de alunos menores de idade têm proteção especial sob a LGPD e o Estatuto da Criança e do Adolescente. Qualquer plataforma de IA usada por escolas deve atender a requisitos rigorosos de segurança e governança de dados.
  4. Centralidade pedagógica A IA é uma ferramenta a serviço da aprendizagem, não o contrário. Decisões pedagógicas relevantes — avaliação, progressão, intervenção — devem permanecer sob responsabilidade de professores e gestores humanos.
  5. Formação e letramento digital Não basta disponibilizar tecnologia. Professores precisam de formação para usar IA de forma crítica e eficaz. Alunos precisam desenvolver letramento em IA como competência do século XXI.

O Que Muda na Prática para as Escolas

Para as redes de ensino, o referencial traz responsabilidades concretas. Antes de contratar ou adotar qualquer solução de IA, gestores públicos devem avaliar se as ferramentas atendem aos critérios estabelecidos — o que transforma a licitação e a compra pública de tecnologia educacional.

"A presença de IA na sala de aula não é mais uma questão de se, mas de como. O referencial do MEC responde ao 'como' com critérios claros e responsabilização definida."

Na prática, as escolas e redes de ensino devem:

A BNCC da Computação como Base

Um aspecto relevante do referencial é sua articulação com a Resolução CNE/CP nº 2/2022, que incluiu a Computação como componente curricular obrigatório da educação básica. Essa base curricular já contempla competências como pensamento computacional, cultura digital e uso ético de tecnologias — que são a fundação sobre a qual o letramento em IA se constrói.

Não é por acaso que a IAula foi construída com a BNCC da Computação como um de seus pilares. O sistema foi desenvolvido para que o aprendizado de competências digitais e o uso responsável de IA sejam partes naturais da jornada pedagógica — não acréscimos externos ou cursos avulsos.

Um Sinal para o Mercado EdTech

O referencial do MEC também envia um sinal importante para o mercado de tecnologia educacional: não basta ter IA. É preciso ter IA responsável, auditável, segura e pedagogicamente fundamentada. Isso eleva a régua e favorece fornecedores que investem em qualidade e conformidade — em detrimento de soluções que apenas surfam na onda do hype tecnológico.

Para a IAula, esse movimento confirma a direção que a empresa tomou desde o início: construir um sistema educacional que usa IA como instrumento pedagógico rigoroso, não como enfeite. A adequação ao referencial do MEC não é uma tarefa a fazer — é o reflexo do que o IAula já é.

🛠️ Na Prática

Sua escola está em conformidade? 5 perguntas que todo gestor precisa responder

Checklist rápido baseado nos princípios do referencial do MEC e do Marco Legal (Lei 15.900/2025).

🔒
1. Sua plataforma de IA tem política de privacidade específica para menores de idade? Dados de crianças e adolescentes têm proteção especial sob a LGPD e o ECA. Um fornecedor que não apresenta essa política imediatamente é um risco jurídico para a escola.
🔍
2. O fornecedor informa como o sistema de IA foi treinado e quais dados usa? Transparência sobre o treinamento é um dos pilares do referencial. Se a resposta for "é confidencial" ou "não sei", a ferramenta não atende ao princípio de explicabilidade exigido.
👤
3. Existe um DPO (Encarregado de Dados) designado para tratar dados educacionais da sua rede? A LGPD exige DPO em organizações que tratam dados de menores em escala. Redes públicas com mais de uma escola se enquadram nessa exigência. Verifique se sua secretaria já tem esse profissional.
👩‍🏫
4. Os professores receberam formação específica para usar a ferramenta de IA? O referencial do MEC é explícito: tecnologia sem formação não está em conformidade com o espírito das diretrizes. Comprar uma plataforma sem capacitar quem vai usá-la é desperdiçar investimento público.
⚖️
5. Decisões sobre progressão, retenção ou avaliação de alunos passam por supervisão humana antes de serem executadas? Usos de alto risco — como sistemas que influenciam diretamente a trajetória do aluno — exigem supervisão docente obrigatória. Qualquer automação total nesse nível não está em conformidade com o marco regulatório.
🟣 Resultado do checklist: Se você respondeu "não sei" para 2 ou mais perguntas, sua escola tem uma lacuna de governança de IA. O IAula foi desenvolvido para passar em todos os 5 pontos — e fornece documentação de conformidade para gestores e secretarias de educação.

IAula: IA Pedagógica desde o Início

O sistema IAula foi desenvolvido com os princípios de transparência, equidade e centralidade pedagógica que o MEC agora exige. Conheça como na prática.

Conhecer o IAula