Quando uma nova tecnologia surge, os governos em geral tomam um de dois caminhos: proibir enquanto não entendem, ou ignorar até perder o controle. O Brasil, ao enfrentar a ascensão da inteligência artificial, escolheu um terceiro caminho — e isso tem consequências profundas para a educação.
A aprovação do Marco Legal da Inteligência Artificial (Lei 15.900/2025) consolidou uma postura que vinha sendo construída desde 2023: o país vai liberar o uso de IA, orientar com princípios éticos claros e controlar os usos de alto risco — mas não vai proibir. No contexto educacional, isso é uma notícia transformadora.
Por Que a Escolha Importa
A proibição pode parecer uma saída segura. Alguns países europeus restringiram o uso de ferramentas como o ChatGPT em ambientes escolares, e alguns estados americanos demoraram anos para rever essas proibições — perdendo tempo valioso de adaptação pedagógica.
O problema é que a proibição não funciona. Alunos continuam usando IA fora da escola. A diferença é que passam a fazer isso sem orientação, sem consciência crítica e sem o apoio de educadores preparados para contextualizar o uso. A proibição cria uma escola paralela, onde a IA acontece mas sem pedagogia.
"Proibir IA nas escolas é como proibir o uso de calculadoras na década de 1980 e esperar que os alunos estejam preparados para o mercado de trabalho dos anos 2000."
O Marco Legal e Seus Três Pilares
A Lei 15.900/2025 estruturou o uso de IA no Brasil em torno de três movimentos simultâneos e complementares:
Liberar: o ambiente de inovação
O marco legal não cria restrições genéricas ao desenvolvimento e uso de IA. Pelo contrário — estabelece um ambiente de inovação responsável, onde empresas e instituições podem desenvolver e adotar soluções de IA sem barreiras regulatórias desnecessárias. Para a educação, isso significa que escolas, redes de ensino e EdTechs podem operar com segurança jurídica.
Orientar: os princípios inegociáveis
A liberdade tem limites definidos por princípios: transparência, não discriminação, respeito à privacidade, supervisão humana e responsabilização dos desenvolvedores. Esses princípios valem para todos os setores, mas o texto da lei dá atenção especial a contextos sensíveis — e a educação de crianças e adolescentes está entre eles.
Controlar: os usos de alto risco
O marco classifica usos de IA por nível de risco. Usos de alto risco — como sistemas que tomam decisões sobre acesso a serviços públicos, saúde ou educação — têm requisitos adicionais de auditoria, explicabilidade e supervisão humana. Um sistema de IA que decide automaticamente se um aluno progride ou não para o próximo ano escolar, por exemplo, seria classificado como alto risco e sujeito a regras específicas.
| País / Bloco | Abordagem | Educação |
|---|---|---|
| União Europeia | Regulação ampla (AI Act) | IA em escolas classificada como alto risco |
| EUA | Orientações setoriais | Varia por estado — sem regulação federal uniforme |
| China | Regulação específica por tipo | IA curricular amplamente adotada e regulada |
| Brasil | Marco geral + diretrizes setoriais | Liberar + orientar via MEC + controlar alto risco |
O Que Muda na Prática para as Escolas
A combinação do Marco Legal com as diretrizes do MEC cria um panorama regulatório que, na prática, funciona como um guia para gestores e professores:
O Papel do Professor Neste Novo Cenário
Um aspecto frequentemente esquecido na discussão sobre regulação é o papel do professor. O marco legal brasileiro, alinhado com o referencial do MEC, é explícito: a supervisão humana é inegociável. Isso não é uma limitação — é uma valorização da profissão docente.
Em vez de serem substituídos por sistemas automatizados, professores são os responsáveis por validar, contextualizar e mediar o uso de IA em sala de aula. Essa posição de autoridade pedagógica é, na verdade, fortalecida — não ameaçada — pelo marco regulatório.
O momento certo para agir é agora. Redes que começarem a construir seus protocolos de uso de IA, formar seus professores e adotar ferramentas conformes ao marco regulatório estarão à frente quando as cobranças de conformidade se intensificarem. Esperar é um risco maior do que começar.
IAula: Construído para Este Cenário
A IAula não é uma startup que precisa correr para se adaptar ao marco regulatório. O sistema foi construído desde o início com os princípios que a legislação agora exige: transparência no uso de dados, formação docente integrada, supervisão pedagógica humana e conteúdo alinhado à BNCC.
Em um mercado onde muitos fornecedores vão precisar refazer seus produtos para atender às exigências do marco legal, o IAula já está em conformidade. Para as redes de ensino que precisam tomar decisões de tecnologia com segurança, isso faz toda a diferença.
Plano de ação em 90 dias para sua rede se adequar ao marco regulatório
Sem consultoria cara. Sem paralisia. Um passo de cada vez.
🟢 Pergunta decisiva para qualquer fornecedor de tecnologia educacional:
"Você pode me fornecer uma declaração de conformidade com a Lei 15.900/2025 e com as diretrizes do MEC para uso de IA na educação?"
Se a resposta for "não sei do que se trata" ou "preciso consultar o jurídico sem prazo definido" — é um sinal de alerta. Fornecedores sérios já têm essa resposta pronta.
Adote IA na sua rede com segurança
O IAula foi construído para atender os requisitos do marco regulatório brasileiro de IA. Conheça o sistema e entenda por que redes de ensino confiam na IAula.
Conhecer o Sistema IAula