[Opinião] IA na Educação Básica: entre o utilitarismo pedagógico e a habilidade de hesitar
Pós-doutorandas do Ieat apontam para os riscos do uso irrefletido da Inteligência Artificial na educação básica e defendem que alunos sejam ensinados a ‘questionar ferramentas que usam’

Quem é professor da rede básica já deve ter percebido: os atores que cuidam da gestão escolar ou aqueles que vendem relatórios e soluções estão obcecados pelas "habilidades". O termo, que deveria indicar um olhar atento para as operações mentais envolvidas nos processos de ensino-aprendizagem, virou sinônimo de desempenho mensurável. Há, desde a virada do século, uma forte tendência de tomar documentos normativos, como a Base Nacional Comum Curricular (BNCC), como se fossem prescritivos e gozassem da prerrogativa de estabelecer o que será ou não aplicado, o que deve ser ou não desenvolvido. Não há um esforço de se valer criticamente de tais documentos como inspiração e como um norte para a construção de práticas pautadas nas realidades das escolas.
Na maior parte das vezes, utilizam-se as habilidades da BNCC, que são amplas e devem ser vistas como referência para a construção de objetivos de ensino específicos, como instrumento de monitoramento das atividades docentes e ferramenta de diagnóstico de aprendizagens. Isso engessa o trabalho do professor e gera um estresse adicional. Além de pensar nos processos inerentes às situações de ensino, o professor precisa escolher uma habilidade que não se conecta diretamente com seu fazer pedagógico cotidiano para que sua experiência de trabalho seja oficialmente validada. Essa escolha torna-se, portanto, automatizada e pouco reflexiva porque serve, no final das contas, para preencher documentos formais (como planejamento, diário e relatório).
Vivemos um momento paradoxal, em que os estudantes têm acesso a mais informação do que nunca e, no entanto, são incapazes de compreendê-las em profundidade e de estabelecer conexões significativas entre elas
Há algo ainda mais grave acontecendo: as macro-habilidades da BNCC têm sido amplamente utilizadas para diagnóstico de aprendizagem em avaliações internas e externas. Algumas dessas habilidades, que só seriam verificadas num continuum de tempo e em avaliações processuais, são associadas a itens de provas e, muitas vezes, lidas por analistas de dados (empresas que oferecem serviços educacionais “inovadores”). Dessas leituras, geram-se planilhas e gráficos que prometem dizer dos hiatos das aprendizagens.

Como a IA (inteligência artificial) pode auxiliar o docente tendo em vista o cenário exposto? A primeira possibilidade de resposta consiste em aceitar que a IA, da maneira como a entendemos, não opera segundo o princípio do auxílio e da cooperação. Isso porque mesmo os mais sofisticados modelos de sistemas algorítmicos ainda (e é possível que permaneçamos nesse “ainda”) demandam assistência humana por serem destituídas de características fundamentais da inteligência humana, mesmo que os grandes modelos de linguagem como o ChatGPT sejam capazes de simulá-las de modo bastante convincente.
Sem entrar numa discussão por demais extensa, parece bastante óbvio que sistemas de IA não podem auxiliar o trabalho docente se entendermos que esse trabalho tem como matéria-prima processos de comunicação e habilidades de leitura, compreensão e resposta a estados de coisas no mundo que extrapolam mesmo as capacidades de aprendizado dos sistemas algorítmicos. Se há algo em que a IA pode ser útil ao professor são tarefas burocráticas e administrativas que, sempre mais numerosas e exaustivas, ameaçam descaracterizar sua atuação intelectual.
As plataformas de IA educacional que têm sido apresentadas ao público escolar com a promessa de “personalizar o ensino” em geral fazem o oposto: padronizam processos, reduzindo a educação a um treinamento para a realização de tarefas. A IA, nesse modelo, vira um fast-food do conhecimento: entrega respostas rápidas, mas não estimula a ânsia por perguntas. Pior: pode criar a ilusão de que aprender é um processo apenas individual e de que o conhecimento nada mais é que um bem de consumo.

Nesse ponto da discussão, vale lembrar que a educação moderna já estava em crise antes da IA. Jonathan Osborne, em seu trabalho seminal sobre o ensino de ciências, criticava a ditadura do empirismo: a ideia de que aprender é apenas “experienciar” ou “resolver problemas práticos”. Para ele, o cerne da ciência está fundamentado em estruturas conceituais abstratas (como a teoria da relatividade ou a evolução), que não são óbvias aos sentidos. No entanto, parte das escolas ainda trata o conhecimento como um manual de instruções — e a IA, da maneira como tem sido lida, pode potencializar esse reducionismo.
Ferramentas como o ChatGPT ou plataformas adaptativas reforçam essa lógica: elas entregam respostas sem exigir que o aluno construa perguntas. O filósofo e ensaísta Byung-Chul Han diria que isso é típico da sociedade pós-iluminista: trocamos a profundidade do debate pela velocidade da informação. O resultado? Uma geração que sabe operar algoritmos, mas não questioná-los.
Por trás das ferramentas educacionais de IA estão empresas privadas, algoritmos opacos e, é claro, interesses comerciais. O espectro de problemas é grande, então foquemos em apenas alguns.
Vivemos um momento paradoxal, em que os estudantes têm acesso a mais informação do que qualquer geração anterior e, no entanto, são incapazes de compreendê-las em profundidade e por vezes até mesmo de estabelecer conexões significativas entre elas. As razões da incongruência são diversas, mas no Brasil ela é agravada por um cenário de crescente desvalorização e de transformação da educação pública em commodity. Empresas privadas, muitas delas sem qualquer experiência no campo educacional, agora gerem escolas públicas por meio de parcerias que drenam recursos públicos enquanto interferem nos currículos, censuram conteúdos e os submetem a pressões lobistas de setores como o agronegócio.
Insidioso, discurso de empreendedorismo e inovação nas escolas domestica a inventividade genuína em favor de modelo que reproduz a mesma lógica de mercado que nos trouxe ao conjunto das crises atuais
Paralelamente, a incorporação acelerada da IA nas diversas esferas do cotidiano nos encerra numa espécie de circuito fechado em que a tecnologia desaparece da nossa percepção consciente ao mesmo tempo que continua atuando de maneira profunda, influenciando nossas decisões e modificando nosso comportamento. Estudos mostram que crianças e jovens expostos intensivamente a essas ferramentas desenvolvem algo como uma “preguiça metacognitiva”, uma diminuição da disposição para o pensamento reflexivo e a construção ativa do conhecimento.
Nesse cenário, o discurso do empreendedorismo e da inovação nas escolas, tão em voga, é particularmente insidioso. Sob a aparência de modernidade e criatividade, domestica-se toda inventividade genuína em favor de um modelo que reproduz a mesmíssima lógica de mercado que nos trouxe ao conjunto das crises atuais – climática, social e epistemológica.
Estamos, assim, criando uma geração de indivíduos domesticados e prontos para abrir mão de sua condição de agentes transformadores e se tornar meros espaços de agência de sistemas algorítmicos. Ora, não estamos aqui falando apenas de política educacional. Estamos falando do tipo de sociedade que queremos construir. E, talvez, de modo mais dramático: estamos também falando da viabilização de um futuro que talvez não esteja tão garantido quanto queiramos crer.
Uma educação pública forte, crítica e democrática de certo não é o único antídoto para todos os males contemporâneos, mas é peça fundamental para formar gerações de pessoas interessadas em oferecer resistência à crescente automação do mundo e, na contramão da corrida descabida que empreendemos na direção do aumento da concentração de renda e das desigualdades, formar cidadãos conscientes e enérgicos o bastante para não abrir mão de sua capacidade crítica, de sua condição de agente transformador em meio a um mundo em colapso.
Byung-Chul Han diz que, apesar de todo o desempenho computacional, o computador é inepto na medida em que lhe falta a capacidade para hesitar. Não se trata de atacar ou proibir a tecnologia, mas de submetê-la a um princípio básico: a educação deve formar pessoas capazes de questionar até mesmo as ferramentas que usam. Defendemos que, mesmo sem a ajuda de nenhuma plataforma de sistemas de IA, nossos jovens desenvolvam a habilidade de reconhecer a diferença entre “exitar” e hesitar.
(Anna Luiza Coli, pós-doutoranda na Cátedra Ieat Darcy Ribeiro: Soberania, Educação e Política | Raquel Augusta Melilo Carrieri, pós-doutoranda na Cátedra Fundep Magda Soares de Educação Básica do Ieat)