QUANDO CONCEITOS BAIXOS OU ALTOS NÃO INDICAM QUALIDADE: O PROBLEMA DO ENADE Conversa com o ChatGPT Roberto Lobo* 4 de outubro de 2025
Introdução Há anos venho questionando a forma como são interpretados os conceitos atribuídos aos cursos de graduação a partir do ENADE (Exame Nacional de Desempenho dos Estudantes). Não se trata de rejeitar a aplicação de exames para aferir a qualidade da educação superior ou a competência dos futuros profissionais. Avaliações podem, de fato, funcionar como salvaguarda para a sociedade, garantindo que médicos, engenheiros, advogados e outros profissionais atendam a padrões mínimos de qualidade. O problema está em como o resultado do ENADE é traduzido em juízo de valor sobre os cursos. Recentemente, voltou-se a discutir a possibilidade de utilizar notas do exame para suspender vagas ou até mesmo descredenciar cursos de Medicina. Esse debate exige clareza: o ENADE não mede qualidade absoluta, mas apenas a posição relativa de um curso em comparação com os demais da mesma área. Assim, mesmo que a qualidade geral dos cursos melhore substancialmente (ou piore drasticamente), a distribuição de conceitos entre 1 e 5 permanecerá inalterada. Em outras palavras: mesmo se todos os cursos forem excelentes, ainda haverá cursos classificados como “1” ou “2”, simplesmente porque são os menos bem posicionados dentro do grupo.
O diálogo com o ChatGPT Para aprofundar a questão, consultei o ChatGPT (até para testar o entendimento corrente). Perguntei: “Cursos que obtenham notas 1 e 2 no ENADE devem ser considerados ruins ou apenas piores que a maioria?” A resposta inicial reproduziu o entendimento oficial do INEP/MEC: “cursos com notas 1 e 2 seriam insatisfatórios, passíveis de supervisão”. Argumentei, então, com a analogia de um concurso de cantores líricos: se todos cantarem bem, sempre haverá alguém que receberá a nota mais baixa – mas isso não significa que o desempenho seja ruim em termos absolutos. Após esse contraponto, o próprio ChatGPT reconheceu que: Ø O ENADE não estabelece um critério de suficiência absoluta (não há nota mínima de corte como, por exemplo, 60% de acertos). Ø O exame apenas normaliza estatisticamente os resultados e distribui cursos em cinco faixas. Ø A classificação em 1 ou 2 indica posição relativa na cauda inferior da distribuição, não necessariamente insuficiência em termos absolutos. Ou seja: a noção de que notas 1 e 2 significam “insatisfatório” é uma decisão regulatória, e não uma consequência técnica inevitável da metodologia. Síntese do problema O ENADE hierarquiza cursos de maneira relativa, mas o INEP/MEC atribui significados normativos a essas faixas, chamando notas 1 e 2 de “insatisfatórias”. Essa leitura confunde comparação estatística com suficiência absoluta, gerando interpretações distorcidas sobre a qualidade real dos cursos. Assim, cursos com conceitos 1 e 2 não são automaticamente “ruins”, apenas se encontram entre os desempenhos mais baixos dentro do conjunto avaliado. Da mesma forma, conceitos 4 e 5 não significam que os cursos sejam “bons ou ótimos”, mas que os desempenhos foram os mais altos dentro do conjunto avaliado.
Sugestões de aprimoramento Duas medidas poderiam reforçar o papel dos indicadores do INEP, tornando-os inclusive, mais justos: A. Revisar o entendimento oficial sobre o ENADE, introduzindo um indicador de suficiência absoluta: isso permitiria identificar padrões mínimos de qualidade de forma objetiva. Assim a sociedade e o próprio MEC teriam uma visão mais adequada da qualidade do sistema como um todo. Por exemplo: no futuro, se a nota maior atingida pelos cursos for 4, em um máximo de 10, mesmo que o indicador relativo aplique conceitos 4 e 5 na distribuição relativa, saberemos que os cursos como um todo precisam melhorar. O mesmo pode ocorrer se os cursos todos alcançarem notas altas, mostrando que mesmo os cursos com os conceitos 1 e 2 atendem ao critério de suficiência da área. B. Ajustar o cálculo das médias de grupo: atualmente, quando um curso com muitos egressos apresenta desempenho muito alto ou muito baixo, ele “puxa” a média geral do grupo (estado, categoria administrativa, organização acadêmica ou Brasil), distorcendo a comparação. Para evitar isso, o resultado do próprio curso deveria ser excluído do cálculo da média de referência. Fórmula proposta: N= {(N1×n1) -(N2×n2} / (N1-N2) onde: Ø N1 = total de participantes do grupo; Ø n1 = nota média do grupo; Ø N2 = número de participantes do curso; Ø n2 = nota média do curso. Contradição do Critério Para finalizar ilustrando o que ocorre no atual sistema de avaliação do ENADE, se o MEC adotasse a política de descredenciar os 10% piores cursos (conceitos 1 e 2), uma consequência paradoxal ocorreria: Ø No primeiro ciclo, 10 cursos em cada 100 seriam eliminados. Ø No ciclo seguinte, de 90 cursos avaliados, 9 receberiam conceitos 1 e 2 e seriam descredenciados. Ø O processo se repetiria até que praticamente todos os cursos seriam eliminados, inclusive alguns antes considerados de excelência. Sem um critério de suficiência absoluta, entramos numa espiral absurda, em que a simples lógica estatística levaria à extinção progressiva dos cursos de uma área inteira. Se pensarmos nos conceitos mais altos, fica claro, também, que estamos deixando de analisar o desempenho geral da área por falta do indicador de suficiência. Assim, por exemplo, se a maior nota entre os cursos de Pedagogia for 4, mesmo os cursos com conceitos 4 e 5 não podem ser considerados bons, devendo haver um estudo para se processar a uma remodelação de toda a área da Pedagogia. Além disso, as IES que hoje se apoiam nos conceitos 4 e 5 para mostrar a qualidade de seus cursos, teriam que buscar ultrapassar o indicador de suficiência que deveria ser de conhecimento público, para que não se faça marketing de cursos que, mesmo estando entre os melhores do país, não atendem a um padrão mínimo de qualidade. Conclusão O ENADE é um instrumento útil para comparações relativas, mas não deve ser confundido com uma medida de qualidade absoluta. O discurso oficial do INEP/MEC mistura estatística com julgamento normativo, o que distorce a interpretação dos resultados. É urgente revisar essa abordagem, criando indicadores que de fato expressem qualidade mínima de aprendizagem, evitando que políticas públicas sejam baseadas em equívocos metodológicos.
*Roberto Lobo é PhD em física e Doutor Honoris Causa pela Purdue University, foi reitor da USP e é presidente do Instituto Lobo