Na medida em que a inteligência artificial generativa avança rápido, universidades brasileiras criam suas próprias políticas para IA. As soluções vão de orientações gerais até punições (com possibilidade de diploma cassado) e uso de software para detectar plágios.
O Ministério da Educação, a Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), órgão ligado ao MEC que atua na área de pós-graduação, e a Fundação de Amparo à Pesquisa de São Paulo (Fapesp) também se movimentam para criar diretrizes gerais.
Em mapeamento publicado em agosto no site The Conversation, o professor da Universidade Federal do Paraná (UFPR) Rafael Sampaio verificou que apenas sete universidades brasileiras haviam criado política de uso de IA. Ele usou o próprio ChatGPT para analisar 150 instituições.
Desde agosto, mais universidades desenharam políticas de IA, mas o número segue baixo. A Universidade de São Paulo (USP), por exemplo, ainda desenha diretrizes – segundo a reitoria, um grupo de trabalho foi criado para tratar do tema. Ao Estadão, o novo reitor da instituição, Aluísio Segurado, disse que IA será uma das prioridades de sua gestão.
Para Sampaio, o Brasil está atrasado, Mas ainda não há no mundo um modelo de políticas de IA ideal. Mesmo os Estados Unidos, onde nasceu boa parte da IA generativa, seguem sem políticas consolidada.
Em pesquisa da Unesco, braço das Nações Unidas para a Educação, feita em setembro, 19% dos 400 entrevistados disseram que suas instituições já haviam criado políticas de IA e 42% afirmaram que um modelo estava em desenvolvimento. Enquanto 70% das instituições na Europa e na América do Norte já tem ou estão trabalhando em diretrizes, a taxa cai para 45% na América Latina e no Caribe.
A pesquisa indica que algumas instituições têm optado por adotar abordagem regulatória, com detecção de IA e gerenciamento dos usos antiéticos, outras fazem o letramento digital dos alunos.
Veja abaixo como o tema tem sido abordado por diferentes instituições.
Unicamp e PUC-PR: papel dos docentes
Instituições como a Universidade Estadual de Campinas (Unicamp) e a Pontifícia Universidade do Paraná (PUC-PR) optaram por estabelecer orientações para uso adequado de IA, sem envolver ferramentas de detecção.
Um dos princípios é a necessidade de explicitar quando ferramentas de IA foram utilizadas e para quê. Outro ponto costuma ser a responsabilização do autor pelo conteúdo gerado. As diretrizes buscam ainda evitar compartilhamento de dados com IAs generativas.
Nas diretrizes fixadas em 2024, a ideia da PUC-PR foi manter a autonomia do docente. “Se o estudante, por exemplo, não declarar que usou [IA], o professor pode anular uma avaliação”, afirma o pró-reitor de Desenvolvimento Educacional da PUC-PR, Ericson Falabretti.

UFMG: comissão permanente
A Universidade Federal de Minas Gerais (UFMG) criou a Comissão Permanente de Inteligência Artificial em agosto de 2024 e foram apresentadas orientações diante do temor de plágio e vieses discriminatórios. O documento traz princípios, como transparência, proteção de dados e justiça.
“A estratégia foi de configurar um grupo que pensa uma política de forma permanente. Política essa que envolve não só construir regras de uso, mas o incentivo à pesquisa transdisciplinar em inteligência artificial”, diz o professor Ricardo Fabrino, membro da comissão.
Por ora, não há regras mais específicas, mas isso pode ser debatido no futuro – o que não é tarefa fácil. Os usos de IA variam bastante entre as áreas de conhecimento, o que dificulta criar regras gerais. Fabrino destaca ainda a necessidade de uma política de IA integrada às das demais instituições, o que requer iniciativas de órgãos públicos.
MEC, Capes, Fapesp, CNPq
O MEC informou ao Estadão que discute o uso de IA por meio do Conselho Nacional da Educação (CNE). Tramita no órgão uma proposta, em fase inicial, para regulamentar a tecnologia.
A Capes afirma que lançará ainda neste ano diretrizes gerais sobre IA em trabalhos de mestrado e doutorado. A Fapesp também debate normas, levando em conta experiências de agências internacionais.
O Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), órgão federal, diz trabalhar em uma instrução normativa que prevê menção obrigatória de uso de IA em documentos e responsabilização sobre a veracidade dos conteúdos criados com auxílio da tecnologia.

Paraíba: punições e cassação do diploma
A Universidade Federal da Paraíba (UFPB) trouxe, em outubro, em uma portaria sobre plágio, regras sobre o uso de IA e proibiu a reprodução de textos gerados por IA em materiais acadêmicos e envio de dados sigilosos a esses sistemas sem confidencialidade assegurada.
A portaria em questão prevê a possibilidade de uso softwares para detectar “o percentual de similaridade do trabalho apresentado com outros trabalhos já produzidos ou publicados”. Há também sanções para quem descumprir a regra, o que pode envolver cassação do diploma, recomendação de retratação e despublicação de artigos em periódicos.
Procurador educacional institucional da UFPB, Hidelbrando Diógenes afirma que as proibições se tratam de “questões pacificadas em relação à ética acadêmica, proteção de dados sigilosos e propriedade intelectual”.
Ceará: software antiplágio
Em outubro, a Universidade Federal do Ceará (UFC) publicou portaria que obriga alunos da pós-graduação a submeter trabalhos acadêmicos a ferramentas de IA de detecção de similaridade, que poderá identificar o uso da tecnologia.
A regra prevê que, para agendar sua defesa, o aluno deve anexar relatório assinado pelo orientador indicando a submissão do trabalho a uma ferramenta de verificação.
Para Sampaio, especialista da Federal do Paraná, a lógica da detecção leva a um ambiente de medo e vigilância, o que incentiva o uso escondido. Além disso, segundo ele, ferramentas de detecção de IA generativa não são confiáveis e podem cometer erros sobre conteúdos produzidos pela tecnologia.

Coordenadora de Avaliação e Planejamento Estratégico da Pró-Reitora de Pesquisa e Pós-Graduação da UFC, Lidiany Rodrigues diz ser difícil definir o papel da IA generativa em atividades do mestrado e doutorado.
“O uso das ferramentas cresceu muito rápido. De repente, textos mais simples e com falhas foram substituídos por versões mais bem escritas, com mais fluidez e até mais qualidade”, diz. Embora a melhora não seja negativa, precisa refletir a evolução do estudante, e não uma dependência excessiva da tecnologia, avalia.
“A norma não pretende impedir o uso dessas ferramentas, mas estabelecer limites e diretrizes mais claras para que a tecnologia contribua para o aprendizado sem substituir o protagonismo intelectual dos estudantes”, afirma.
A coordenadora não classifica as medidas como rígidas, e sim “prudentes e necessárias” ao incentivar o uso responsável da IA e garantir protagonismo humano. “A percepção de rigidez pode estar muito mais relacionada ao momento de incerteza em que vivemos do que ao conteúdo da portaria em si”, completa.
A regra, porém, não traz punições específicas, já que as medidas são para as fases anteriores à defesa dos trabalhos, o que dá tempo para correção de possíveis problemas.