SOBRE
#Entrevistas

Apenas 12 universidades brasileiras regulamentam o uso de IA

Levantamento da USP mostra que a governança de inteligência artificial ainda avança lentamente no ensino superior; especialista defende modelo pedagógico, não punitivo

Ilustração digital mostra cérebro artificial iluminado ao centro, conectado por linhas brilhantes a ícones de tecnologia (códigos de programação, gráficos, globo terrestre). Na parte inferior, silhuetas de quatro estudantes trabalham em laptops, em tons azul e verde. Ao fundo, prédios estilizados representam campus universitário, com formas geométricas triangulares no céu Regulamentação de IA em universidades brasileiras ainda é incipiente, mas discussões sobre uso ético da tecnologia ganham espaço no ambiente acadêmico | Imagem gerada por IA

Com o avanço e a consolidação de serviços de inteligência artificial (IA), universidades e instituições de ensino superior ao redor do mundo passaram a elaborar regras para o uso da tecnologia. No Brasil, o número de instituições com tais regulamentações ainda é considerado baixo.

Segundo um levantamento do grupo de pesquisa “Governança de Agentes de IA”, vinculado ao Instituto de Estudos Avançados da Universidade de São Paulo (IEA-USP), são 12 instituições brasileiras com diretrizes definidas e publicadas sobre o uso de IA por alunos, professores e pesquisadores.

O jornalista Jonas Gonçalves faz parte desse grupo, liderado pelo pesquisador Virgílio Almeida. Antes da iniciativa, ele desenvolveu uma pesquisa sobre o uso de IA em veículos jornalísticos para sua tese de doutorado em mídia e tecnologia na Universidade Estadual Paulista (Unesp).

No grupo da USP, cujo enfoque principal é o estudo da implementação de medidas regulatórias para IA, Gonçalves coordena uma subdivisão acerca do uso da tecnologia no ensino superior.

O objetivo é gerar dados sobre a inclusão da IA em universidades brasileiras para colaborar na elaboração de propostas de governança que sejam referência para implementar a tecnologia em outras instituições.

O Science Arena conversou com Gonçalves a fim de entender suas principais impressões sobre a regulamentação da IA no ensino superior brasileiro.

Science Arena – Poucas instituições no Brasil já regularizaram o uso de inteligência artificial. Por que ainda há resistência em incorporar essa tecnologia no ensino superior brasileiro?

Jonas Gonçalves – Para que soubéssemos exatamente o que acontece em cada uma das instituições, teríamos que fazer um levantamento em cada uma delas. No entanto, constatamos algumas possíveis razões para explicar o cenário.

Por exemplo, existem camadas de burocracia em cada instituição, o que envolve diferentes instâncias decisórias. Nesses contextos, os processos podem ser mais lentos ou, de repente, como observamos em alguns casos específicos no Brasil, pode existir um caminho facilitado desde que já exista uma cultura organizacional para isso.

Um bom exemplo é a Universidade Federal de Minas Gerais (UFMG). A instituição formou uma comissão para discutir o uso de IA na comunidade acadêmica.

Após isso, a UFMG chegou a um conjunto de recomendações para o uso dessa tecnologia no contexto universitário, que são regidas por princípios para incentivar o entendimento de como usar a IA na universidade.

Esse modelo adotado na UFMG é um bom exemplo de regulamentação de IA?

Acredito que seja um dos melhores possíveis. No grupo de pesquisa, nós defendemos uma governança pedagógica dae IA contra a proibição da tecnologia e a favor de um processo de entendimento do seu uso.

Então, quanto mais se investir em qualificação para que alunos e professores compreendam o funcionamento desses sistemas e os limites éticos que precisam ser considerados, melhor vai ser esse processo de integração da IA nas instituições de ensino brasileiras.

Homem calvo, de óculos e barba, sorri em selfie ao ar livre, usando jaqueta preta. Edifício moderno e árvores ao fundo
Jonas Gonçalves: “Quanto mais se investir em qualificação para que alunos e professores compreendam o funcionamento desses sistemas e os limites éticos que precisam ser considerados, melhor vai ser esse processo de integração da IA nas instituições de ensino brasileiras”. | Imagem: Arquivo Pessoal

A partir desse modelo de governança, a tendência é ter uma visão mais orientativa e consciente, que estimule a transparência. Se existe uma lógica mais punitiva, a tendência é de que as pessoas tenham o receio de declarar que usam esses sistemas e então passem a adotar essas tecnologias, mas sem declarar abertamente.

Isso pode aumentar a ocorrência de problemas éticos associados à IA.

Mas quais são os limites éticos quando se fala dessa tecnologia?

Normalmente, universidades já contavam com princípios éticos gerais antes do aparecimento de IAs. A questão é que, com esses sistemas artificiais, há a necessidade de princípios éticos específicos, porque existem rotinas peculiares que demandam limites do uso dessas tecnologias.

Por exemplo, essa é a questão do uso de detectores de similaridade, ferramentas para identificar trechos de um texto que são similares a outros já publicados. Só que não necessariamente esses pontos de similaridade significam que houve plágio.

Além disso, essa questão do plágio já era prevista pelas regras das universidades antes das IAs, mas agora a grande diferença é a escala.

A partir do momento em que existem ferramentas automatizadas, a capacidade de se produzir conteúdos aumentou exponencialmente. Então, há uma preocupação em manter um controle sobre isso.

Coibir infrações éticas como o plágio é absolutamente correto. No entanto, tentamos colocar em discussão a necessidade de haver uma diferenciação entre o uso consciente, ético e transparente de IA e o uso indevido da tecnologia.

Críticos do uso de IA em universidades apontam que a tecnologia pode causar diversos efeitos negativos, como diminuição da capacidade intelectual. Qual sua opinião?

Entendo que seja uma discussão muito válida, mas ainda é muito cedo para chegarmos a uma conclusão. De fato, existe uma tendência de delegar tarefas a IAs. No entanto, é preciso ressaltar que a tecnologia no máximo pode ser um auxiliar, como ao ajudar no levantamento de dados. A IA não pode ser, em nenhuma hipótese, considerada como  coautora de um trabalho. 

Embora a IA ofereça um conjunto de facilidades, o trabalho intelectual do ser humano precisa continuar a existir. Isso é um consenso nas diretrizes já implementadas sobre o uso de IAs.

Como você encara a discussão de regulamentar IAs em instituições educacionais ao comparar o Brasil com outros países?

Pelo que tenho observado, discussões sobre esse assunto existem no Brasil. Porém, também há certa cautela por parte das universidades.

IAs evoluem muito rapidamente. Isso faz com que uma diretriz implementada em um determinado momento pode não ser suficiente para outras situações. Isso gera certo receio em instituições brasileiras.

Comparando com outros países, não acho que o Brasil esteja atrasado. Segundo o Censo da Educação Superior do MEC, são 2.561 instituições de ensino superior ativas. Desse total, temos doze com diretrizes publicadas sobre uso de IA, conforme mapeamento que fizemos.

É um número muito pequeno, mas isso não quer dizer que apenas essas 12 instituições estejam discutindo o assunto ou que somente elas tenham regras. Pode ser que outras instituições já tenham regulamentos, só que circunscritos a departamentos ou cursos específicos. Acredito que esse tópico está avançando no Brasil, o que já é ótimo.

* É permitida a republicação das reportagens e artigos em meios digitais de acordo com a licença Creative Commons CC-BY-NC-ND.
O texto não deve ser editado e a autoria deve ser atribuída, incluindo a fonte (Science Arena).

Entrevistas

0 Comentários
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
Receba nossa newsletter

Newsletter

Receba nossos conteúdos por e-mail. Preencha os dados abaixo para assinar nossa newsletter

Captcha obrigatório
Seu e-mail foi cadastrado com sucesso!
Cadastre-se na Newsletter do Science Arena