#Carreiras
Como a IA redesenha a prática científica — e por que isso exige governança e reflexão ética?
Incorporação da inteligência artificial na rotina de pesquisa amplia a produtividade, mas impõe novos desafios de transparência e responsabilidade institucional
Ferramentas de IA generativa e de análise de dados auxiliam em tarefas que antes podiam exigir semanas de trabalho humano (como estruturar textos, organizar bases de referências ou detectar padrões em grandes volumes de dados), mas uso da tecnologia desperta atenção para desafios éticos e legais | Imagem: Unsplash
A inteligência artificial (IA) deixou de ser apenas objeto de debates teóricos ou de aplicações futuristas nas ciências. A tecnologia está hoje no centro de uma transformação significativa nos modos de fazer pesquisa, não apenas acelerando tarefas operacionais (como revisão de literatura e análise de dados brutos), mas questionando como a própria ciência se estrutura e é gerida.
Esse movimento coloca pesquisadores diante de uma pergunta importante: não é apenas “como usar IA”, mas também “quem define os limites, objetivos e regras desse uso?” — uma questão que vincula tecnologia, ética, governança institucional e políticas públicas, e que foi discutida em respotagem do Science Arena.
IA como motor de produtividade e mudança metodológica
Ferramentas de IA generativa e de análise de dados já fazem parte da rotina científica. Elas auxiliam em tarefas que antes podiam exigir semanas de trabalho humano — como estruturar textos, organizar bases de referências ou detectar padrões em grandes volumes de dados — acelerando processos e ampliando a capacidade de exploração.
Contudo, essa integração tecnológica vai além de eficiência em si: ela vem alterando os métodos de produção do conhecimento.
Pesquisadores agora podem usar modelos preditivos, extração automatizada de informações e análise avançada de padrões para formular hipóteses e direcionar experimentos de novo modo, configurando uma possível nova metodologia híbrida, baseada na interação entre humanos e IA.
Em áreas como bioinformática, genômica e análise de grandes volumes de dados, a IA é praticamente indispensável, ressaltou a veterinária Rebeca Scalco, doutoranda em patologia digital e bioinformática na Universidade de Berna, na Suíça, em entrevista ao Science Arena.
“Ferramentas de IA como o SciSpace, por exemplo, ajudam a explicar artigos complexos, mas quem compreende, ou analisa criticamente é o pesquisador”, explicou Scalco.
Governança da IA científica: uma necessidade institucional
Enquanto muitos esforços educacionais e recomendações éticas focam em boas práticas individuais — como declarar o uso de ferramentas ou manter um registro de sua aplicação — a discussão mais ampla é sobre governança e política institucional.
Nos últimos anos, diversas universidades e centros de pesquisa pelo mundo, incluindo instituições brasileiras – como a Universidade Estadual de Campinas (Unicamp) e a Universidade Federal da Bahia (UFBA) – começaram a criar diretrizes formais sobre o uso de IA, com foco em:
- Transparência e responsabilidade, exigindo que pesquisadores documentem e justifiquem o papel da IA em seus resultados;
- Proteção de dados e confidencialidade, evitando que informações sensíveis sejam expostas em plataformas sem controle institucional;
- Preservação da autoria e agência intelectual do pesquisador, evitando que o uso de IA prejudique a originalidade e a integridade do trabalho científico.
Essas diretrizes vão além de recomendações: muitas universidades estão debatendo como incorporar a IA aos seus regulamentos internos de pesquisa, com comissões especializadas e documentos oficiais orientando alunos, docentes e grupos de pesquisa.
IA, políticas públicas e regulação global
No plano internacional, a própria Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco), por meio de recomendações globais, tem incentivado a criação de marcos éticos para IA voltados à ciência e à sociedade, destacando que a tecnologia deve estar alinhada a direitos humanos, proteção de dados e valores éticos compartilhados.
Em algumas regiões, como a União Europeia, legislações específicas já começam a definir riscos, exigências de transparência e mecanismos de supervisão.
Em outros países, projetos de lei discutem governança, responsabilidade civil e princípios éticos que podem orientar o uso da IA em pesquisa científica e inovação tecnológica.
Desafios e tensões: autonomia, poder corporativo e soberania científica
A discussão sobre governança da IA não é neutra, alertou Scalco. “A academia e a sociedade civil precisam participar da regulação, garantindo que o interesse público esteja no centro, especialmente em áreas como a saúde”, afirmou.
Ferramentas e plataformas de IA mais avançadas são, na maioria das vezes, controladas por corporações privadas (as chamadas big techs) com interesses econômicos globais — o que levanta preocupações sobre quem detém o controle sobre a tecnologia que agora influencia a produção de conhecimento científico.
Essa tensão traz à tona outras questões:
- A ciência pode abrir mão de dados sensíveis e de longo prazo para plataformas externas?
- Quais critérios as instituições acadêmicas devem adotar para proteger seus pesquisadores e seus objetos de estudo?
- Como equilibrar o uso de IA com a preservação do pensamento crítico, criatividade e rigor metodológico que caracteriza a ciência?
O papel dos pesquisadores no desenho da governança
Fato é que a governança ética da IA na ciência não é responsabilidade apenas de comitês ou órgãos reguladores.
Pesquisadores têm um papel ativo na construção de normas, políticas e práticas que reflitam os valores de sua comunidade científica: transparência, responsabilidade, equidade e compromisso com o conhecimento como bem público.
“Ferramentas de IA devem ser tratadas como ‘bons estagiários’, ávidos por aprender. Mas assim como o doutorando jamais submeteria um texto de estagiário sem revisão para uma publicação, tampouco deve encaminhar trabalhos feitos com IA sem a devida verificação”, disse Scalco.
A IA, nesse sentido, deve ser vista não apenas como mera ferramenta, mas como um agente de mudança estrutural, cujas implicações éticas e políticas precisam ser compreendidas, debatidas e incorporadas nos sistemas institucionais e na formação científica.
*
É permitida a republicação das reportagens e artigos em meios digitais de acordo com a licença Creative Commons CC-BY-NC-ND.
O texto não deve ser editado e a autoria deve ser atribuída, incluindo a fonte (Science Arena).