
IA pode ampliar desigualdades no Sul global, alertam cientistas
Na 17ª Conferência Geral da TWAS, especialistas apontam riscos ligados à falta de infraestrutura, dependência externa e concentração tecnológica

A inteligência artificial (IA) avança em ritmo acelerado, mas governos ainda buscam formas de regular seus impactos. Em países de baixa e média renda — concentrados no chamado Sul global —, o desafio é ainda maior: infraestrutura escassa e dependência tecnológica externa ampliam os riscos de exclusão e desigualdade.
O tema marcou parte do segundo dia de debates da 17ª Conferência Geral da Academia Mundial de Ciências para o Avanço da Ciência nos Países em Desenvolvimento (TWAS), realizada de 29 de setembro a 2 de outubro no Rio de Janeiro.
A TWAS é um órgão sediado na Itália e vinculado à Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco).
O encontro, organizado em parceria com a Academia Brasileira de Ciências (ABC), reúne autoridades e mais de 300 cientistas do mundo todo, a fim de discutir cooperação científica e soluções para desafios atuais, como limites e oportunidades da IA e crise climática.
“A tecnologia está evoluindo muito rápido, por isso precisamos manter o controle dessas tecnologias”, afirmou o cientista da computação Virgílio Augusto Fernandes Almeida, professor da Universidade Federal de Minas Gerais (UFMG) e coordenador do escritório regional da América Latina e Caribe da TWAS (TWAS-LACREP).
Almeida destacou que a IA, como sistema algorítmico complexo, já molda a economia, a política e o poder geopolítico global. O principal desafio de governança seria o “hiato de ritmo” — a velocidade da inovação supera a capacidade dos governos de criar políticas públicas adequadas.
“Parte do problema é que, no nível individual, os impactos parecem sutis e dispersos”, comentou Almeida. “Um conteúdo político impulsionado por algoritmos pode não causar grande dano a uma pessoa isolada. Mas, em escala macro, as consequências dessas interações locais se tornam visíveis.”

Acesso à infraestrutura
De acordo com o pesquisador, no Sul global, embora governos controlem seus territórios físicos, o domínio sobre os territórios digitais está concentrado em poucas grandes plataformas – que muitas vezes não respondem a decisões locais.
Almeida destacou ainda que esse monopólio aprofunda a desigualdade digital.
Na mesma linha, o engenheiro de IA sul-africano Tshilidzi Marwala, reitor da Universidade das Nações Unidas (UNU), destacou que a concentração também ocorre no campo da infraestrutura.
“O acesso à computação de alto desempenho é um grande problema no Sul global”, disse Tshilidzi Marwala.
“Quando trabalhei na região, era preciso recorrer a serviços como o da Amazon Web Services para realizar cálculos complexos, e isso custa muito caro. Precisamos criar plataformas que permitam acesso a esse tipo de infraestrutura.”
O problema não se resume à infraestrutura. A exclusão também aparece na forma como a tecnologia é concebida. Marwala lembrou que a maior parte dos grandes modelos de linguagem (LLM) é treinada em inglês, deixando de fora línguas pouco representadas, o que gera vieses e invisibiliza culturas locais.

Ferramenta nova, dilemas antigos
O físico Sunil Mukhi, professor do Indian Institute of Science Education and Research (IISER) em Pune, na Índia, chamou atenção para a dimensão estrutural desses desafios.
Para Mukhi, a IA não pode ser vista como solução automática para desigualdades históricas, porque tende a reproduzir padrões sociais já existentes.
“Nutrição, saúde, educação e segurança universais ainda não são realidade. E isso é preocupante, pois a IA é uma tecnologia nova, mas não fizemos muito com as antigas. Ela é só uma ferramenta, não um agente autônomo”, afirmou.
Na visão dos painelistas, o debate sobre ética ganha peso na era da IA. Se, como lembrou Mukhi, a tecnologia reflete valores de quem a projeta, torna-se central definir quais princípios devem orientar seu desenvolvimento.
Ética da IA
Marwala, da UNU, defendeu que os direitos humanos funcionem como base comum para avaliar dados, algoritmos e aplicações.
Já Almeida acrescentou que essa construção precisa ser multidisciplinar, reunindo cientistas da computação, juristas, filósofos e especialistas em ciências sociais e humanidades para antecipar riscos e reduzir vieses.
“Acho que é exatamente nesse ponto que a filosofia se torna importante, pois a ética nasce da forma como queremos que o mundo seja, e não há consenso sobre isso”, observou Mukhi, da Índia. “Uma discussão filosófica nesse sentido é fundamental”, resumiu.

Nesse contexto, surgiu a proposta de criar um código de conduta global para a IA, possivelmente sob a liderança da Organização das Nações Unidas (ONU).
A ideia reforça o peso da cooperação internacional — sem arranjos comuns, alertaram os cientistas, países de baixa e média renda continuarão à margem da definição das regras que irão moldar o futuro tecnológico.
Conflitos de valores
O brasileiro Virgílio Almeida reforçou a necessidade de desenvolver uma “IA responsável”, guiada por quatro princípios centrais:
- Justiça;
- Responsabilidade;
- Transparência;
- Inclusão.
Esses eixos, disse o professor da UFMG, precisam nortear políticas públicas e o desenvolvimento tecnológico em benefício da sociedade.
No entanto, como lembrou Marwala, mesmo valores considerados consensuais podem entrar em conflito, e regular a IA exige lidar com essas tensões de forma explícita.
“A IA precisa ser transparente e segura”, ressaltou Marwala. “Mas a transparência vem às custas da segurança: quanto mais transparente, menos segura. Decidir esse equilíbrio é, no fim, uma questão de valores”, afirmou.
“Outro valor essencial é a verdade. A IA deve ser verdadeira, mas em laboratórios e salas de aula só se fala em acurácia. E acurácia não é a mesma coisa que verdade”, disse Marwala.
Para os painelistas, a governança da IA não depende apenas de especialistas técnicos, mas de ampliar a alfabetização digital e algorítmica, especialmente entre formuladores de políticas e tomadores de decisão.
Isso significa que não se trata apenas de formar programadores, mas de garantir que governos entendam os impactos sociais, econômicos e éticos da tecnologia que estão tentando regular.
Esse esforço também passa pela criação de incentivos para o uso responsável da IA, em contraste com a lógica predominante de maximização de lucros das grandes plataformas.
O debate se conecta a uma agenda mais ampla. Para Almeida, a IA responsável não é apenas uma questão de regulação, mas um instrumento estratégico para ciência, inovação e desenvolvimento inclusivo no Sul global.
*A equipe do Science Arena viajou a convite da TWAS.
*
É permitida a republicação das reportagens e artigos em meios digitais de acordo com a licença Creative Commons CC-BY-NC-ND.
O texto não deve ser editado e a autoria deve ser atribuída, incluindo a fonte (Science Arena).