
Inteligência artificial: riscos para a ciência e a comunicação
Definição de prioridades e foco no ser humano são essenciais para nortear melhores pesquisas com inteligência artificial generativa

O mundo vai viver uma nova era de incertezas e riscos interligados nos próximos anos, aponta o Relatório de Riscos Globais de 2024 do Fórum Econômico Mundial (GRR24).
O documento, que ouviu 1,4 mil lideranças empresariais em 113 países, compõe a 19ª edição dessa pesquisa e traz uma grande mudança em relação aos últimos levantamentos.
No documento, a desinformação aparece como grande risco para a humanidade, seguido das questões climáticas e o uso sem regulação adequada da inteligência artificial generativa (IAG).
Entre os top 10 riscos globais em até dois anos, aparece pela primeira vez em primeiro lugar a preocupação com “informações falsas e desinformação”, tendo como pano de fundo a ascensão de novas ferramentas de IAG.
Essa ascensão amplificou e tornou mais acessível a fabricação de conteúdo “deepfake”, ou seja, vídeos, imagens e áudio falsos com alto grau de realismo, gerando riscos à comunicação e ciência em geral.
Para o filósofo sul-coreano Byung-Chul Han, “a partir de um determinado ponto, porém, a produção globalizada não é mais produtiva, mas destrutiva; a informação não é mais informativa, mas deformadora; a comunicação não é mais comunicativa, mas meramente cumulativa”.
Na era do prompt, como tenho chamado este momento da história, precisamos ter algum tipo de controle sobre a distração alucinada da inteligência artificial generativa.
Caso contrário, podemos perder o lastro com o fato e a realidade.
Para além dos resultados das eleições presidenciais de 2024 no mundo, é provável que “as percepções da realidade também se tornem mais polarizadas, infiltrando-se no discurso público sobre questões que vão desde saúde pública, meio ambiente até justiça social”, diz outro trecho do Relatório do Fórum Social Mundial.
Preocupação global
Como primeiro item de preocupação global, a desinformação não acontece só no exercício diário da política.
Táticas usadas para reescrever o longo processo civilizatório, a partir do olhar apenas de um lado da história, são tão perigosas quanto as narrativas que hoje colocam em risco as democracias ao redor do planeta.
Seja para negar uma vacina ou teimar em achar que a terra é plana.
Nesse cenário, as corporações que dominam os mercados da tecnologia da informação (Big Tech) são empresas que foram fundadas a partir da década de 1970, como é o caso da Microsoft (1975) e Apple (1976), seguidas por Amazon (1994), Google (1998) e da Meta (2004, como Facebook), e detêm muito poder.
A relação assimétrica de poder fica clara no discurso sincronizado entre diversos atores sociais e meios de expressão que reproduzem os argumentos das corporações, como explica o historiador Brendan Mackie, da Universidade da Califórnia, em Berkeley, nos Estados Unidos.
Para ele, as big techs se utilizam das mesmas estratégias de colonização da Companhia das índias Ocidentais, nome dado às organizações comerciais criadas para explorar os continentes africano e americano no século XVII.
E como nos expomos, voluntariamente, às redes digitais, elas momentaneamente nos deixam ocupados (gerando likes e consumo).
Contudo, em um cenário global fragmentado, é pouco provável que as tecnologias impeçam a propagação de suas capacidades mais perigosas, aponta o Relatório do Fórum Social Mundial.
Regulação urgente
Com a chegada da IA generativa, permitindo que uma série de atores estatais e não estatais possam acessar um mundo sobre-humano, damos amplitude de conhecimento para conceituar e desenvolver novas ferramentas sem a devida participação ética do ser humano.
Por isso, processos com diretrizes, conselhos de imprensa, autorregulação ou regulação (via leis governamentais) são importantes.
É preciso lembrar que estamos falando de plataformas como ChatGPT e DALL-E (da OpenAI), Bard (da Alphabet-Google) e Midjourney, entre outras que ainda irão surgir, cujos donos detêm muito poder e têm regras nada claras de funcionamento ou uso.
Essa fragilidade se dá, principalmente, pela mudança das relações entre os homens, a era da informação e da Internet, que trouxeram uma espécie de interação superficial entre as pessoas.
Nessa interação, o virtual passou a ser mais importante do que o real, por ser mais confortável do que a realidade, nos explica a autora norte-americana Michiko Kakutani, autora do livro A morte da verdade.
Um perigoso avanço tecnológico, ao estilo Black Mirror, série televisiva de ficção científica que aborda consequências imprevistas das novas tecnologias, que mexerá ainda mais com nossa capacidade de distinguir o que é real, do que foi alucinado pela IAG.
Pollyana Ferrari é livre docente em Comunicação e Educação pela Pontifícia Universidade Católica de São Paulo (PUC-SP), onde é professora do Programa de Estudos Pós-Graduados em Tecnologias da Inteligência e Design Digital (TIDD); doutora em Comunicação Social pela Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP), jornalista e autora de 11 livros sobre Comunicação Digital.
*
É permitida a republicação das reportagens e artigos em meios digitais de acordo com a licença Creative Commons CC-BY-NC-ND.
O texto não deve ser editado e a autoria deve ser atribuída, incluindo a fonte (Science Arena).