SOBRE
#Notícias
09.08.2024 Ética

Bioética e IA: qual o papel de médicos e pacientes?

Pesquisadores mapeiam problemas do uso de programas como ChatGPT na relação médico-paciente e sugerem como fazer melhor uso de ferramentas de IA

Grupo de pesquisadores se propôs a articular princípios de bioética com questões éticas relacionadas ao uso de grandes modelos de linguagem | Imagem: Shutterstock

As leis da robótica criadas pelo escritor russo-americano Isaac Asimov (1920-1992), que dão as bases para os argumentos de “Eu, Robô” (1950) e outas obras do autor de ficção científica, voltaram a ser reivindicadas nos últimos anos com a ascensão da inteligência artificial (IA). Antes mesmo dos robôs serem uma realidade, limites éticos eram uma preocupação para quem imaginava um futuro em que as máquinas auxiliariam os humanos em tarefas até então impensáveis.

No contexto atual, em que até recomendações médicas e tratamentos já contam com a ajuda da IA, a ética é uma preocupação ainda mais premente.

Em um artigo de revisão publicado na NEJM AI, revista do grupo The New England Journal of Medicine, uma equipe de pesquisadores se propôs a unir os princípios éticos do uso de grandes modelos de linguagem (LLM, na sigla em inglês), já discutidos em outras áreas, com a bioética.

Os LLMs são capazes de analisar grandes quantidades de dados de texto e identificar um sem-número de padrões que informam como os seres humanos conectam palavras e símbolos. Com isso, tais modelos aprendem a produzir novos textos.

A ideia dos autores é traçar diretrizes para o bom uso destes modelos na relação médico-paciente, uma vez que já são aplicados em outros campos, como no ChatGPT, e crescem cada vez mais em ferramentas voltadas a médicos e pacientes.

“A grande gama de aplicações de LLMs continuará a aumentar”, escrevem os autores do estudo.

“Aplicar e defender princípios bioéticos em cada cenário de interação pode ajudar a aumentar a confiança na relação paciente-médico.”

Embora a ética médica tradicional tenha sido focada nas responsabilidades dos médicos, os autores propõem uma mudança para uma distribuição mais equilibrada de responsabilidades, “enfatizando que os próprios pacientes devam ser responsáveis por cumprir seus papeis na relação.”

Por exemplo, os pacientes devem assumir, e discutir com o clínico, seu próprio uso de LLMs para obter informações sobre seu estado de saúde.

Para os autores, todas os três atores envolvidos na relação – paciente, médico e os sistemas que governam as LLMs – devem defender coletivamente os quatro princípios da bioética: beneficência, não-maleficência, respeito pela autonomia e justiça.

Beneficência e não-maleficência

No que se trata do primeiro princípio, beneficência, duas preocupações levantadas pelos pesquisadores são a responsabilidade e a confiabilidade. O uso responsável da IA passa pela própria intenção em construir uma IA benéfica, atestam.

Além disso, é preciso fazer uso das ferramentas corretas para aumentar o número de tarefas clínicas realizadas pela máquina, de modo a promover a eficiência.

Por fim, o foco deve ser em usos que beneficiem os pacientes.

Relacionadas ao segundo princípio, da não-maleficência, estão as chamadas “alucinações”, quando os modelos chegam a conclusões incorretas ou mesmo que induzem o paciente ao erro. Isso pode levá-lo mesmo a negar a necessidade de cuidado médico e à disseminação de informações falsas.

“O desenvolvimento responsável de aplicações de LLM para uso de pacientes precisará incluir uma clara indicação de que as respostas são baseadas em IA, com explicações das ressalvas e limitações do uso”, explicam.

Além disso, deve ser obrigatória a aderência dos desenvolvedores a informações factuais estabelecidas, com reavaliação, identificação meticulosa e mitigação de erros lógicos dentro do modelo computacional.

Autonomia e justiça

Para que seja obedecido o princípio da autonomia, é preciso assegurar a privacidade dos dados e o consentimento informado dos pacientes sobre a coleta dessas informações.

Para isso, é crucial implementar técnicas de anonimização dos dados que serão usados por algoritmos.

Também é necessário encorajar os pacientes a se engajarem em modelos de decisão compartilhada, em que humanos avaliam os resultados obtidos pela máquina para retreiná-la.

Por fim, no item relacionado à justiça, a preocupação se volta para a transparência e os vieses. Primeiro, reconhecer que os datasets (conjuntos de dados) e os processos usados para treinar as máquinas são verdadeiras caixas-pretas, e que os desenvolvedores estão pouco aptos a compartilhar.

De acordo com o artigo, é preciso garantir que os modelos sejam desenvolvidos numa perspectiva universal e que tenham performance equivalente em grupos de usuários distintos, inclusive aqueles historicamente negligenciados em estudos e mesmo no atendimento médico.

Os pesquisadores concluem que o rápido avanço dos LLMs em medicina oferece perspectivas animadoras para uma assistência em saúde aperfeiçoada, apesar da implementação ser complicada por desafios éticos.

Ainda que proponham a responsabilidade compartilhada entre médicos, pacientes e os envolvidos no desenvolvimento das ferramentas, os autores reconhecem que as diretrizes “não compensam completamente a falta de abordagens estabelecidas para verificar as propostas de valor e os riscos” dessas aplicações. Como fez Asimov, é preciso se antecipar aos perigos para evitá-los.

* É permitida a republicação das reportagens e artigos em meios digitais de acordo com a licença Creative Commons CC-BY-NC-ND.
O texto não deve ser editado e a autoria deve ser atribuída, incluindo a fonte (Science Arena).

Notícias

0 Comentários
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
Receba nossa newsletter

Newsletter

Receba nossos conteúdos por e-mail. Preencha os dados abaixo para assinar nossa newsletter

Captcha obrigatório
Seu e-mail foi cadastrado com sucesso!
Cadastre-se na Newsletter do Science Arena