Uso de inteligência artificial na medicina pode levantar riscos éticos

Cientistas da Universidade de Stanford, nos EUA, alertam que o benefício do uso de algoritmos para fazer previsões e tomar decisões alternativas sobre cuidados a prestar tem riscos éticos.

“Começámos a notar, a partir de aplicações em áreas não médicas, que pode haver problemas éticos com a aprendizagem algorítmica quando estendida a grande escala”, afirmou o autor principal do artigo, Danton Char, citado em comunicado pela universidade norte-americana. Danton Char levanta questões concretas, como a de o algoritmo ser desenhado com o propósito de poupar dinheiro ao sistema de saúde ou a de diferentes decisões de tratamento de doentes se basearem na sua capacidade para pagar esses cuidados, como o terem ou não um seguro de saúde (nos Estados Unidos, o acesso à assistência médica está dependente de seguros de saúde).

Os investigadores alertam para o facto de os dados usados para criar algoritmos poderem conter erros que se refletem nos próprios algoritmos e nas recomendações clínicas geradas. Além disso, os algoritmos podem ser construídos para obter determinados resultados, nem sempre corretos, dependendo dos sistemas de saúde para os quais foram desenhados.

De acordo com os autores do artigo, a orientação clínica baseada na aprendizagem por algoritmos pode introduzir um terceiro ‘ator’ na relação médico-doente, desafiando a responsabilidade e a confidencialidade do relacionamento entre ambos. Por outro lado, sustentam que a informação sobre os doentes recolhida pelos sistemas de saúde pode ser utilizada sem ter em conta a experiência médica e a humanização dos cuidados prestados aos pacientes.

O excesso de confiança na máquina pode ainda conduzir a falsos diagnósticos se os médicos introduzirem variáveis que nem sempre se aplicam às situações, conclui a equipa científica da Universidade de Stanford.

LUSA/SO

Print Friendly, PDF & Email
ler mais
Print Friendly, PDF & Email
ler mais