Inteligência Artificial na saúde: “Precisamos de dados para salvar vidas”

Perigos da Inteligência Artificial(IA) nas próximas eleições, falta de bases de dados, avaliação dos sistemas de IA foram alguns dos temas do painel “IA e Governança: desafios e oportunidades”.

Inteligência Artificial e Governança: desafios e oportunidades. O debate sobre este tema reuniu especialistas, a 13 de novembro, na residência oficial do Embaixador dos EUA em Portugal. A regulação da Inteligência Artificial (IA) tem sido um dos ‘temas quentes’ dos últimos tempos, no que toca à utilização segura desta tecnologia que já está a mudar a sociedade, em especial nos EUA e na UE.
Daniela Braga, fundadora e CEO da Defined.ai, começou por identificar as diferenças entre a regulação da IA na União Europeia (UE) e nos EUA, que têm seguido caminhos diferentes. “O Regulamento Inteligência Artificial da UE vai penalizar os sistemas que não respeitem a regulação. Já o Regulamento dos EUA foca em como podemos testar estes sistema, não há uma penalização dura como na UE”, explica, ressaltando que as violações da Lei da IA da UE podem implicar multas até 30 milhões de euros ou 6% dos lucros globais, consoante o valor mais elevado. “Há menos recursos e investimento na UE e as penalizações não são um incentivo.”
No mesmo sentido, Paulo Dimas, líder do Center for Responsible AI, afirma que “deve haver um balanço entre a inovação e a regulação. A UE é demasiado conservadora e quer controlar demasiado a inovação”.

Da esquerda para a direita: Tiago Marques, Paulo Dimas, Daniela Braga e Elham Tabassi


Numa cimeira recente sobre IA, promovida pela Euronews, em Bruxelas, diversos representantes da indústria já tinham alertado que a UE poderia estar a regulamentar excessivamente a inteligência artificial.
“Temos de criar um marketplace, onde partilhemos esta regulação. Temos de construir pontes entre a UE e os EUA”, defende Paulo Dimas.
Os perigos da IA têm preocupado especialistas e a sociedade em geral. Sobre isso, a engenheira eletrónica e diretora do Instituto Nacional de Padrões e Tecnologia (NIST), Elham Tabassi,refere que, apesar da IA possuir efeitos positivos, “tem consequências negativas que podem gerar desigualdades”; logo “precisamos de métodos e metodologias para avaliar os sistemas de Inteligência Artificial”.
Por agora, o Regulamento da UE prevê adaptar-se a quatro categorias, alinhadas com níveis diferentes de risco: “Inaceitável”, “Alto Risco”, “IA Generativa” e “Limitado”. Os sistemas de IA serão tanto mais regulamentados quanto maior o risco que acarretarem.
“Uma forma prática de avaliar os sistemas de inteligência artificial é através dos dados. Se conseguirmos auditar a fonte dos dados, isso já é um passo gigante”, afirma Daniela Braga.
“Neste momento, temos redes sociais como o Tiktok, que sabemos que são usadas para propagar desinformação. Com a IA, não podemos cometer os mesmos erros que cometemos com as redes sociais e agir demasiado tarde”, alerta Paulo Dimas.
Para ambos os especialistas, há um perigo iminente que precisa de ser regulado e minimizado: a Inteligência Artificial nos processos eleitorais. “Tem de ser claro que estamos a interagir com o sistema de IA. É crítico haver um watermark e minimizar os riscos de IA com as eleições do próximo ano”, defende Daniela Braga.

Inteligência Artificial aplicada à Saúde

A Inteligência Artificial aplicada à saúde é um dos recursos mais promissores, estimando-se que até 40% das horas de trabalho em cuidados de saúde possam ser apoiadas ou aumentadas por IA generativa. De acordo com o estudo “Reinvent care delivery to solve clinical shortage”, metade das organizações de saúde a nível global estão a planear utilizar o ChatGPT para fins de aprendizagem e 52% AI copilotos em 2023.
“A Inteligência Artificial oferece um leque de possibilidades em muitos setores. No caso da saúde, já existe regulação, mas esta tem de ser adaptada à Inteligência Artificial”, afirma o investigador científico Tiago Marques.
Tiago co-lidera o Laboratório de Cirurgia Digital do Centro Clínico Champalimaud, onde está a desenvolver um dispositivo médico inovador que permite aos cirurgiões ver um tumor através da pele do paciente combinando Inteligência Artificial (IA) e Realidade Estendida ( XR).
“Os algoritmos têm de ser transparentes para sabermos por que é que tomam certas decisões. Não são feitos por médicos, mas é preciso haver colaboração entre os técnicos, os médicos e as universidades, para o seu desenvolvimento”, argumenta.
No mesmo sentido, Paulo Dimas ressalta que a Inteligência Artificial tem de ser “extensível e explicável”, para que um médico que utilize esta tecnologia tenha a possibilidade de perguntar ao sistema porque é que tomou aquela decisão, gerando maior confiança.“Queremos que a IA chegue a lugares remotos, onde não existem médicos, e, para isso, tem de haver confiança nestes sistemas.”
Mas, nada disto será possível sem dados. A IA automatiza a aprendizagem repetitiva e a descoberta a partir dos dados, o que no caso da saúde poderá ser um obstáculo.
“Na saúde, não há assim tantos dados disponíveis, devido à questão da privacidade dos doentes, por isso é mais difícil treinar estes sistemas que dependem de dados para evoluírem. Se tivéssemos dados, podíamos inovar equipamentos e salvar vidas”, afirma Tiago Marques. “Precisamos de fazer com que as pessoas percebam que ao estarem a partilhar os seus dados, isso beneficia-os.”
Daniela Braga relembra a possibilidade de utilizar Simulating Data (dados simulados) para criar bases de dados na saúde, sem comprometer a privacidade dos utentes.

1/4 portugueses disponíveis para fornecer dados para IA

Sobre a confiança nestas novas tecnologias, apenas 1 em 4 portugueses se mostram disponíveis para fornecer dados para que a IA faça algo por eles, aponta o Observatório Inteligência Artificial 2023, um estudo conduzido pelo Cetelem.
A maioria (56%) dos inquiridos afirma estar familiarizada com o conceito de IA e 65% garante “já ter ouvido falar e saber exatamente o que significa”, mas apenas 28% defendem que pode ser positivo para a sociedade.
7 em cada 10 refere que conhece alguma ferramenta de IA, enquanto metade (5 em cada 10) revela que já utilizou alguma ferramenta de IA. Neste contexto, o ChatGPT é a mais conhecida pelos portugueses (47%) e também a mais utilizada (33%).
97% identificaram tarefas que podem ser realizadas por ferramentas de IA. A verificação de texto e voz (82%); tradução de texto ou mensagem de voz (82%), responder a uma pergunta (72%), fazer um gráfico e analisá-lo (71%) e reproduzir uma voz igual à dos humanos (71%) são as tarefas mais reconhecidas. A maioria indica que as ferramentas de IA podem também criar um texto, como uma história ou um poema (67%), um vídeo com cenários, voz e personagens falsos (63%), um cartaz de publicidade (60%) ou produzir um produto ou serviço à medida do cliente (53%).
Apesar de se reconhecer algum conhecimento sobre este domínio, 19% percecionam que as pessoas não estão a conseguir acompanhar as evoluções tecnológicas.
Mais: consideram que têm avançado de forma muito rápida. Consequentemente, apenas 1/4 dos inquiridos vê o futuro do seu papel com o evoluir da IA como positivo.
Para este estudo foram realizadas 1000 entrevistas online, representativas da população portuguesa (quotas de género, idade e região de acordo com os dados do INE).