EVENTO AR: Benefícios e Desafios de Viver com a IA

English Version

O que esperam e receiam vários especialistas de diversas áreas – neurociências, saúde, engenharia, educação, artes, direito – sobre o facto de a inteligência artificial estar por todo o lado nas nossas vidas? Foi este o tema do último Evento Ar na Fundação Champalimaud.

O primeiro dos Eventos Ar sob o lema “Roots of AI” foi sobre o passado – a história da inteligência artificial”. Agora, os “Directores Criativos” e os oradores convidados da Parte II da série, que teve lugar na Fundação Champalimaud (FC) no mês passado, debateram o “hoje” da IA, partilhando os seus pontos de vista sobre os prós e os contras da tecnologia. A Parte III (o último evento da série) terá lugar a 7 de maio e abordará o futuro da IA.

Sobre o presente, o Diretor Criativo Eric DeWitt – investigador associado do Cognitive Decision Science Group no Systems Neuroscience Lab da FC – começou por colocar as coisas em perspectiva, mostrando que a IA já invadiu as nossas vidas muito mais profundamente do que poderíamos pensar.

“Perguntámos-vos [ao público, antes do evento] quantas vezes interagiam com a IA por dia”, disse DeWitt. “E a maioria de vós respondeu cerca de uma a três vezes. Não fiquei convencido”.

É muito mais frequente do que isso, continuou a explicar. “Eis uma lista de coisas com que podemos interagir diariamente, desde um smartphone, o Bolt, o Instagram, e até ao robô que limpa o chão. Todas estas coisas utilizam alguma forma de IA. Estamos rodeados de algoritmos que actuam com base em dados para fazer previsões, quer se trate do mercado de acções ou de um armazém e do seu inventário, da detecção de códigos de barras ou do reconhecimento de rostos – e, claro, da personalização de todo o nosso mundo digital”. Não se pense que só ocasionalmente lidamos com a inteligência artificial na nossa vida quotidiana. Ela está literalmente em todo o lado, tanto nos nossos ambientes físicos como nos virtuais. “Todos os dias utilizo o DeepFace, um algoritmo de IA para o reconhecimento de rostos, para desbloquear o meu iPhone”, lembrou DeWitt ao público.

Alguns minutos antes, e após a visualização de um impressionante vídeo interativo gerado por IA em tempo real, a Directora Criativa Lydia Fettweis Neto, técnica de investigação, também do Laboratório de Neurociências de Sistemas, apresentou os oradores convidados. Um painel muito diversificado: Simone Lackner, investigadora multidisciplinar com formação em neurociências, “uma espécie de ‘diplomata’ entre ciência, arte, sociedade e política”; João Santinha, investigador sénior de engenharia biomédica no Laboratório de Cirurgia Digital da Unidade de Mama do Centro Clínico Champalimaud; James Anstis, responsável pela disciplina de Teoria do Conhecimento na Escola Internacional de Oeiras; Germán Méndez, Machine Learning Lead e Project Manager na Siemens Energy; Rudolfo Quintas, artista português “cujo trabalho utiliza técnicas interactivas, generativas e de inteligência artificial”; e Iakovina Kindylidi, advogada da VdA, especialista em cibersegurança e propriedade intelectual.

Cada um destes convidados apresentou a sua visão da IA tal como é actualmente utilizada e ficou claro que, embora todos pensem que a utilização de algoritmos baseados em IA pode trazer grandes benefícios na maior parte dos domínios da vida pessoal e profissional, neste momento também estão preocupados com os potenciais riscos e abusos a que pode levar.

FALSIDADE E VERDADE, SERÁ QUE AS CONSEGUIMOS DISTINGUIR?

Para Simone Lackner, a questão das informações falsas e verdadeiras é uma preocupação imediata. “Estamos no meio de uma enorme transformação digital global que colide com movimentos anti-ciência e pós-verdade”, afirmou. “Os meios de comunicação social estão a bombardear-nos com informações que são geradas por algoritmos que se baseiam nos nossos preconceitos cognitivos implícitos, jogando com as nossas emoções, o nosso bem-estar e a compreensão da realidade. Estou muito preocupada com a forma como o conceito de verdade objectiva se está a desvanecer e como as mentiras estão a passar não só para a História, mas também a pôr em risco o nosso presente imediato, afectando a psicologia individual, a dinâmica de grupo e, em última análise, a democracia.” A manipulação de eleições é um problema muito real neste contexto.

As notícias falsas, a propaganda e a desinformação não são novidade. Mas hoje, explica Lackner, graças ao desenvolvimento da Internet e da IA, a informação pode ser direccionada para um público-alvo. “Agora, com as novas ferramentas de modelos de linguagem, como o ChatGTP, que são treinadas com base no nosso tráfego de dados enviesados na Internet e devolvem informações curadas e convincentes como sendo uma verdade objetiva com elevada confiança, existe um perigo claro de produção em massa consciente e inconsciente de desinformação”, alertou.

Terminou com uma nota mais positiva sobre o que podemos fazer para contrariar o perigo. “Estou convencida de que a IA é uma ferramenta”, afirmou. “É feita por humanos e deve ser utilizada para aumentar o nosso bem-estar. Por isso, devemos ser nós a decidir como os algoritmos devem ser treinados. Temos de refletir, ter consciência emocional e praticar a humildade intelectual antes de gostarmos, partilharmos ou comentarmos informações. Porque todos os nossos preconceitos cognitivos herdados entram na IA, temos de pensar nisto – não só como cientistas, mas também como consumidores e produtores de media em linha – e, por conseguinte, como formadores conscientes ou inconscientes das novas ferramentas de IA em evolução”, concluiu. A responsabilidade é nossa, por outras palavras.

TRANSFORMAR A CIRURGIA

João Santinha, que desenvolve ferramentas de IA e de realidade aumentada para a cirurgia do cancro da mama na FC, acredita firmemente nas boas utilizações que a IA pode ter – talvez porque, na sua área de trabalho, as coisas estão a avançar mais depressa numa direção positiva.
 
“Acredito que a IA pode ter um grande impacto na carga de trabalho dos profissionais de saúde, na melhoria dos cuidados prestados aos doentes, e ter um impacto positivo nos procedimentos de cuidados de saúde, com vista a uma prestação de cuidados mais pessoal, mais conectada e mais humana”, afirmou. Hoje em dia, explicou, a IA já começa a ser utilizada para tomar notas de consultas médicas, permitindo aos médicos prestar mais atenção aos seus doentes e poupar dezenas de horas de papelada todos os meses! A IA também pode tornar os relatórios dos médicos mais fáceis de perceber para os doentes e para os seus próprios colegas. “No Laboratório de Cirurgia Digital da Fundação Champalimaud”, exemplificou Santinha, “desenvolvemos uma aplicação capaz de ouvir o relatório ditado por um radiologista e, usando um grande modelo de linguagem [de que o ChatGPT é o exemplo mais conhecido], simplificar e estruturar estes relatórios, normalmente não estruturados, para os tornar mais claros e concisos.”
 
Santinha também mencionou os últimos desenvolvimentos do seu laboratório: dispositivos médicos baseados em IA e em realidade aumentada que podem vir a ser revolucionar a cirurgia do cancro da mama e os procedimentos clínicos.
 
Uma doente que tenha de ser submetida a uma cirurgia da mama tem duas opções, explicou ainda: uma mastectomia, que é a amputação completa da mama afetada pelo cancro, ou uma cirurgia conservadora da mama, que é o procedimento preferido. Nem todas as doentes necessitam de uma mastectomia radical, mas devido à falta de informação sobre o tumor – nomeadamente a sua localização exacta e a sua forma –, por vezes são prescritas mastectomias onde poderia ter sido realizada uma cirurgia conservadora da mama. E, inversamente, com a cirurgia conservadora, por vezes é necessária uma segunda operação para remover completamente o tumor.  
 
“O que estamos a tentar fazer é utilizar imagens médicas das doentes com cancro da mama para criar um modelo 3D personalizado do seu tronco, um ‘gémeo digital’ da mama da doente que pode ser utilizado para um melhor planeamento cirúrgico, conduzindo a um menor número de mastectomias”, disse Santinha. “E no bloco operatório, durante a cirurgia, o cirurgião poderá efetivamente ‘ver’ o tumor e os seus limites através da pele da paciente, e assim realizar uma intervenção mais precisa, removendo o tumor e conservando ao máximo o tecido saudável.”
 
Santinha admitiu, no entanto, que a transação da investigação para a prática clínica é difícil e que ainda há um longo caminho a percorrer para a adoção generalizada da IA nos cuidados de saúde. Um dos obstáculos, disse, é que as instituições médicas ainda não estão dispostas a partilhar os dados e as imagens dos seus doentes numa única grande base de dados que possa ser facilmente acedida pelos investigadores (todos concordam que apenas grandes quantidades de dados médicos podem permitir  treinar correctamente os algoritmos de IA, não só em medicina mas em todos os domínios). No que diz respeito à área da medicina, Santinha considera que já existem ferramentas para o conseguir sem pôr em causa a privacidade dos doentes e que estas devem ser utilizadas o mais rapidamente possível para fazer avançar a investigação.

E QUANTO À EDUCAÇÃO?

Quanto a James Anstis, não confia muito na partilha honesta e transparente de informações, pelo menos no âmbito do ensino – embora, tal como os oradores anteriores, considere que as potencialidades positivas da utilização da IA são muitas. “Desde fornecer aos professores ideias de aulas criativas e estimulantes até a ajudá-los com as correcções de provas, a IA já está a mudar as nossas vidas profissionais. E para os estudantes, desde ajudá-los a identificar os erros de procedimento num problema de matemática até a actuar como um tutor pessoal, treinando-os e orientando-os nas áreas específicas em que precisam de maior apoio académico, a IA pode potencialmente acelerar a aprendizagem de uma forma que seria inimaginável há apenas dois anos. Tudo isto é revolucionário”, declarou.

Mas actualmente, salientou, a utilização da IA na educação tem também um lado escuro. “Neste momento, estas potencialidades são uma preocupação secundária em relação à questão principal: a questão da desonestidade académica, que é o termo usado pelos professores para dizer batota”, sublinhou, aludindo ao facto de os estudantes pedirem aos chatbots de IA que escrevam os seus trabalhos e outras tarefas por eles.

Há formas possíveis de contrariar esta situação, que implicam um controlo mais rigoroso e a definição de regras por parte dos professores, como proibir a utilização de dispositivos electrónicos nos exames ou fazer com que os alunos façam os seus trabalhos em plataformas controladas pelos professores, capazed de detectar as batotas. Mas isso não resolverá o verdadeiro problema da educação: as razões pelas quais os alunos a consideram que a educação importante.

Em conversas com os seus alunos, Antis descobriu uma triste verdade: que a educação é importante para eles porque a associam ao dinheiro – “uma casa grande, um bom carro, férias exóticas” –, ao estatuto profissional (tornar-se médico, advogado, engenheiro) e aos desejos dos pais.

A palavra-chave aqui é o sucesso, “definido através da lente do dinheiro, do estatuto e dos valores culturais normativos, valores que sabemos que não promovem o bem-estar na escola ou depois dela”, lamentou Anstis. “E a IA está simplesmente a amplificar uma cultura pré-existente cuja motivação natural (…) é uma nota e não uma aprendizagem significativa”. De acordo com um estudo realizado nos EUA, em 2023, 43% dos estudantes universitários do primeiro ano utilizaram o ChatGPT para os ajudar a escrever os seus trabalhos de curso. Enquanto esta cultura prevalecer, Anstis espera receber “uma verdadeira avalanche de redacções escritas por jovens de 17 e 18 anos com a ajuda da IA”.

Por isso, na sua opinião, a questão de como garantir a integridade académica dos estudantes neste novo cenário de IA não é, de facto, a questão certa. “A IA deve ser importante para todos nós neste momento, porque pode fazer-nos repensar o que queremos da própria educação”, concluiu.

RESOLUÇÃO DE PROBLEMAS ENERGÉTICOS COMPLEXOS

A intervenção de Germán Méndez foi mais optimista. “A IA está a fazer uma pequena revolução no mundo da engenharia”, começou por afirmar este “engenheiro de IA”. Ele e a sua equipa, disse, estão “a criar soluções de IA para resolver e, de alguma forma, ter uma resposta, para grandes problemas complexos”,  tais como a produção e a transmissão de energia.
 
A IA pode ajudar a fazer coisas que nem mesmo milhares de engenheiros juntos seriam capazes de realizar, tal como efectuar simulações que tenham em consideração todos os cenários possíveis. Sem os algoritmos de aprendizagem profunda da IA, esta seria uma tarefa praticamente impossível.
 
Mas há também o problema das emissões atmosféricas e, segundo Méndez, ele e a sua equipa também estão a pensar em modelos de IA para controlar e reduzir a pegada de carbono das máquinas que consomem combustível. “Podemos cumprir a promessa de ter um baixo impacto [de carbono]”, afirmou, “tentando acelerar a criação de hardware que possa capturar o carbono”.
 
“Há muitos obstáculos e desafios a ultrapassar”, admitiu Méndez. “Um desses desafios é: podemos confiar a 100% neste tipo de algoritmos?” Outro desafio é o custo da sua implementação, porque o treino de algoritmos de IA é muito caro. “Uma das minhas principais preocupações é a quantidade de energia que a própria IA está a consumir neste momento”, salientou, sublinhando a necessidade de criar hardware mais eficiente para treinar as máquinas de IA.
 
O custo da IA é uma preocupação muito legítima. Em 2023, o treino global dos algoritmos de IA consumiu tanta energia como os Países Baixos, que tem oito milhões de habitantes! E, como é previsível, os requisitos computacionais da IA deverão aumentar exponencialmente. Como é que iremos lidar com estes desafios? As respostas ainda estão em aberto. “Mas temos de estar conscientes de que a IA veio para ficar. Não podemos ficar fora da rede”, concluiu Méndez.

VÃO OS ARTISTAS TORNAR-SE OBSOLETOS?

Quanto ao orador seguinte, o artista digital Rudolfo Quintas, levantou o seguinte problema: “Com todas as novas revoluções tecnológicas, coloca-se sempre a questão de saber se a arte se tornará obsoleta”. A tecnologia, ao longo de toda a história da arte, sempre pôs em causa não só a forma como os artistas fazem arte, mas também os direitos de autor, as royalties, a distribuição. Alterou o acesso do público à arte e conduziu a novos movimentos artísticos. “Passámos de um período de tecnologia de produção de arte para o século XX, um período de tecnologia de reprodução [fotografia], e para o actual período de tecnologia generativa”, salientou o artista.
 
E o que está a acontecer, segundo Quintas, é que estamos agora “a suprimir radicalmente algo que é muito importante: o processo criativo, o tempo durante o qual os artistas fazem perguntas, lidam com as suas emoções, cometem erros e têm novas ideias. (…) A minha convicção é que isto irá muito em breve gerar uma nova corrente de ‘fast food art’, arte que é criada – desculpem, imaginada – e esquecida em dois segundos”.
 
Quintas também está preocupado com a proliferação de chamados “deepfakes” na Internet. Estes “desendentes” quase perfeitos das imagens digitais manipuladas por Photoshop são capazes de substituir de forma convincente o rosto de uma pessoa pelo de outra, ou de criar imagens geradas por computador de seres humanos que não existem na vida real. Quintas produziu trabalhos artísticos para sensibilizar o público para o facto de as deepfakes, que estão a tornar-se cada vez mais elaboradas e difíceis de distinguir de imagens verdadeiras, poderem ameaçar as nossas democracias através da disseminação de desinformação.
 
E, como artista, é obviamente sensível à violação dos direitos de autor. Por exemplo, os utilizadores de geradores com IA de imagens a partir de texto, como o DALL-E ou o Midjourney, podem estar a incorrer em violações de direitos de autor, simplesmente por as imagens que essas empresas utilizam para treinar os seus algoritmos estarem protegidas por direitos de autor.
 
Mas, tal como os outros oradores, Quintas afirma que nem tudo na IA é negativo e perigoso: “a IA generativa também abrirá novas oportunidades na indústria criativa”, afirmou. Na sua opinião pessoal, “a questão não é a de como a IA pode substituir o que já fazemos bem – como fazer pinturas, imagens ou música –, mas a de como a IA pode ajudar os artistas a aplicar a sua criatividade aos dados, algo que não conseguimos fazer com os meios tradicionais”.

UM MARCO IMPORTANTE: A LEI EUROPEIA DA IA

A última oradora convidada da noite foi a advogada Iakovina Kindylidi. “A IA também está a mudar a profissão de advogado”, afirmou. “Há cerca de seis anos que pesquiso e trabalho em IA e há um ano que utilizo mais do que uma ferramenta de IA todos os dias, várias vezes por dia, no meu trabalho. Mas será que elas  vão substituir os advogados? Penso que não”.
 
Mas, mesmo assim, as suas utilizações apresentam muitos problemas, acrescentou Kindylidi: enviesamentos nos cuidados de saúde, a quantidade de energia necessária para treinar grandes modelos linguísticos, o aumento do plágio e a violação de direitos de autor, a criação de deepfakes elaborados que espalham desinformação e notícias falsas. “A IA, enquanto ferramenta, pode, na realidade, agravar os nossos problemas muito humanos”.
 
Outra questão muito complexa no domínio jurídico, explicou, é o chamado problema da caixa negra. “Em termos simples, quando tenho um modelo de IA de aprendizagem automática ou de aprendizagem profunda, consigo ver o input, consigo ver o output, mas não sei o que aconteceu lá dentro. E se não sei, não sei de quem é responsável pela correção dos erros. E, muito provavelmente, nem consigo corrigir os erros”. 
 
Evocou depois o European AI ACT, recentemente aprovado pelo Parlamento Europeu. “É o primeiro regulamento abrangente sobre a IA, não só para a Europa, mas para o mundo”, salientou. “Trata-se de um regulamento histórico, que marca um momento crucial na definição do futuro da IA”. Não só as empresas que fornecem IA, mas também as que a utilizam, estarão sujeitas a este regulamento.
 
A lei da IA já é regulada pela lei geral: um crime, quando cometido com IA, será sempre um crime, punível por lei. No entanto, a Lei da IA é necessária para clarificar “a aplicação de um quadro jurídico, que é muito antropocêntrico, a algo que não é humano”, afirmou a advogada.
 
Quando a Lei da IA entrar em vigor, o que ela acredita que deverá acontecer no final de abril ou no início de maio, as empresas que produzem ou utilizam IA terão alguns meses para se adaptarem. “Vou estar muito ocupada!”, brincou Kindylidi.
 
“Penso que também teremos de aumentar a nossa própria consciência da IA, a nossa literacia digital e avaliar o nosso trabalho e os nossos valores sociais e humanos”, concluiu.

TODOS JUNTOS AGORA!

A noite terminou com todos os oradores sentados em cadeiras no palco a responder a perguntas colocadas pela Directora Criativa Lydia Fettweis Neto. Perguntas como: se um sistema de IA falhar, quem é que acha que é responsável? O que acha do crescimento exponencial das aplicações de bem-estar e saúde? Acha que a IA vai facilitar ou dificultar a gestão dos nossos preconceitos cognitivos face a tanta informação?
 
A resposta de Germán Méndez à última pergunta – “Há algum benefício que gostaria que a IA nos trouxesse no futuro? – foi particularmente interessante. Germán Méndez deseja que a IA nos permita “divertirmo-nos” durante o tempo que irá libertar, poupando-nos a trabalhos enfadonhos. Mas isto revelou uma potencial desvantagem: que este tempo extra faça com que as empresas exijam uma maior produtividade aos seus empregados, em vez de os deixarem desfrutar dele ou gastá-lo noutras coisas significativas. “É provável que isto aumente a pressão sobre nós para produzirmos mais depressa e melhor, ou para reduzirmos o tempo de chegada ao mercado”, especulou.

DEVEMOS ABRANDAR PARA PENSAR?

Imediatamente antes deste debate geral, o Diretor Criativo Eric DeWitt resumiu o serão. “O que significará para nós, nos próximos anos, viver com a IA?”, perguntou. Os transtornos de ordem humana e societal foram um tema comum ao longo de toda a noite, observou, “embora se para o bem ou para o mal nem sempre saibamos com certeza. Por isso, acho que gostaria de dar uma pequena perspetiva pessoal”.
 
O facto é que todas as revoluções técnicas ao longo da História criaram transtornos que exigiram uma adaptação por parte dos seres humanos e da sociedade. “Enquanto os nossos cérebros não mudaram nos últimos 50.000 anos, a nossa cultura adaptou-se vezes sem conta”, acrescentou DeWitt. Mas em apenas 10 anos, o crescimento da IA foi exponencial, enquanto “a nossa natureza humana evolui de forma bastante lenta”.
 
DeWitt questionou então se estamos preparados para nos adaptarmos com rapidez suficiente às perturbações que a IA está a provocar. “Como neurocientista que estuda os seres humanos, a psicologia humana, a tomada de decisões humanas e a tomada de decisões em grupo, tenho algumas dúvidas”, afirmou. “Não sei se já sabemos o suficiente sobre nós próprios e sobre a nossa cultura”, nem se existem mecanismos para nos adaptarmos ao ritmo necessário.
 
“Devemos tentar pensar em como distribuir de forma igualitária os benefícios que podem advir da IA, independentemente de quem estava no controlo na altura em que estas coisas foram desenvolvidas ou de quem detém os dados. E podemos tentar abrandar um pouco”, concluiu.

Loading Likes...