Daniel Hulme: “O maior risco da IA é fomentar maus investimentos”

Empreendedor e especialista explica tendências no desenvolvimento de IA, como pode criar valor para uma organização e como Portugal se pode posicionar para estar no “ecossistema de inovação”

A Inteligência Artificial é uma prioridade para todas as organizações e o país quer estar na linha da frente. Este foi o repto do evento “Portugal, um país preparado para a IA?” organizado pela WPP, em Lisboa, que contou a com a participação do ministro da Economia, Pedro Reis, do dean da Nova SBE, Pedro Oliveira, e Daniel Hulme, Chief AI Officer da WPP e CEO da tecnológica Satalia.

Este especialista partilha a sua visão de como pode o país posicionar-se ou como pode ajudar as empresas a criar valor e a libertar o seu “potencial humano”.

Estamos a viver uma “febre” de Inteligência Artificial?
Daniel Hulme — Penso que não. Eu faço investigação sobre IA há 25 anos e estamos [a Satalia] envolvidos nessa área há pelo menos 17. Temos desenvolvido soluções com IA para algumas das maiores empresas do mundo e quando interagimos com os seus líderes, estes têm tipicamente uma abordagem muito pragmática.

Às vezes, há um investimento excessivo, ou mesmo maus investimentos, em tecnologias emergentes: contratam-se especialistas que são difíceis de reter ao fim de alguns anos. Mas a maioria das organizações é bastante pragmática ao identificar o valor acrescentado de utilizar e integrar a tecnologia, para resolver fricções nos processos e torná-los mais eficientes.

A IA hoje faz manchetes pela atenção que o ChatGPT gerou junto do público em geral, que o despertou para o seu poder transformador. Mas, no dia-a-dia, as lideranças são bastante pragmáticas na integração destas tecnologias nas organizações.

Parece-lhe que o público em geral sobre ou subestima essa potencialidade?
— Bom, penso que é o típico caso de sobrevalorizarmos o poder da tecnologia no curto prazo e subvalorizá-lo no longo prazo. Integrá-la numa organização é demorado: tem que se testar a sua viabilidade, encontrar uma forma de a implementar de uma forma segura, responsável e escalável, formar pessoas… Embora percebamos o seu potencial e os benefícios a retirar, a realidade é que a sua implementação exige muito tempo. Dito isto, uma vez integrada, muda o paradigma. A IA é provavelmente a tecnologia mais transformadora que a espécie humana criou.

Defende que há muitos equívocos sobre o que é a IA. Porquê?
— Nos últimos anos, olha-se para Large Language Models (LLM) como o ChatGPT e assume-se que estes são IA. Estes modelos generativos (GenAI) conseguem fazer coisas que até agora só os humanos conseguiam fazer e isso captou a imaginação do público. Suponho que redunda num problema de definições.

A definição mais popular de IA, que me parece bastante fraca, é “pôr computadores a fazer o que os humanos conseguem fazer”. Mas tornar o ser humano a referência não é o caminho certo para o desenvolvimento da IA. Se construísse uma máquina que conseguisse funcionar como uma abelha, seria uma das coisas mais inteligentes alguma vez criada.

A definição que me parece ser bastante mais acertada para a IA é “um comportamento adaptável direcionado para objetivos” (goal-directed adaptive behaviour), ou seja, sistemas que se adaptam às circunstâncias. Ainda assim é uma formulação muito desafiante, porque modelos adaptáveis e seguros são extremamente difíceis de criar. Por isso, a maioria dos sistemas a ser desenvolvidos não são adaptáveis.

O nosso esforço tem sido no sentido de criar paradigmas que não concebam a IA pelo prisma de tecnologias, como o ChatGPT, ou de definições, mas antes por aplicações. Identificando oportunidades para melhorar a eficácia e/ou eficiência numa organização, ter uma estrutura que permita mapear a tecnologia algorítmica [tecnologias que recorrem a algoritmos para minimizar a intervenção humana em processos] necessária para resolver esse problema. A verdade é que tanto GenAI como os LLM só resolvem cerca de 10 a 20% das fricções que existem numa organização. Há outras tecnologias, como Machine Learning e otimização, mais adequadas para resolver esse tipo de problemas.

Parece-me que “adaptável” é a palavra, o conceito-chave. Darwin explicou que é a capacidade de se adaptar que determina a inteligência de uma espécie. Os seres humanos são muitíssimo adaptáveis – por isso são considerados a espécie mais inteligente do planeta.

Esse desconhecimento, conjugado com o fascínio, aumenta o risco de fraude?
— O mais importante é educação. Passo uma boa parte do meu tempo a formar líderes empresariais a olhar para lá de GenAI e a saber implementar os algoritmos certos para os problemas certos. O maior risco da IA é a falta de conhecimento sobre as suas capacidades poder fomentar maus investimentos.

Encontra muitas reservas sobre a integração destas tecnologias ao nível estratégico (por oposição ao operacional)?
— Não me parece. A maioria dos líderes com que trabalho consegue compreender a sua potencialidade. A capacidade de formar e sensibilizar as lideranças para entender isso é um dos desafios, claro. O segundo grande desafio é a capacidade de atrair, envolver e reter talento que consiga desenvolver inovações que possam diferenciar uma empresa. Esta é a grande barreira para a maioria das organizações. O talento nesta área é o elemento de diferenciação. Repare, uma coisa é construir modelos de IA; outra é ter acesso aos dados que tornam a IA “inteligente” e aproveitá-los. Só o talento permite a gestão destas mudanças e a sua implementação nos processos de produção.

Como pode, então, a IA acrescentar valor?
— A aplicação de algoritmos a problemas de grande escala – por exemplo, o sistema de entregas da Tesco, desenvolvido pela Satalia – permite reduzir o número de ineficiências, custos e emissões de carbono até 20-25%. Isto não só reduz os gastos, como desbloqueia outras aplicações para os recursos que estavam a ser consumidos, no fundo, novas fontes de rendimento.

A capacidade de realizar tarefas repetitivas até aí feitas por humanos liberta estas pessoas para funções mais importantes e criativas, onde se revela a vantagem do ser humano. A IA assegura tanto ganhos de eficiência como de eficácia, transforma verdadeiramente os processos.

A maioria dos especialistas alerta para a armadilha de considerar a IA “à parte”, sem integrá-la plenamente numa estratégia, e até de “digitalizar a burocracia”. Este é um risco?
— A diferença entre software e IA é que os algoritmos desta são opacos. Isto é, não temos bem a certeza de como tomam certas decisões. Por isso, quando desenvolvo um modelo de IA tenho de garantir que é transparente, que é explicável e consigo justificar a sua decisão. Isto quer dizer que se uma empresa está montada ou configurada para integrar software em escala, provavelmente conseguirá integrar IA – assumindo que tem acesso ao talento necessário.

Não tem de ser um “elemento à parte”, mas um potenciar (“an augmentation“) dos processos de desenvolvimento de software já existentes. Por isso, se uma firma não é capaz de desenvolver e integrar inovações em software diferenciadoras e capazes de ganhar escala, então provavelmente não será capaz de desenvolver soluções de IA. Nesse caso, o melhor será recorrer a um parceiro que o consiga fazer.

Nas últimas décadas houve um impulso de considerar a insuficiência de dados de uma organização como uma barreira para utilizar estas tecnologias. Mas a realidade é que muitas nunca terão dados suficientes, ou suficientemente organizados. Tem de se começar na identificação do problema e daí recorrer a tecnologias adequadas que tenham acesso aos dados relevantes para o resolver.

Costuma-se pensar ao contrário?

Exato. A capacidade de integrar ferramentas de IA vai-se construindo ao longo do tempo, conforme se vão resolvendo problemas e desse modo gerar valor.

Às vezes ter mais insights leva a melhores decisões. Ter um IA a ajudar um radiologista a identificar cancros que possam escapar ao olho humano é ótimo, não é? Mas numa grande empresa, em que é preciso ter pessoas a gerir a distribuição de funções e responsabilidades, ter mais insights sobre as qualidades e capacidade dos trabalhadores não resolve o problema. Continuam limitados pela complexidade do que no fundo é um problema de matemática por resolver.

Repare, distribuir 5 pessoas por 5 funções permite 120 combinações. 15 pessoas para 15 funções, um bilião de possibilidades. Basta chegarmos às 60 pessoas para 60 funções para o número de combinações possíveis ser superior ao número de átomos no universo. Portanto, aqui os insights que a IA possa dar aos gestores não iria resolver o que, para todos os efeitos, é um problema de otimização. Eu proponho que com IA se resolva primeiro o problema e depois, retroativamente, perceber o que é necessário para que este possa tomar melhores decisões.

Mas, de novo, se a organização não tem um pedigree no desenvolvimento de software com escalabilidade, terá dificuldade em construir IA.

Uma das ferramentas que destaca são digital twins. O que são e como é que se podem aplicar?

Há três versões de digital twins. Pode ser uma representação digital de um ativo, por exemplo um telefone – dos seus componentes, ligações, etc -, como pode representar uma empresa, simulando o fluxo de bens e serviços ao longo da cadeia de produção. Isto permite simular cenários em eventualidades como o Covid, por exemplo, ou um fornecedor não cumprir com uma entrega.

Uma ferramenta de stress tests, portanto?

Precisamente. O terceiro digital twin é de indivíduos, de pessoas. Quando temos um assistente digital no telefone, este tenta aprender sobre nós: sobre quem somos, os nossos hábitos, comportamentos. Em último caso, poderia até tomar decisões por nós. Penso que isto é muito entusiasmante, porque permite que possamos estar a fazer coisas mais interessantes.

O que provavelmente vamos ver nos próximos anos são digital twins da nossa vida profissional. Podem ser utilizados para distribuir funções numa organização… até para simular o melhor percurso para a carreira de um determinado trabalhador. Mas também irá acontecer nas nossas vidas pessoais, seja para fazer compras por nós ou dar conselhos sobre hábitos de saúde, por exemplo.

Mas isso não cria problemas de responsabilização?

Esse risco existe em qualquer software, utilize ou não IA. A qualquer sistema que tenha um impacto na vida das pessoas impõe-se o dever de ser seguro e responsável. A IA está a acelerar esse imperativo, não a mudá-lo. Em marketing, por exemplo, não temos de cumprir com esse dever devido ao IA; sempre tivemos de assegurar a segurança e responsabilidade da publicidade que desenvolvemos.

Assim sendo, qual será o elemento diferenciador entre empresas?

A liderança, a capacidade de aceder e potenciar talento na área de IA e dados. Como são os dados que tornam um IA inteligente, ter dados diversos e diferenciados permite ultrapassar a concorrência.

Aqui também é muito importante o propósito de uma organização, particularmente para atrair talento. Quando estava na universidade, o percurso habitual era tirar Engenharia Informática, ir trabalhar para um banco e 30 anos depois reformar-se numa casa de sonho. Hoje, do outro lado dos bancos, vejo nos meus alunos um ênfase muito maior na necessidade de trabalhar com um propósito, de fazer algo de que se possam orgulhar e que tenha um impacto positivo na sociedade. Mas mesmo do lado dos consumidores, penso que estes serão leais a marcas que tenham um propósito definido.

Que mais poderemos esperar do desenvolvimento de IA?

Acredito que poderemos começar a atribuir consciência a máquinas. É fácil pensar, e boa parte do público fá-lo, que este LLMs como o ChatGPT são conscientes. Isso é problemático, temos de pensar no que implica. O que antes era ficção científica podem agora ser perguntas com que teremos de nos confrontar. Há tecnologias a emergir das universidades, como a computação neuromórfica [N.R. inspiradas no funcionamento do cérebro humano], que irão levantar questões semelhantes sobre a construção de máquinas alinhadas com a nossa biologia.

O Daniel recebeu uma bolsa para estudar a cultura de inovação nos EUA. O que descobriu?

Em 2009, recebi uma bolsa para estudar como nos EUA se aproveita a inovação nas universidades para transformá-la em negócios sustentáveis. Passei 6 meses entre universidades e empresas para perceber como os EUA criaram um “ecossistema de inovação”.

Soa algo óbvio, mas a realidade é que têm um mercado muito grande. As ideias podem crescer muito e muito rápido. Notei também que têm já gerações de académicos que deixam a cátedra para criar empresas, que rapidamente ganham dimensão, vendem-nas por imenso dinheiro e regressam à universidade onde investem em talento da próxima geração. São académico-empreendedores!

O networking também é um aspeto muito importante deste ecossistema. Se conseguir interessar alguém na minha ideia para um negócio, sou rapidamente apresentado à rede dessa pessoa. Eu sei que é um clichê, mas o networking permite lubrificar e olear as ideias, aceder a talento, decisores, clientes e investidores. Por isso, aconselho sempre as empresas em que invisto a aproveitar esses momentos não só para apresentar o negócio, mas para perguntar com quem também deveriam estar a falar.

Ou seja, a iniciativa não está nas empresas recorrerem às universidades, mas das universidades se criarem empresas.

Nos EUA, sem dúvida. No Reino Unido é muito pouco comum. A ideia de sair do trajeto habitual de publicações e aulas para fundar uma empresa é assustadora para muitos académicos. Isto está a mudar, já se vê uma primeira geração de académico-empreendedores no Reino Unido, mas ainda não é comparável.

O ministro da Economia revelou que há multinacionais tecnológicas a considerar Portugal para um hub. Consegue perceber porquê?

Sempre tive um carinho especial por Portugal e o talento português. Dentro dos vários campos de conhecimento algorítmico a que podemos chamar “de IA”, há certas geografias pelo mundo onde o meio académico continua a investir na variedade de tecnologia algorítmica, desde machine learning a GenAI. O Brasil e Portugal, por exemplo, são muito fortes no domínio da otimização. Portanto, o país tem conhecimento e o talento para os implementar em sistemas de produção.

A diversidade aqui também é um dos pontos-fortes. Quando se constroem sistemas complexos, é muito importante ter perspetivas diferentes, que desafiem hipóteses e obriguem a testar alternativas.

O que é que poderíamos fazer mais?

Acho que têm que conseguir criar uma geração de empreendedores bem-sucedidos. Seria o catalisador de uma economia mais forte. Bem sei que provavelmente terão de sair para encontrar financiamento e oportunidades de crescimento – olhe, como nos EUA! Mas se forem encorajados a voltar e a investir na próxima geração, podem ajudar a reduzir a fricção na transição da tecnologia e da inovação da academia para as empresas.

Eu sou Entrepeneur in Residence (empresário residente) na University College, London e há quase 20 anos que ajudo académicos a transformar a sua investigação numa tecnologia – um grande salto, diga-se – e essa tecnologia num negócio. Quanto menores os entraves à inclusão da investigação na economia, mais se acrescentará valor.

A UE aprovou em maio o AI Act. Como encara esta regulamentação?

Todos os avanços tecnológicos com impacto na Humanidade foram regulados. Os automóveis, os aviões, os medicamentos… A IA também precisa de regulação.

Quase todas as empresas que vejo a trabalhar em IA se auto-regulam. Não estou a dizer que é suficiente, mas as pessoas têm famílias, têm amigos, têm as suas vidas. Têm todo o interesse em garantir que estas tecnologias são utilizadas para o bem. Dito isto, penso que tem de haver regulação. Acho que a União Europeia foi no sentido certo ao não tentar regulamentar tecnologias mas o seu impacto.

Não sei se olhar para as indústrias pelo prisma do risco não é demasiado genérico. Mesmo numa empresa numa atividade de baixo-risco há tecnologias que têm impacto na vida das pessoas, outras que não. Mas não me parece demasiado exigente tentar enquadrar os aspetos que são comuns a todos os setores de atividade, que têm impacto material nas nossas vidas, e procurar mitigar os riscos associados a cada uma. Temos de ser um bocadinho mais pormenorizados quando pensamos em IA.