(Available in English)
A aliança entre o excêntrico Elon Musk e o austero Bill Gates pode parecer surpreendente, mas acaba de alcançar o seu primeiro resultado – e é um resultado inesperado! Um ano após a assinatura do acordo entre as empresas OpenAI e Microsoft, o algoritmo GPT-3 foi oficialmente apresentado a 28 de Maio de 2020 sob a forma de uma publicação científica (ver aqui). Embora ainda não se trate da super-inteligência que tanto faz sonhar os transhumanistas, o avanço é suficientemente significativo para levantar questões políticas relevantes. Ponto da situação.
A Internet pelo passe-vite
O desempenho desta super-rede neuronal (175 mil milhões de parâmetros) faz sonhar e tremer os geeks e os tecno-cépticos do mundo inteiro pela sua capacidade de imitar o ser humano numa inacreditável diversidade de contextos linguísticos. Do menu constam obviamente a tradução, a correcção ortográfica e a auto-conclusão das frases, mas também a resposta a perguntas abertas, a redação de textos que imitam o estilo de autores conhecidos ou ainda a codificação de páginas web – e até uma surpreendente capacidade para resolver problemas de aritmética (aceda a uma lista de aplicações aqui e aqui).
E tudo isto sem a mínima supervisão humana: a rede de neurónios é simplesmente treinada para conseguir prever a palavra seguinte no meio de um gigantesco corpus linguístico de vários milhares de milhões de frases. Para ter uma ideia do tamanho deste conjunto de dados, basta dizer que a totalidade da Wikipédia apenas representa 3% do corpus. É uma boa parte da Internet – guardada todos os meses pelo Common Crawl – que é mastigada por este algoritmo, que utiliza o princípio de cálculo Transformer, inventado há apenas três anos pelos engenheiros da Google. Resumindo, trata-se de um método que permite contextualizar muito mais profundamente o sentido de cada palavra ao ter em conta a posição da palavra na frase e graças a um mecanismo dito “atencional”. Este último permite que o algoritmo relacione unidades linguísticas distantes de forma a ligar o sujeito, o verbo e o complemento directo numa frase comprida do tipo “O rapaz de oito anos come uma bela maçã” e a ter em conta o contexto semântico que liga as diversas frases de um mesmo parágrafo.
Embora este texto não pretenda passar em revista todas as aplicações do GPT-3 (acrónimo de Generative Pretrained Transformer de terceira geração), não podemos deixar de mencionar a mais espectacular de todas elas: o facto de ter conseguido passar o famoso teste de Turing. Ou antes, uma versão particular do teste de Turing, já que dele existem numerosas variantes. Os cientistas da OpenAI convidaram 600 participantes a avaliar se uma série de curtos textos jornalísticos tinham sido escritos por uma inteligência artificial ou por um ser humano. O veredito foi que o ser humano é incapaz de distinguir os textos gerados (com base num título e uma entrada) pela versão mais evoluída do algoritmo dos gerados por verdadeiros jornalistas de carne e osso.

Quando o tamanho conta
Para além desta façanha técnica, o artigo da Open AI reporta um resultado extremamente significativo para o futuro da área. Para perceber por que razão é significativo, temos de nos debruçar sobre um debate que anima a comunidade científica desde o advento do “deep learning”, ou aprendizagem profunda. Apesar do desempenho impressionante destas novas redes, cuja paternidade costuma ser atribuída à Yann LeCun, responsável científico pela IA no Facebook, muitos são os que pensam que serão precisos um ou vários avanços conceptuais fundamentais para atingir o patamar da chamada Inteligência Artificial Geral (IAG) – isto é, para produzir um algoritmo que ultrapasse significativamente a inteligência humana. Por outras palavras, é provável que tenhamos de esperar muito tempo e de resolver muitos problemas antes de podermos esboçar sequer o caminho para o desenvolvimento de uma tal tecnologia. Essa é aliás a opinião defendida pelo próprio Yann LeCun nas inúmeras conferências públicas que profere para desmistificar a IA (ver aqui). Mas nem todos concordam com ele – e algumas perspectivas são algo preocupantes. De facto, há quem pense que o problema da IAG é sobretudo um problema de potência de cálculo, ou seja um problema de natureza tecnológica e não conceptual.
É nisso que o artigo a OpenAI é interessante. Mostra que o aumento do desempenho parece depender directamente do aumento da potência de cálculo, sem sinais evidentes de saturação. Isso significa que a construção de um supercomputador ainda mais poderoso do que aquele que foi disponibilizado pela Microsoft para fazer correr o GPT-3 deveria permitir atingir um desempenho significativamente superior. Note-se que esta estratégia coloca reais problemas energéticos dado o consumo de energia dos supercomputadores.

Não é portanto de excluir que um avanço decisivo possa ser obtido investindo simplesmente mais dinheiro e mais meios nas infraestruturas (algo que a Microsoft prevê fazer). Se assim for, torna-se urgente reflectir colectivamente sobre as implicações desta tecnologia. Actualmente, é claro que os actores que dominam o sector – Google, Facebook e OpenAI – estão divididos entre o desejo de comunicar os seus avanços de forma a atrair os melhores cientistas e o receio de suscitar uma reacção de recusa na opinião pública, susceptível de levar os consumidores a boicotar a tecnologia ou de estimular um esforço legislativo coordenado a nível internacional. A avaliação do caminho que resta percorrer para desenvolver uma máquina parecida a uma IAG – mesmo que de longe – condiciona evidentemente o tratamento político e mediático desta tecnologia emergente. Neste momento, ninguém sabe quanto caminho já foi percorrido, mas é claro que o progresso tem sido fulgurante em todos os domínios directamente ligados à IA, com a modelização linguística, a estatística e as neurociências à cabeça.
Parceria com a Microsoft: o lado escuro da Força?
“OpenAI was about the democratization of AI power. So that’s why [it] was created as a nonprofit foundation, to ensure that AI power … or to reduce the probability that AI power would be monopolized.” Elon Musk, excerto de uma entrevista dada a Kara Swisher em 2018
Até muito recentemente, a OpenAI era uma excepção na área da IA privada. Como o seu nome indica, a quase-totalidade do trabalho desta empresa era partilhada na plataforma Github, fazendo com que não se percebesse muito bem como é que a empresa tencionava monetizar as suas pesquisas. Seria um autêntico esforço filantrópico por parte de Elon Musk, sempre tão disposto a criticar os modelos da Google e do Facebook? Seja como for, esse posicionamento fez com que a OpenAI conseguisse reduzir o seu atraso em relação aos dois gigantes, ao atrair jovens talentos sensíveis às questões éticas. Mas com a entrada da Microsoft no seu capital, a mudança de paradigma revelou-se brutal. A OpenAI não só se tornou oficialmente uma empresa com fins lucrativos (“for profit”), como, sobretudo, e ao contrário dos seus predecessores GPT-2, o algoritmo GPT-3 não tem nada de aberto: o seu código não está publicado e o acesso a esta IA tem sido dado a conta-gotas, de forma opaca.
O argumento evocado é que esta tecnologia seria demasiado “perigosa” para ser partilhada com o público. Na realidade, a entrada da Microsoft no capital da OpenAI assinala uma mudança de modelo económico. Uma IA super-potente é treinada num supercomputador extremamente caro e as pessoas que desejarem utilizar esta IA deverão, a partir de agora, pagar uma assinatura que não permitirá o acesso ao código nem ao supercomputador, mas apenas a uma interface destinada a introduzir os pedidos e a recolher os resultados associados. É certo que uma lista de espera ainda permite o acesso gratuito, a esta interface, a alguns investigadores e engenheiros de software, mas é óbvio que esta gratuidade serve principalmente para que a OpenAI possa fazer “crowdsourcing” da pesquisa de aplicações para a sua ferramenta. Mas assim que os nichos mais férteis forem identificados e suficientemente mediatizados, é mais do que provável que o serviço se torne pago para todos.
O controlo de uma tecnologia como a GPT-3 vai rapidamente tornar-se sinónimo de controlo da web, na medida em que possibilita o estudo das correlações e talvez dos elos causais entre os inúmeros eventos que percorrem a teia. Quais são as consequências a curto, médio e longo prazo das explosões de Beirute nas opiniões públicas? Como é que o Brexit afecta a ligação entre europeus e britânicos? Os iranianos estão suficientemente furiosos com o seu governo para que uma operação de desestabilização seja bem-sucedida? Os franceses estão ou não dispostos a reeleger Macron? Quais são os bancos e as empresas que vão falir na sequência da pandemia? Estes desafios geopolíticos já se encontram no centro da questão, porque a inteligência artificial já possui uma capacidade única para ligar entre si dados tão vastos e tão díspares que nenhum ser humano seria capaz de os sintetizar. E, por enquanto, só se trata da capacidade de “ver” o mundo pelo prisma da IA e não de o controlar favorecendo um cenário em relação a outro, ao facilitar ou limitar a transmissão de certas informações.
O atraso europeu em termos de IA e de Big Data
Perante estas perspectivas, um recuo tecnofóbico não é de excluir. Mas isso poderia prejudicar a sociedade no seu todo, uma vez que a tecnologia continuará a progredir com ou sem o aval das populações. Na minha opinião, a grande questão é antes a do controlo público desta tecnologia. Sabemos que a Europa tem um grande atraso em comparação com os Estados Unidos e a China no que respeita ao Big Data e à IA. Não tem nem redes sociais, nem motores de busca, nem plataformas de venda online, nem motores de vídeos capazes de rivalizar, de perto ou de longe, com o Facebook, a Google, a Amazon ou o Youtube. E, embora uma importante tomada de consciência tenha produzido avanços ao nível da recolha e do armazenamento dos dados por estes gigantes, a questão do tratamento desses dados permanece em segundo plano. Ora, mesmo com a filtragem RGPD e mesmo limitando-nos à web pública, uma enorme quantidade de dados continua a estar ao alcance dos algoritmos de IA. Para simplificar, a OpenAI trata actualmente dados públicos com um algoritmo privado, enquanto o Facebook e a Google tratam dados privados com algoritmos (relativamente) públicos. Em ambos os casos, a inteligência – no sentido anglo-saxónico de “informação” – foi privatizada. E, em ambos os casos, os enormes supercomputadores dedicados ao tratamento de dados são inacessíveis aos cientistas, às ONG e aos poderes públicos.

É verdade que as aplicações concretas da modelização linguística e da análise profunda da web tornada possível pelos algoritmos de tipo GPT-3 ainda estão nos primórdios, mas é preciso perceber que, no futuro, uma boa parte da pesquisa de informação irá passar por este tipo de sistema. Em vez de uma pesquisa Google que produz milhares de resultados, vamos colocar directamente as nossas perguntas a um descendente do GPT-3, quer sejamos “civis”, cientistas, jornalistas ou militares. A interacção com os computadores já não será a mesma. Sejam eles super-inteligentes, inteligentes, conscientes ou não, estes algoritmos tornar-se-ão, de facto, os nossos interlocutores quotidianos dentro de uma ou duas décadas. E, embora a sua utilização ainda seja incipiente devido ao seu limitado desempenho, o princípio já está operacional na Siri ou no Google Voice.
A caminho de uma IA europeia e pública?
Ao contrário das questões relacionadas com a vida privada, a IA ainda não suscitou um debate ético nem uma verdadeira reflexão estratégica. O debate costuma reduzir-se a duas posições igualmente ingénuas: por um lado, há os optimistas que acreditam que os actores privados do tipo GAFAM [Google, Apple, Facebook, Amazon e Microsoft] vão auto-regular-se; por outro, os pessimistas que desde já vislumbram um futuro catastrófico, algures entre os imaginários de 1984, Admirável Mundo Novo e Relatório Minoritário. Nos dois casos, é a inacção que prevalece. Será preciso que aconteça um escândalo tão importante como o da Cambrigde Analytics para que os governos europeus decidam enfrentar a questão? O facto de se focar apenas nos riscos ligados ao “astroturfing” e às violações da vida privada, embora se trate de riscos bem reais, não chega. Porque, apesar de ser possível limitarmos a fuga de dados, controlar o seu armazenamento e limitar a influência das redes sociais sobre os actos eleitorais, não vamos conseguir impedir que a China e os Estados Unidos desenvolvam algoritmos de inteligência artificial cada vez mais aperfeiçoados.
A única opção viável parece ser entrar “na dança” para tentar concorrer em pé de igualdade com as outras superpotências. Dada a quantidade de engenheiros europeus a trabalhar nos serviços de IA da Google e do Facebook, temos claramente os recursos necessários. E, numa altura em que a Silicon Valley está a instalar enormes redes neuronais, capazes de digerir a web toda para fins mercantis e até militares, talvez tenhamos mesmo o dever de o fazer. Dito simplesmente: a Europa deve recuperar o atraso o mais depressa possível de forma a permitir que as tecnologias de inteligência artificial continuem a ser (tornem a ser) ferramentas públicas dedicadas à investigação e à procura do bem comum.
Imaginar uma IA pública ao serviço do conhecimento e do progresso é mais necessário do que nunca. Uma boa notícia: a União Europeia anunciou, no passado dia 21 de Setembro, um plano de investimento de oito mil milhões de euros dedicado à aquisição de supercomputadores. Resta saber como esses fundos irão ser utilizados.
Para ir mais longe
Apresentação exaustiva (em inglês) do algoritmo GPT-3 por Steve Omohundro
O GPT-2, antecessor do GPT-3, foi utilizado em inúmeros projectos. Um dos mais lúdicos é sem dúvida o AIdungeon, que permite interagir directamente com esta rede neuronal com 1,5 milhares de milhões de parâmetros. Também são de destacar Bloomsday e Sunsprings, duas curtas metragens cujo argumento foi gerado pelo GPT-2.
O cientista Raphaël Millière utilizou o algoritmo GPT-3 para produzir textos filosóficos extremamente interessantes.

Ver também a sua metodologia (repare-se que o algoritmo foi guiado pelo cientista), outros textos na sua conta no Twitter e o seu artigo de fundo sobre o tema na Synced.
Exemplo de texto jornalístico gerado pelo algoritmo GPT-3:
Title: United Methodists Agree to Historic Split
Subtitle: Those who oppose gay marriage will form their own denomination
Article: After two days of intense debate, the United Methodist Church has agreed to a historic split – one that is expected to end in the creation of a new denomination, one that will be «theologically and socially conservative,» according to The Washington Post. The majority of delegates attending the church’s annual General Conference in May voted to strengthen a ban on the ordination of LGBTQ clergy and to write new rules that will «discipline» clergy who officiate at same-sex weddings. But those who opposed these measures have a new plan: They say they will form a separate denomination by 2020, calling their church the Christian Methodist denomination. The Post notes that the denomination, which claims 12.5 million members, was in the early 20th century the «largest Protestant denomination in the U.S.,» but that it has been shrinking in recent decades. The new split will be the second in the church’s history. The first occurred in 1968, when roughly 10 percent of the denomination left to form the Evangelical United Brethren Church. The Post notes that the proposed split «comes at a critical time for the church, which has been losing members for years,» which has been «pushed toward the brink of a schism over the role of LGBTQ people in the church.» Gay marriage is not the only issue that has divided the church. In 2016, the denomination was split over ordination of transgender clergy, with the North Pacific regional conference voting to ban them from serving as clergy, and the South Pacific regional conference voting to allow them.
A bold, a informação fornecida ao algoritmo à partida; o resto do texto foi gerado automaticamente.
Romain Ligneul é investigador pós-doutorado no Laboratório de Systems Neuroscience no Centro Champalimaud.
Este artigo foi originalmente publicado a 6 de Agosto no Libération e traduzido do francês por Ana Gerschenfeld do Centro Champalimaud.
Loading Likes...
You must be logged in to post a comment.