Hinton ganhou destaque em maio quando anunciou a saída do Google, onde trabalhou mais de uma década, de forma a poder falar mais livremente sobre os perigos da IA, logo após o lançamento do ChatGPT, que se tornou um tema central na agenda global.

O cientista, sediado na Universidade de Toronto, falou esta quarta-feira para uma plateia lotada na conferência tecnológica Collision [dos mesmos organizadores da Web Summit], que decorre na mesma cidade.

A conferência reuniu mais de 30.000 fundadores de startups, investidores e profissionais do setor de tecnologia, um grupo mais interessado em saber como tirar partido da IA e não em ouvir uma lição sobre os perigos ou um apelo para interferência governamental.

"Antes que a IA seja mais inteligente do que nós, acho que as pessoas que a desenvolvem deveriam ser incentivadas a dedicar muito esforço para entender como pode tentar tomar o controlo", afirmou Hinton.

"No momento atual, há 99 pessoas muito inteligentes a tentar melhorar a Inteligência Artificial e uma pessoa muito inteligente a tentar descobrir como impedi-la de assumir o controlo, e talvez seja melhor termos mais equilibro", afirmou.

Hinton acrescentou que os riscos da IA devem ser levados a sério. "Acho importante que as pessoas entendam que isto não é ficção científica, isso não é apenas alarmismo", insistiu. "É um risco real que devemos pensar e precisamos descobrir antecipadamente como lidar com ele."

O cientista também expressou a sua preocupação de que a IA possa aprofundar a desigualdade, com os enormes ganhos de produtividade resultantes de uma implementação que beneficia os ricos e não os trabalhadores.

"A riqueza não vai para as pessoas que fazem o trabalho, vai para enriquecer os ricos e não os mais pobres, e isso é uma sociedade muito terrível", acrescentou.

Apontou ainda o perigo das "fake news" criadas por bots semelhantes ao ChatGPT e disse esperar que o conteúdo gerado por IA possa ser marcado de forma semelhante às marcas d'água feitas pelos bancos centrais nas cédulas de dinheiro.

"É muito importante tentar, por exemplo, marcar tudo o que é falso como falso. Se isso é possível tecnicamente, eu não sei", concluiu.