Secretário-geral da ONU alerta para riscos da inteligência artificial
A 7 de fevereiro, António Guterres, secretário-geral da Organização das Nações Unidas (ONU), defendeu uma abordagem global à inteligência artificial (IA), que “afetará toda a Humanidade” e “está já a criar riscos”, em torno da desinformação e da privacidade.
Na apresentação à Assembleia-Geral ONU das prioridades para 2024, Guterres sustentou que, dos cuidados de saúde à educação e da ação climática aos sistemas alimentares, a IA generativa é a “ferramenta potencial mais importante para construir economias e sociedades inclusivas, verdes e sustentáveis”. Todavia, observou que, além dos seus efeitos e riscos, está concentrada em poucas empresas e em menos países, gerando desigualdades. Ora, como defende, “a tecnologia deve reduzir as desigualdades e não reproduzi-las ou colocar as pessoas umas contra as outras”; e, porque a IA afetará toda a Humanidade, é necessária “uma abordagem universal”.
A ONU lançou, em 2023, um órgão consultivo sobre IA, para reunir governos, empresas privadas, universidades e sociedade civil em torno de um alinhamento mais estreito entre as normas internacionais e a forma como a tecnologia é desenvolvida e implementada. Esse órgão publicará o seu relatório final no próximo verão, e as suas recomendações contribuirão para o Pacto Digital Global proposto para adoção na Cimeira do Futuro, em setembro deste ano.
No mesmo discurso, o líder da ONU advogou que a IA “não deve substituir a iniciativa humana”, pois, como “foi criada por humanos”, deve estar “sempre sob controlo humano”. E vincou: “Devemos agir rapidamente, ser criativos e trabalhar em conjunto para garantir barreiras de proteção e padrões éticos adequados, promover a transparência e desenvolver capacidades nos países em desenvolvimento.”
Guterres disse que têm aumentado, exponencialmente, na era digital, a velocidade e o alcance da desinformação e do ódio, levando à ascensão do antissemitismo, da intolerância antimuçulmana, da perseguição de comunidades cristãs minoritárias e da ideologia da supremacia branca.
***
Guterres não está sozinho no alerta para os riscos da IA. Geoffrey Hinton, um dos pioneiros da IA (trabalha com ela desde os anos 1970) – chamam-lhe o “padrinho” da inteligência artificial –, em maio de 2023, saiu da Google (a que se juntara em 2023), para poder alertar para os riscos do desenvolvimento de novas aplicações tecnológicas, como o ChatGPT.
Aos 75 anos, reformou-se para “poder falar sobre os perigos da inteligência artificial sem ter de considerar o impacto que terá na Google”, resumiu na rede social X, antigo Twitter.
O cientista britânico, radicado, há décadas na Universidade de Toronto (no Canadá), passou de criador a crítico de uma área da tecnologia que teve, em novembro de 2022, o seu primeiro grande impacto global, com o lançamento do ChatGPT, mas também de outras ferramentas em que se produzem vozes ou imagens em segundos. “Veja como [a tecnologia de IA] era há cinco anos e como é agora”, disse Hinton citado pelo The New York Times. “Pegue nessa diferença e multiplique para o futuro. [A evolução] é assustadora”, considerou.
As críticas à utilização da inteligência artificial e acerca dos perigos que pode acarretar não são novas. Já em fevereiro de 2023, Cateljine Muller defendia que estas ferramentas ainda não eram positivas para a sociedade. “O Mundo ainda não é capaz de lidar com todas as consequências de uma ferramenta como o ChatGPT. Ainda apresenta mais riscos do que benefícios”, referiu ao Público a fundadora da ALLAI, organização europeia por uma IA responsável, e que tem aconselhado a Comissão Europeia nesta temática.
No final de março de 2023, um grupo de especialistas e responsáveis pela indústria tecnológica – incluindo Elon Musk, financiador inicial da Open AI (criadora do ChatGPT), e Steve Wozniak, cofundador da Apple – pedia, em carta aos laboratórios, travão de seis meses no desenvolvimento da IA, algo similar a várias declarações isoladas contra esta tecnologia e contra os seus impactos na sociedade.
A carta, publicada pelo “Future of Life Institute” (Instituto do Futuro da Vida), uma organização sem fins lucrativos apoiada por Elon Musk, veio duas semanas depois a OpenAI anunciar o GPT-4, uma versão ainda mais poderosa da tecnologia que alimenta o ChatGPT. Nos primeiros testes e numa demonstração da empresa, o GPT-4 foi usado para redigir ações judiciais, para passar em exames padronizados e para construir um site funcional a partir de um esboço feito à mão.
“Estes novos sistemas são uma ferramenta fantástica para a difamação e serão, certamente, utilizados para isso”, afirmou o filósofo Noam Chomsky, sustentando que “a ideia de que podemos aprender alguma coisa com este tipo de IA é um erro”.
Geoffrey Hinton investiga, desde os anos 70, redes neuronais artificiais – em que um sistema matemático simula os neurónios para, por exemplo, analisar fotografias e aprender a identificar flores ou carros sem necessitar da intervenção humana. Nesta base, por exemplo, um modelo de IA olha para milhares de fotografias de animais e define quais são os cavalos – porque sabe as suas caraterísticas a partir dos exemplos que “estudou” antes. Neste campo, o investigador, formado em Psicologia Cognitiva e Ciências da Computação, tem dado os maiores contributos. Um dos mais conhecidos é de 2012, participando na criação de uma rede neuronal que identificava objetos comuns, como cães, carros ou flores a partir de milhares de imagens, num trabalho com dois estudantes da Universidade de Toronto, Alex Krishevsky (o responsável principal do trabalho) e Ilya Sutskever.
Até há pouco, não preocupava o volume de informação que uma ferramenta como o ChatGPT compreenderia. Mas Hinton pensa que o ponto de viragem é agora. “Estamos a ver coisas como o GPT-4 a eclipsar as pessoas na quantidade de conhecimento geral que tem e eclipsa-nos por larga margem”, disse em declarações à BBC, anotando que a capacidade de raciocínio e resposta são ainda limitadas. “Dado o ritmo de evolução, podemos esperar que isto melhore rapidamente. Precisamos, pois de nos preocupar com isso”, declarou ao site da televisão britânica.
O risco de desinformação, de uso indevido, para amplificar estereótipos ou mensagens políticas, e a perda de trabalhos são alguns dos riscos elencados nas críticas à IA. “É difícil ver como se pode impedir que maus intervenientes não usem isto de forma maligna”, apontou Geoffrey Hinton, em entrevista ao The New York Times, onde ecoou as preocupações sobre o potencial da IA, para eliminar empregos e criar um mundo onde muitos “não serão mais capazes de saber o que é verdade”. E apontou o impressionante ritmo de avanço, muito além do que ele e outros haviam previsto: “A ideia de que essas coisas poderiam realmente ficar mais inteligentes do que as pessoas – algumas pessoas acreditaram nisso”. Porém, “a maioria das pessoas achou que estava errado”. “E eu pensei que estava longe, achando que era de 30 a 50 anos ou até mais longe. Obviamente, não penso mais nisso”, confessa Hinton.
Em sentido contrário, a eficiência e a rapidez em tarefas como a tradução ou a pesquisa, o aumento da produtividade e a interação com pessoas em serviços de atendimento a clientes trazem vantagens económicas e no tempo livre da população. A propósito, Jeff Dean, responsável científico da Google, respondeu, em comunicado, que a empresa continua comprometida com uma abordagem responsável em relação à IA. E, Em julho, a Google demitiu um engenheiro por dizer que um sistema de IA não lançado se havia tornado autoconsciente. Alegadamente, violou as políticas de emprego e a segurança de dados. Muitos, na comunidade de IA, rejeitaram a afirmação do engenheiro.
Antes de deixar a Google, Hinton havia falado publicamente sobre o potencial da IA tanto para o mal como para o bem. “Acredito que o rápido progresso da IA transformará a sociedade de maneiras que não entendemos totalmente e nem todos os efeitos serão bons”, sustentou, num discurso de formação, em 2021, no Instituto Indiano de Tecnologia em Mumbai, observando como a IA aumentará a assistência médica e criará oportunidades para armas autónomas letais. “Acho essa perspetiva muito mais imediata e muito mais aterrorizante do que a perspetiva de robôs assumirem o controlo, o que acho que está muito distante”, sublinhou.
***
Como foi referido, grandes nomes no setor de IA assinaram uma declaração sobre o “risco de extinção” que a tecnologia cria para o Mundo. O alerta foi dado por Sam Altman, CEO da OpenAI, Demis Hassabis, chefe do Google DeepMind, Geoffrey Hinton e Yoshua Bengio, além de outros especialistas. “Mitigar o risco de extinção da IA deve ser prioridade global”, reza a declaração, “junto a outros riscos em escala social, como pandemias e guerra nuclear”.
O comunicado foi publicado pelo Center for AI Safety, organização sem fins lucrativos com a missão de reduzir os riscos em escala social da IA. Dan Hendrycks, diretor-executivo da entidade, manifestou ao The New York Times que a declaração é curta – só 22 palavras em Inglês – para evitar discordâncias entre as pessoas que a assinaram.
A declaração é acompanhada de uma explicação: quer “criar conhecimento comum do crescente número de especialistas e de figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”. Com efeito, há três visões principais sobre os riscos da IA: alguns imaginam cenários hipotéticos mais apocalípticos, em que a IA se torna independente e impossível de controlar; outros, mais céticos, apontam que a IA mal consegue realizar tarefas como dirigir um carro, apesar de investimentos bilionários no setor; e há quem aponte os riscos mais imediatos da IA, que futuristas podem acabar por minimizar, como o seu uso indevido para deepfakes, fake news automatizadas e perda de empregos. Especialistas em IA, jornalistas (é impossível ignorá-la) e outros profissionais da comunicação social, formuladores de políticas públicas e o público em geral discutem um amplo espectro de riscos importantes e urgentes da IA. Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada.
Para o presidente dos Estados Unidos da América (EUA), Joe Biden, a IA pode ajudar a lidar com alguns desafios muito difíceis, como doenças e mudança climática, mas devemos abordar os riscos potenciais para a sociedade, para a economia e para a segurança nacional.
***
A título de exemplo, é de ter em conta que, a 4 de fevereiro, foi noticiado que, segundo a polícia de Hong Kong, uma empresa multinacional foi roubada em quase 26 milhões de dólares, numa fraude baseada na tecnologia “deepfake”, que cria vídeos com recurso a IA.
Um empregado de uma empresa num centro financeiro chinês recebeu, por videoconferência, chamadas de várias pessoas que se faziam passar por quadros superiores da empresa, com sede no Reino Unido, e lhe pediam para transferir dinheiro para determinadas contas bancárias.
A polícia recebeu um relatório sobre o incidente, a 29 de janeiro, altura em que cerca de 26 milhões de dólares (aproximadamente 24 milhões de euros) já tinham sido perdidos através de 15 transferências. Os criminosos encontraram vídeos e áudios disponíveis na rede YouTube e utilizaram a tecnologia “deepfake” para imitar as vozes, a fim de enganarem a vítima e de a fazerem seguir as suas instruções. Os vídeos, pré-gravados, não envolviam qualquer diálogo nem interação com a vítima.
***
Por fim, uma boa notícia. Na sequência de acordo provisório de dezembro de 2023, a União Europeia (UE) deu conta, a 13 de fevereiro, de que as comissões parlamentares do Mercado Interno e das Liberdades Cívicas, com respetivamente 71 e oito votos a favor e sete abstenções, aprovaram “o resultado das negociações com os Estados-membros sobre a Lei da IA”.
O regulamento em causa visa proteger os direitos fundamentais, a democracia, o Estado de direito e a sustentabilidade ambiental da IA de alto risco, bem como impulsionar a inovação e estabelecer a Europa como líder no domínio da IA. As regras estabelecem obrigações com base nos seus riscos potenciais e no seu nível de impacto.
Falta, agora, a adoção formal numa próxima sessão plenária do Parlamento Europeu e a aprovação final do Conselho, sendo a nova lei aplicável 24 meses após a sua entrada em vigor.
***
Não se pode desvalorizar o potencial da IA, mas deve acautelar-se o seu uso desviante. Por isso, é bem-vinda a necessária regulamentação, assim como a desejável extensão a todas empresas e serviços e a todos os países do Mundo.
.
19/02/2024