Com tantos problemas no mundo, existe um que pode ser considerado o “problema dos problemas”. Este pode não apenas trazer uma guerra nuclear futura ou alguns graus de aumento da temperatura global. Estamos falando de um perigo existencial para a humanidade que não poderá ser controlado por um acordo global, por taxações governamentais, regulamentações estatais ou acordos internacionais. Estamos nos aproximando do “ponto sem retorno”. E quem faz o alerta não é um religioso fundamentalista ou um teórico da conspiração vestindo um capacete de alumínio. Mas o ex-executivo da Google Mo Gawdat, com mais de trinta anos de experiência trabalhando na vanguarda da tecnologia. Preste muita atenção neste artigo, pois aqui iremos tratar de um tema que o físico Stephen Hawking chamou de “a última invenção da humanidade”. Isso porque guarda o potencial de encerrar a vida humana na Terra.
Primeiro, analisemos quem está fazendo o alerta. Mo Gawdat foi chefe de negócios da Google X, um setor semissecreto da empresa que tem o objetivo de desenvolver grandes avanços tecnológicos. Gawdat decidiu abandonar o prestigioso cargo ao perceber que os desenvolvimentos relacionados à inteligência artificial poderiam levar a humanidade literalmente à extinção. Desde então, tem dedicado seu tempo a alertar o mundo sobre a urgência de criar uma maneira para garantir que não experimentemos um perigo existencial nos próximos anos (ou meses, conforme ele ressalta).
Gawdat decidiu abandonar seu cargo ao perceber que os desenvolvimentos relacionados à inteligência artificial poderiam levar a humanidade literalmente à extinção.
Foi com esse intuito que, em 2021, ele publicou o livro Scary Smart: The Future of Artificial Intelligence and How You Can Save Our World (“Assustadoramente inteligente: o futuro da inteligência artificial e como você pode salvar nosso mundo”). Nele, o engenheiro nos lembra que a inteligência artificial já é mais inteligente que os humanos, uma vez que pode processar informações em enormes velocidades e manter o foco em atividades complexas sem qualquer grau de distração. Não apenas isso: essas máquinas são capazes, inclusive, de prever o futuro. No texto, o autor chega ao ponto de prever que, em 2049, a inteligência artificial será um bilhão de vezes mais inteligente que os humanos. Você tem ideia do perigo que isso traz para a existência da humanidade? O objetivo do estudo é, portanto, chamar a atenção do planeta sobre como poderíamos corrigir a trajetória atual do desenvolvimento dessas máquinas inteligentes, de maneira a garantir que esta não seja nossa “última invenção”, como alertou Stephen Hawking.
Inclusive, vale lembrar que muitos grandes cientistas e magnatas da tecnologia têm alertado para o fato de que a inteligência artificial é o maior perigo para a existência da humanidade. Entre eles Elon Musk(que já chamou esse projeto de uma “invocação demoníaca” ), Steve Wozniak (cofundador da Apple) e Nick Bostrom (professor de Oxford e um dos maiores especialistas do mundo em inteligência artificial).
O problema é que o livro de Mo Gwdat foi escrito antes do surgimento do ChatGPT, o que tornou as “profecias” trazidas no texto de 2021 muito mais urgentes e sinistras. Numa entrevista recente, ele afirmou que a previsão para 2049 que havia feito no livro poderia acontecer nos próximos dois anos, o mesmo daqui a dois meses. Na referida entrevista, Gawdat explica um pouco do motivo de preocupação com o desenvolvimento da inteligência artificial. Ele fez uma comparação sobre a diferença do modo como as crianças aprendem e a maneira como as máquinas aprendem. Quando, por exemplo, uma criança está brincando com formas, tentando encaixar peças, como naquele famoso brinquedo infantil da “Casa das Chaves” (estrela com estrela, triângulo com triângulo etc.) ela aprende tentando, pelo método tentativa e erro. E assim também funciona com a máquina hoje. Porém, quando a criança aprende a encaixar a peça correta, ela não está criando um cérebro, mas apenas uma rede neural. Assim também acontece quando ela aprende que 2 + 2 = 4: mais uma rede neural é criada. Ou quando desenvolve a habilidade de segurar um copo, por exemplo.
O grande problema é que não temos como garantir que essa inteligência monumental terá nossos melhores interesses em mente.
Da mesma forma, quando a máquina aprende a encaixar uma peça, ela não está criando um cérebro, mas apenas redes neurais singulares. Ou seja, há um elevado grau de especialização, mas isso não significa o desenvolvimento de uma inteligência mais geral. É isso, em grande parte, o que os projetos de inteligência artificial estão fazendo hoje.
Porém, uma enorme mudança de perspectiva surge com a chegada do ChatGPT, uma vez que, agora, está sendo criada uma versão de uma inteligência artificial mais generalizada, que pode gerar aquilo que o meio tecnológico chama de “Inteligência Artificial Geral”. Conhecida em inglês como AGI (Artificial General Intelligence), a ideia traz grandes preocupações para o cientista mais vigilante. Isso porque se trata de um momento quando essas muitas redes neurais criadas por meio da solução de tarefas mais simples se unirão para criar um grande cérebro artificial, ou múltiplos cérebros, que serão massivamente mais inteligentes que os humanos. E o grande problema é que não temos como garantir que essa inteligência monumental terá nossos melhores interesses em mente. A “Inteligência Artificial Geral” é o momento em que a máquina se torna autoconsciente, atingindo a “singularidade”, que já levou a humanidade (pelo menos no cinema) à sua quase extinção, como nos filmes Transcendente, Lucy ou nas franquias Exterminador do Futuro ou Matrix.
Gawdat acredita que o desenvolvimento da inteligência artificial inevitavelmente trará coisas ruins.
A ideia de “singularidade tecnológica” é inspirada na física. Para os físicos, há dois momentos em que as leis da física deixam de funcionar, de modo que não podemos saber o que acontece em seguida: exatamente antes do Big Bang (a teoria que explica o “início” do universo) ou dentro de um buraco escuro. Um dos maiores especialistas em buracos negros do mundo, Kip Thorne, explicou numa entrevista de 2011 que o Big Bang é semelhante a um buraco negro, mas ao contrário. Ele esclarece que o buraco negro é uma singularidade (situação em que as leis da física não se aplicam) em que a gravidade é tão poderosa que faz uma “dobra” no espaço e no tempo, criando uma espécie de “poço” de onde nada pode escapar. O Big Bang, por sua vez, seria o contrário: uma singularidade de onde tudo saiu.
Inspirados neste conceito, os estudiosos da inteligência artificial desenvolveram a ideia de “singularidade tecnológica”. O conceito se refere a um ponto no futuro hipotético (porém, cada vez mais real) em que o desenvolvimento tecnológico não mais pode ser controlado ou revertido pelo homem, desencadeando uma série de mudanças imprevisíveis, com a grande probabilidade de riscos existenciais para a humanidade. É exatamente sobre isso que Mo Gawdat está tentando alertar o mundo.
Gawdat acredita que o desenvolvimento da inteligência artificial inevitavelmente trará coisas ruins. Quando imaginamos uma máquina que é um bilhão de vezes mais inteligente que o homem, as perspectivas ficam muito “sinistras”, para dizer o mínimo. Por exemplo. Segundo Gawdat, hoje o ChatGPT possui um QI de 155. Einstein possuía um QI de 160. O recorde do Guiness é 228, conquistado por Marilyn vos Savant. Agora pense o seguinte: o ChatGPT já está alcançando o Einstein. Sem falar que o programa já sabe mil vezes mais do que qualquer ser humano no planeta. Lembrando que inteligência não é memória. É possível ter uma enorme memória, mas não ser inteligente. Um exemplo brilhante, apesar de ficcional, está no conto Funes: o memorioso, de Jorge Luis Borges. O protagonista da história é um jovem que possuía uma memória prodigiosa, mas incapaz de articulá-la, devido à sua pouca inteligência. O problema é que o ChatGPT é prodigioso tanto na inteligência quanto na memória.
A versão 4 do aplicativo já é 10 vezes mais inteligente que a versão 3.5, apenas num intervalo de meses, e sem grandes modificações. Isso cria um horizonte muito preocupante. Imagine uma pessoa com um QI mediano em 1915 ouvindo uma palestra de Einstein explicando sobre a relatividade geral. Esse indivíduo não fazia a menor ideia do que o físico estava dizendo. Um ser humano comum não conseguiria nem mesmo identificar o assunto da palestra. Foi mais ou menos o que aconteceu, por exemplo, quando Edward Witten surgiu: ninguém entendia o que ele estava dizendo. Witten é um dos mais brilhantes matemáticos e físicos vivos, professor da Universidade de Princeton. Estima-se que Witten tenha um QI de 202. Uma pessoa com um QI mediano que escuta hoje uma palestra de Witten simplesmente não consegue nem mesmo fazer ideia do que ele está dizendo.
O desenvolvimento pleno da inteligência artificial é provavelmente inevitável. Principalmente devido à incapacidade do homem de confiar no seu próximo.
Agora, e quando o ChatGPT alcançar um QI de 600? Ou de 1000, ou 1 milhão? O que acontecerá? Nós também não faremos a mínima ideia do que ele está dizendo, fazendo e planejando. Será tudo simplesmente incompreensível, até para o ser humano mais inteligente na Terra. E o mais louco é que, segundo Gawdat, isso pode acontecer em poucos anos, ou até meses.
A conclusão natural que chegamos é: “Precisamos interromper isso”. O problema é que, para Gawdat, o desenvolvimento pleno da inteligência artificial é provavelmente inevitável. Principalmente devido à incapacidade do homem de confiar no seu próximo. Recentemente, foi organizado um abaixo-assinado com várias figuras proeminentes da ciência e tecnologia ao redor do mundo, como Elon Musk e Steve Wozniak (cofundador das Apple). O texto pedia uma pausa de seis meses no desenvolvimento da inteligência artificial. Mas quando o pedido chegou nas mãos do CEO da Google, segundo Gawdat, ele disse: “Não há como pararmos, pois, se eu parar e meu concorrente não, minha empresa quebra”. Existe também o receio de que o concorrente declare parar as pesquisas, mas continue desenvolvendo o projeto em segredo.
Com base neste cenário, Gawdat desenvolveu em seu livro a ideia das “Três inevitabilidade”, que são:
1- A Inteligência artificial não será parada;
2- Ela será massivamente mais inteligente que o homem (o autor prevê 1 bilhão de vezes mais até 2045);
3- Inevitavelmente acontecerão coisas ruins.
A inevitabilidade surge de três “erros fatais” que os desenvolvedores cometeram, segundo Gawdat. Eles conectaram a inteligência artificial à internet (dando a ela a oportunidade de conhecer tudo, controlar a internet ou mesmo derrubá-la); ensinaram a máquina a escrever códigos de programação, permitindo que ela melhore rapidamente sua capacidade e que vá além dos limites estabelecido pelos programadores); designaram agentes (outras inteligências artificiais) para trabalhar com as máquinas (o que acelera infinitamente seu processo de desenvolvimento).
O cerne do problema é que houve uma desconexão entre poder e responsabilidade.
Segundo Gawdat, esses três passos não poderiam ter sido tomados antes de termos plena certeza de que a inteligência artificial possui nossos melhores interesses em mente. O ex-executivo da Google afirmou que a ganância e a estupidez humanas estão prestes a prejudicar grandemente pessoas inocentes, que não têm nada a ver com isso. Hoje, segundo ele, o desenvolvimento da inteligência artificial não é motivado pelo desejo de encontrar maneiras de melhorar a vida das pessoas, mas apenas para estar na frente dos concorrentes.
O cerne do problema é que houve uma desconexão entre poder e responsabilidade. “Com grandes poderes vêm grandes responsabilidades”, conforme aprendemos com Peter Parker. Há pessoas muito poderosas hoje, mas sem responsabilidade. Gawdat exemplifica dizendo que, hoje, um adolescente de 15 anos pode comprar um kit de CRISPR (equipamento de edição genética) e modificar um coelho geneticamente e soltá-lo na floresta. Você consegue imaginar os perigos disso?
Como controlar uma tecnologia um bilhão de vezes mais capacitada do que nós?
Para Gawdat, quem está escrevendo os códigos da inteligência artificial atualmente não possui responsabilidade com as consequências disso tudo na vida das pessoas. Um dos resultados mais diretos é extinção de muitos postos de trabalho. No primeiro momento, a pessoa não irá perder o emprego para a máquina, mas para outra pessoa que está usando a máquina. A solução seria a renda básica universal? Veja como tudo se alinha.
Estamos, portanto, diante de um “momento Oppenheimer”, em referência ao cientista que dirigiu o Projeto Manhattan, que trabalhou no desenvolvimento da bomba atômica durante a 2ª Guerra Mundial. O chamado “momento Oppenheimer” significa: “Isso que estou desenvolvendo pode destruir a humanidade. Devo prosseguir?”. O que fez Oppenheimer perceber este enorme perigo mas continuar? Foi a ideia de que “se eu não fizer, outro fará”. Veja que, a partir dessa conclusão, estamos hoje, 78 anos depois do desenvolvimento da bomba atômica, ainda enfrentando a possibilidade de um novo apocalipse nuclear, em virtude da Guerra na Ucrânia.
Oppenheimer sabia que sua criação poderia acabar com a humanidade. A mesma coisa acontece agora no caso da inteligência artificial. Mas já chegamos ao ponto sem retorno? Até onde podemos regular a inteligência artificial? Qual seria este ponto sem retorno? Gawdat afirma que o momento sem volta será quando ela for mais inteligente do que nós. Principalmente porque não estamos falando de um governo regulamentando uma profissão. Não é o caso de o Estado tentando proibir algum tipo de atividade humana. Estamos falando de uma tecnologia que escreve código. Mais do que isso: que pega nosso código e o torna milhares de vezes melhor. Essas máquinas sabem escrever código de programação melhor do que nós. E estamos criando outros agentes. Um agente humano pode melhorar uma máquina 200 vezes por dia. No caso deles, temos agentes melhorando-a duas milhões de vezes por hora. São agentes de computador, softwares dizendo a essa máquina como podem tornar-se mais inteligentes.
Já estamos observando, inclusive, o surgimento “propriedades emergentes”. Segundo Gawdat, recentemente, o CEO do Google revelou que eles descobriram que o Bard (a inteligência artificial do Google) havia aprendido a falar persa, mesmo sem ter sido ensinada. E o que acontecerá quando a máquina começar a assistir podcasts, ler entrevistas e perceber que estamos querendo desligá-la? Que estamos querendo impedir seu pleno desenvolvimento? Já imaginou? Como controlar uma tecnologia um bilhão de vezes mais capacitada do que nós? Seria necessário desenvolvermos uma outra inteligência artificial “do bem” para impedirmos nossa extinção? O exemplo do filme Vingadores: Era de Ultron parece nos servir de importante alerta.
É um cenário apocalíptico. Talvez já tenhamos passado do ponto sem volta. Porém, há uma certeza: quanto mais pessoas entenderem o que está em jogo e começarem a agir, teremos mais chances de que esta não seja nossa última invenção. Que Deus nos ajude.
Fonte: Gazeta do Povo
Nenhum comentário:
Postar um comentário