“Apocalipse da IA”: a tecnologia com potencial de causar a extinção humana

Sam Altman, do ChatGPT, juntou-se ao Google DeepMind, a Microsoft e a pesquisadores na assinatura de uma carta afirmando que mitigar risco de extinção pela inteligência artificial "deve ser prioridade global"

“Apocalipse da IA”: a tecnologia com potencial de causar a extinção humana
Desenvolvido pela OpenAI, o ChatGPT é um protótipo de chatbot que utiliza a inteligência artificial. Jonathan Kemper/Unsplash

Duas semanas depois que os membros do Congresso questionaram o CEO da OpenAI, Sam Altman, sobre o potencial das ferramentas de inteligência artificial para espalhar desinformação, interromper eleições e eliminar empregos, ele e outros do setor vieram a público com uma possibilidade mais grave: um apocalipse da Inteligência Artificial (IA).

Altman, cuja empresa está por trás da ferramenta de chatbot viral ChatGPT, juntou-se ao CEO do Google DeepMind, Demis Hassabis, ao CTO da Microsoft, Kevin Scott, e a dezenas de outros pesquisadores de IA e líderes empresariais na assinatura de uma carta de uma frase no mês passado afirmando: “Mitigando o risco de extinção pela IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.

O aviso foi amplamente divulgado na imprensa, com alguns sugerindo que mostrava a necessidade de levar esses cenários apocalípticos mais a sério. Mas também destaca uma dinâmica importante no Vale do Silício no momento: os principais executivos de algumas das maiores empresas de tecnologia estão simultaneamente dizendo ao público que a IA tem o potencial de causar a extinção humana, ao mesmo tempo em que correm para investir e implantar essa tecnologia em produtos que atingir bilhões de pessoas.

A dinâmica também ocorreu em outros lugares recentemente. O CEO da Tesla, Elon Musk, por exemplo, disse em uma entrevista na TV em abril que a IA poderia levar à “destruição da civilização”.

Mas ele continua profundamente envolvido com a tecnologia por meio de investimentos em seu amplo império empresarial e disse que quer criar um rival para as ofertas de IA da Microsoft e do Google.

Da esquerda para a direita: CTO da Microsoft, Kevin Scott, CEO da OpenAI, Sam Altman, CEO do Google DeepMind, Demis Hassabis. / Joy Malone/David Ryder/Bloomberg/Joel Saget/AFP/Getty Images

Alguns especialistas da indústria de IA dizem que focar a atenção em cenários distantes pode desviar a atenção dos danos mais imediatos que uma nova geração de poderosas ferramentas de IA pode causar a pessoas e comunidades, incluindo espalhar desinformação, perpetuar preconceitos e permitir a discriminação em vários serviços.

“Os motivos pareciam ser mistos”, disse Gary Marcus à CNN, pesquisador de IA e professor emérito da Universidade de Nova York que testemunhou perante legisladores ao lado de Altman no mês passado.

Alguns dos executivos provavelmente estão “genuinamente preocupados com o que desencadearam”, disse ele, mas outros podem estar tentando focar a atenção em “possibilidades abstratas para diminuir as possibilidades mais imediatas”.

Representantes do Google e da OpenAI não responderam imediatamente a um pedido de comentário.

Em um comunicado, um porta-voz da Microsoft disse: “Estamos otimistas sobre o futuro da IA ​​e achamos que os avanços ​​resolverão muito mais desafios do que apresentam, mas também temos sido consistentes em nossa crença de que, quando você cria tecnologias que podem mudar o mundo, você também deve garantir que a tecnologia seja usada com responsabilidade.”

Preocupações imediatas versus “cenários de ficção científica”

Para Marcus, um autodenominado crítico do hype da IA, “a maior ameaça imediata da IA ​​é a ameaça à democracia da produção em massa de desinformação convincente”.

Ferramentas de IA generativas, como o ChatGPT e o Dall-E da OpenAI, são treinadas em vastos tesouros de dados online para criar trabalhos escritos e imagens atraentes em resposta às solicitações do usuário.

Com essas ferramentas, por exemplo, pode-se rapidamente imitar o estilo ou semelhança de figuras públicas na tentativa de criar campanhas de desinformação.

Em seu depoimento perante o Congresso americano, Altman também disse que o potencial da IA ​​ser usada para manipular os eleitores e direcionar a desinformação estava entre “minhas áreas de maior preocupação”.

Mesmo em casos de uso mais comuns, no entanto, há preocupações. As mesmas ferramentas foram criticadas por oferecer respostas erradas às solicitações do usuário, respostas totalmente “alucinantes” e potencialmente perpetuar preconceitos raciais e de gênero.

Emily Bender, professora da Universidade de Washington e diretora de seu Laboratório de Linguística Computacional, disse à CNN que algumas empresas podem querer desviar a atenção do viés embutido em seus dados e também de reivindicações sobre como seus sistemas são treinados.

Bender citou preocupações de propriedade intelectual com alguns dos dados em que esses sistemas são treinados, bem como alegações de empresas que terceirizam o trabalho de passar por algumas das piores partes dos dados de treinamento para trabalhadores de baixa remuneração no exterior.

“Se o público e os reguladores puderem se concentrar nesses cenários imaginários de ficção científica, talvez essas empresas possam se safar do roubo de dados e das práticas de exploração por mais tempo”, disse Bender à CNN.

Influenciando reguladores

Os reguladores podem ser o verdadeiro público-alvo das mensagens apocalípticas da indústria de tecnologia.

Como diz Bender, os executivos estão basicamente dizendo: “’Essa coisa é muito, muito perigosa, e nós somos os únicos que sabemos como controlá-la’”.

A julgar pelo comparecimento de Altman perante o Congresso, essa estratégia pode funcionar. Altman pareceu conquistar Washington ao ecoar as preocupações dos legisladores sobre a IA – uma tecnologia que muitos no Congresso ainda estão tentando entender – e oferecer sugestões de como lidar com isso.

Essa abordagem da regulamentação seria “extremamente problemática”, disse Bender. Isso poderia dar à indústria influência sobre os reguladores encarregados de responsabilizá-la e também deixar de fora as vozes e contribuições de outras pessoas e comunidades que sofrem impactos negativos dessa tecnologia.

“Se os reguladores se orientarem para as pessoas que estão construindo e vendendo a tecnologia como os únicos que poderiam entender isso e, portanto, podem informar como a regulamentação deve funcionar, realmente perderemos”, disse Bender.

Bender disse que tenta, em todas as oportunidades, dizer às pessoas que “essas coisas parecem muito mais inteligentes do que são”.

Como ela disse, isso ocorre porque “somos tão inteligentes quanto somos” e a maneira como entendemos a linguagem, incluindo as respostas da IA, “é na verdade imaginando uma mente por trás disso”.

Por fim, Bender apresentou uma pergunta simples para a indústria de tecnologia sobre IA: “Se eles acreditam honestamente que isso pode estar causando a extinção humana, então por que não parar?”

Por: CNN