O Google atualizou nesta terça-feira (4) suas diretrizes éticas em torno da inteligência artificial, removendo compromissos de não aplicar a tecnologia em armas ou vigilância.
Os princípios de IA da empresa anteriormente incluíam uma seção listando quatro “aplicações que não buscaremos”. Até recentemente, isso incluía armas, vigilância, tecnologias que “causam ou são prováveis de causar danos gerais” e casos de uso que contrariam princípios de direito internacional e direitos humanos, de acordo com uma cópia hospedada pelo Internet Archive.
Um porta-voz do Google se recusou a responder perguntas específicas sobre suas políticas em relação a armas e vigilância, mas referiu-se a uma publicação em seu blog oficial nesta terça-feira pelo chefe de IA da empresa, Demis Hassabis, e seu vice-presidente sênior de tecnologia e sociedade, James Manyika.
Os executivos escreveram que o Google estava atualizando seus princípios de IA porque a tecnologia se tornou muito mais difundida e havia uma necessidade de empresas baseadas em países democráticos servirem clientes governamentais e de segurança nacional.
“Há uma competição global em curso pela liderança em IA dentro de um cenário geopolítico cada vez mais complexo. Acreditamos que as democracias devem liderar o desenvolvimento de IA, guiadas por valores fundamentais como liberdade, igualdade e respeito pelos direitos humanos”, escreveram Hassabis e Manyika.
“E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.”
A página de princípios de IA atualizada do Google inclui disposições que dizem que a empresa usará supervisão humana e aceitará feedback para garantir que sua tecnologia seja usada em conformidade com “princípios amplamente aceitos de direito internacional e direitos humanos”.
Os princípios também afirmam que a empresa testará sua tecnologia para “mitigar resultados não intencionais ou prejudiciais”.
Hassabis juntou-se ao Google em 2014 após a aquisição da DeepMind, a startup de IA que ele cofundou. Ele disse em uma entrevista de 2015 que os termos da aquisição estipulavam que a tecnologia da DeepMind nunca seria usada para fins militares ou de vigilância.
Os princípios do Google que restringiam usos em segurança nacional para IA o tornavam um ponto fora da curva entre os principais desenvolvedores de IA.
No final do ano passado, a OpenAI, criadora do ChatGPT, disse que trabalharia com o fabricante militar Anduril para desenvolver tecnologia para o Pentágono. A Anthropic, que oferece o chatbot Claude, anunciou uma parceria com a contratante de defesa Palantir para ajudar agências de inteligência e defesa dos EUA a acessarem versões do Claude através da Amazon Web Services.
Os gigantes rivais de tecnologia do Google, Microsoft e Amazon, há muito tempo têm parcerias com o Pentágono. O fundador da Amazon, Jeff Bezos, é dono do The Washington Post.
“O anúncio do Google é mais uma evidência de que a relação entre o setor de tecnologia dos EUA e o [Departamento de Defesa] continua a se estreitar, incluindo as principais empresas de IA”, disse Michael Horowitz, professor de ciência política da Universidade da Pensilvânia que anteriormente trabalhou em tecnologias emergentes para o Pentágono.
A inteligência artificial, a robótica e tecnologias relacionadas são cada vez mais importantes para o exército dos EUA, disse ele, e o governo dos EUA tem trabalhado com empresas de tecnologia para entender como essa tecnologia pode ser usada de forma responsável. “Faz sentido que o Google tenha atualizado sua política para refletir a nova realidade”, disse Horowitz.
Lilly Irani, professora da Universidade da Califórnia em San Diego e ex-funcionária do Google, disse que as declarações dos executivos na terça-feira não eram novas.
O ex-CEO do Google, Eric Schmidt, há anos alimenta temores de que os Estados Unidos correm o risco de serem superados em IA pela China, disse Irani, e os princípios originais de IA da empresa também afirmavam que respeitariam o direito internacional e os direitos humanos. “Mas vimos esses limites serem rotineiramente quebrados pelo Estado dos EUA”, disse ela. “Esta é uma oportunidade para nos lembrarmos do vazio das promessas do Google.”
A mudança de política do Google é uma mudança da empresa em linha com uma visão dentro da indústria de tecnologia, incorporada pelo principal conselheiro do presidente Donald Trump, Elon Musk, de que as empresas devem trabalhar a serviço dos interesses nacionais dos EUA.
Também segue movimentos de gigantes da tecnologia para publicamente renunciar ao seu compromisso anterior com a igualdade racial e de gênero e a diversidade da força de trabalho, políticas opostas pela administração Trump.
O gigante das buscas também estava entre as empresas de tecnologia e executivos que fizeram doações milionárias para o comitê de posse de Trump. O CEO do Google, Sundar Pichai, estava entre os líderes de tecnologia que receberam assentos proeminentes nas cerimônias de posse.
O Google e a tecnologia de IA têm estado recentemente no centro das tensões geopolíticas entre os Estados Unidos e a China. Pouco depois de as tarifas de Trump sobre importações chinesas entrarem em vigor nesta terça, Pequim anunciou uma investigação antitruste sobre o Google, juntamente com tarifas retaliatórias sobre alguns produtos americanos.
Na semana passada, a startup chinesa DeepSeek alimentou temores de que os Estados Unidos estavam perdendo sua liderança em IA após lançar uma versão gratuita de um aplicativo assistente de IA semelhante ao ChatGPT da OpenAI.
O Google publicou seus princípios de IA pela primeira vez em 2018, após funcionários protestarem contra um contrato com o Pentágono que aplicava algoritmos de visão computacional do Google para analisar imagens de drones. Milhares de trabalhadores assinaram uma carta aberta ao CEO do Google que afirmava: “Acreditamos que o Google não deveria estar nos negócios da guerra.”
Além de introduzir os princípios de IA, o Google também optou na ocasião por não renovar o contrato com o Pentágono, conhecido como Projeto Maven.
Investidores e executivos por trás do setor de defesa em rápida expansão do Vale do Silício frequentemente invocam a resistência dos funcionários do Google contra o Projeto Maven como um ponto de virada dentro do setor.
Alguns trabalhadores do Google também protestaram contra um contrato contínuo de computação em nuvem que a empresa tem com o governo de Israel, alegando que poderia ver a tecnologia de IA do Google contribuir para políticas que prejudicam os palestinos.
O Post relatou recentemente que documentos internos mostram que o Google forneceu ao Ministério da Defesa de Israel e às Forças de Defesa de Israel maior acesso às suas ferramentas de IA após o ataque do Hamas a Israel em 7 de outubro de 2023.