Imagine um futuro onde a inteligência artificial, criada para o benefício humano, é secretamente empregada em operações militares, sem qualquer supervisão ou ética clara. Essa não é uma cena de ficção científica, mas a realidade que mais de 560 funcionários do Google estão tentando evitar.
Eles exigem que o CEO Sundar Pichai não permita o uso militar de IA pelo Google em operações sigilosas do governo dos EUA. A preocupação é que a tecnologia seja usada de formas “desumanas ou extremamente prejudiciais”.
A Polêmica: Funcionários Contra o Uso Militar da IA do Google
Uma carta aberta, enviada a Sundar Pichai nesta segunda-feira (27), detalha as preocupações dos colaboradores. Eles querem que a IA do Google beneficie a humanidade, não seja usada para fins militares secretos.
A carta enfatiza: “Isso inclui armas autônomas letais e vigilância em massa, mas vai além.” A única forma de garantir que o Google não seja associado a tais danos é “rejeitar qualquer carga de trabalho sigilosa”.
Caso contrário, alertam os funcionários, “tais usos podem ocorrer sem nosso conhecimento ou poder de impedi-los”. A pressão sobre as grandes empresas de tecnologia para se posicionarem sobre o uso militar de IA tem crescido.
O Acordo Controverso e os Riscos
Funcionários da Alphabet estão reagindo a relatos de que o Google está perto de fechar um acordo com o Departamento de Defesa. Este acordo permitiria que seu modelo Gemini fosse usado em operações sigilosas.
O problema é que isso ocorreria sem as salvaguardas formais que a startup de IA Anthropic exigiu. O CEO da Anthropic, Dario Amodei, recusou-se a dar ao governo acesso irrestrito aos seus modelos.
Ele insistiu em proteções para impedir o uso em armas autônomas letais e vigilância doméstica em massa. Em resposta, o governo classificou a Anthropic como risco à cadeia de suprimentos.
O Google, ao contrário, parece estar considerando um caminho menos restritivo. Isso levanta preocupações sobre a vigilância com IA e a liberdade civil dos americanos, citando como a tecnologia pode apoiar o autoritarismo.
A Voz dos Colaboradores: Quem Está por Trás da Carta?
A carta a Pichai foi coordenada por funcionários da DeepMind, o laboratório de IA do Google. Dois quintos dos signatários trabalham na divisão de IA, e uma parcela similar na unidade de Cloud.
Mais de 18 funcionários seniores, incluindo diretores e vice-presidentes, assinaram a carta. Cerca de dois terços optaram por ser identificados, enquanto o restante preferiu o anonimato.
O cientista-chefe da DeepMind, Jeff Dean, tem sido vocal sobre o assunto. Em fevereiro, ele postou no X que “A vigilância em massa viola a Quarta Emenda e tem um efeito inibidor sobre a liberdade de expressão”.
Ele reafirmou seu apoio a um compromisso de 2018 de banir armas autônomas letais. As demandas centrais dos funcionários incluem:
- Não permitir o uso de IA em operações militares sigilosas.
- Evitar o desenvolvimento de armas autônomas letais.
- Garantir que a IA beneficie a humanidade, não seja usada de formas desumanas.
- Rejeitar qualquer carga de trabalho sigilosa para evitar usos desconhecidos.
Precedentes e a Mudança de Posição do Google
O Google já enfrentou protestos contra seus vínculos militares no passado. Em 2018, vários funcionários pediram demissão e milhares assinaram uma petição contra o Projeto Maven.
Este projeto usava IA para melhorar ataques com drones. Naquela ocasião, o Google não renovou o contrato e prometeu não trabalhar com IA para armas ou vigilância.
No entanto, no ano passado, a empresa abandonou discretamente essa posição em uma revisão de seus “Princípios de IA”. A atualização excluiu a promessa de não buscar “armas ou outras tecnologias cujo principal propósito ou implementação seja causar ou facilitar diretamente danos a pessoas”.
O cofundador Demis Hassabis justificou a decisão, dizendo que o mundo mudou desde 2014. Ele argumentou que as empresas de tecnologia dos EUA têm o dever de ajudar o país a se defender.
A OpenAI também enfrentou reação negativa por fechar um acordo com o governo. O CEO Sam Altman se desculpou, chamando suas ações de “oportunistas e descuidadas”.
A história recente do Google e de outras gigantes da tecnologia mostra um dilema crescente:
- 2018: Google recua do Projeto Maven após protestos internos.
- Ano passado: Google modifica seus “Princípios de IA”, permitindo maior envolvimento militar.
- Justificativa: Defesa nacional e mudança no cenário tecnológico global.
- Presente: Funcionários da DeepMind lideram nova onda de protestos contra o uso militar de IA.
A carta conclui que “tomar a decisão errada agora causaria danos irreparáveis à reputação, aos negócios e ao papel do Google no mundo”. Os funcionários esperam que a empresa aprenda com sua própria história e faça as escolhas certas para a humanidade.
👍 Este conteúdo foi útil? Clique abaixo para avaliar!
CURTIR AGORA