Imagine um futuro onde a inteligência artificial, criada para o benefício humano, é secretamente empregada em operações militares, sem qualquer supervisão ou ética clara. Essa não é uma cena de ficção científica, mas a realidade que mais de 560 funcionários do Google estão tentando evitar.

Eles exigem que o CEO Sundar Pichai não permita o uso militar de IA pelo Google em operações sigilosas do governo dos EUA. A preocupação é que a tecnologia seja usada de formas “desumanas ou extremamente prejudiciais”.

A Polêmica: Funcionários Contra o Uso Militar da IA do Google

Uma carta aberta, enviada a Sundar Pichai nesta segunda-feira (27), detalha as preocupações dos colaboradores. Eles querem que a IA do Google beneficie a humanidade, não seja usada para fins militares secretos.

A carta enfatiza: “Isso inclui armas autônomas letais e vigilância em massa, mas vai além.” A única forma de garantir que o Google não seja associado a tais danos é “rejeitar qualquer carga de trabalho sigilosa”.

Caso contrário, alertam os funcionários, “tais usos podem ocorrer sem nosso conhecimento ou poder de impedi-los”. A pressão sobre as grandes empresas de tecnologia para se posicionarem sobre o uso militar de IA tem crescido.

O Acordo Controverso e os Riscos

Funcionários da Alphabet estão reagindo a relatos de que o Google está perto de fechar um acordo com o Departamento de Defesa. Este acordo permitiria que seu modelo Gemini fosse usado em operações sigilosas.

O problema é que isso ocorreria sem as salvaguardas formais que a startup de IA Anthropic exigiu. O CEO da Anthropic, Dario Amodei, recusou-se a dar ao governo acesso irrestrito aos seus modelos.

Ele insistiu em proteções para impedir o uso em armas autônomas letais e vigilância doméstica em massa. Em resposta, o governo classificou a Anthropic como risco à cadeia de suprimentos.

O Google, ao contrário, parece estar considerando um caminho menos restritivo. Isso levanta preocupações sobre a vigilância com IA e a liberdade civil dos americanos, citando como a tecnologia pode apoiar o autoritarismo.

A Voz dos Colaboradores: Quem Está por Trás da Carta?

A carta a Pichai foi coordenada por funcionários da DeepMind, o laboratório de IA do Google. Dois quintos dos signatários trabalham na divisão de IA, e uma parcela similar na unidade de Cloud.

Mais de 18 funcionários seniores, incluindo diretores e vice-presidentes, assinaram a carta. Cerca de dois terços optaram por ser identificados, enquanto o restante preferiu o anonimato.

O cientista-chefe da DeepMind, Jeff Dean, tem sido vocal sobre o assunto. Em fevereiro, ele postou no X que “A vigilância em massa viola a Quarta Emenda e tem um efeito inibidor sobre a liberdade de expressão”.

Ele reafirmou seu apoio a um compromisso de 2018 de banir armas autônomas letais. As demandas centrais dos funcionários incluem:

  • Não permitir o uso de IA em operações militares sigilosas.
  • Evitar o desenvolvimento de armas autônomas letais.
  • Garantir que a IA beneficie a humanidade, não seja usada de formas desumanas.
  • Rejeitar qualquer carga de trabalho sigilosa para evitar usos desconhecidos.

Precedentes e a Mudança de Posição do Google

O Google já enfrentou protestos contra seus vínculos militares no passado. Em 2018, vários funcionários pediram demissão e milhares assinaram uma petição contra o Projeto Maven.

Este projeto usava IA para melhorar ataques com drones. Naquela ocasião, o Google não renovou o contrato e prometeu não trabalhar com IA para armas ou vigilância.

No entanto, no ano passado, a empresa abandonou discretamente essa posição em uma revisão de seus “Princípios de IA”. A atualização excluiu a promessa de não buscar “armas ou outras tecnologias cujo principal propósito ou implementação seja causar ou facilitar diretamente danos a pessoas”.

O cofundador Demis Hassabis justificou a decisão, dizendo que o mundo mudou desde 2014. Ele argumentou que as empresas de tecnologia dos EUA têm o dever de ajudar o país a se defender.

A OpenAI também enfrentou reação negativa por fechar um acordo com o governo. O CEO Sam Altman se desculpou, chamando suas ações de “oportunistas e descuidadas”.

A história recente do Google e de outras gigantes da tecnologia mostra um dilema crescente:

  • 2018: Google recua do Projeto Maven após protestos internos.
  • Ano passado: Google modifica seus “Princípios de IA”, permitindo maior envolvimento militar.
  • Justificativa: Defesa nacional e mudança no cenário tecnológico global.
  • Presente: Funcionários da DeepMind lideram nova onda de protestos contra o uso militar de IA.

A carta conclui que “tomar a decisão errada agora causaria danos irreparáveis à reputação, aos negócios e ao papel do Google no mundo”. Os funcionários esperam que a empresa aprenda com sua própria história e faça as escolhas certas para a humanidade.

💬

Grupo do WhatsApp

Participe da nossa comunidade e receba novos posts e conteúdos exclusivos em primeira mão!

ENTRAR NO GRUPO AGORA

👍 Este conteúdo foi útil? Clique abaixo para avaliar!

CURTIR AGORA
Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Você também pode gostar

Telescópio James Webb Revela Detalhes Assustadores da Nebulosa “Crânio Exposto” em Imagens Inéditas

James Webb Desvenda Mistérios Cósmicos com Detalhes Surpreendentes O Telescópio Espacial James…

Artemis 2: NASA adia missão tripulada à Lua para reparos no foguete SLS

Atraso na Missão Lunar A missão Artemis 2, um marco crucial nos…

Google Lança Nano Banana 2: IA Revoluciona Criação de Imagens com Velocidade e Detalhes Aprimorados

Sucesso Viral Impulsiona Novas Versões O Google celebrou um marco significativo com…

Calendário Lunar de Fevereiro de 2026: Entenda as Fases da Lua e Seus Impactos na Natureza e nas Marés

As Fases da Lua em Fevereiro de 2026 O mês de fevereiro…