Uma profunda divisão agita o Google. Mais de 600 funcionários, incluindo diretores e vice-presidentes, uniram-se para pedir à empresa que rejeite um acordo com o Pentágono. O temor é que a tecnologia de inteligência artificial Gemini seja utilizada em operações militares confidenciais, levantando sérias preocupações éticas e de segurança.
O Cerne da Controvérsia: O Acordo com o Pentágono
A gigante da tecnologia está em negociações avançadas com o Departamento de Defesa para implementar o Gemini, seu modelo de IA de ponta, em trabalhos de natureza confidencial. Essa iniciativa gerou um forte movimento de resistência interna.
Funcionários organizadores da iniciativa alertam que “trabalhos confidenciais são, por definição, obscuros”. Eles expressam a impossibilidade de garantir que as ferramentas não sejam usadas para causar danos severos ou para a erosão de liberdades civis, longe do escrutínio público.
Preocupações Chave dos Colaboradores
- Potencial para causar danos terríveis.
- Risco de erosão das liberdades civis sem visibilidade pública.
- Uso da IA para caracterizar pessoas ou apontar contra civis inocentes.
O Histórico e as Salvaguardas Propostas
O Google compete para ser o próximo provedor de IA do governo em trabalhos confidenciais e não confidenciais. A empresa já possui um contrato com o Pentágono para trabalhos não confidenciais através do programa conhecido como genAI.mil.
Este cenário remete ao caso da Anthropic, que processou o Pentágono após ser designada como “risco para a cadeia de suprimentos”. A decisão da Anthropic veio depois de a empresa solicitar que sua tecnologia não fosse usada para vigilância em massa ou guerra automatizada.
Conflito de Termos
O Google propôs uma linguagem contratual que visava evitar que o Gemini fosse usado para vigilância doméstica em massa ou para o desenvolvimento de armas autônomas sem controle humano adequado.
No entanto, o Pentágono pressionou por uma redação ampla de “todos os usos legais”, argumentando ser necessária para manter a flexibilidade operacional.
Inaplicabilidade das Salvaguardas
Os funcionários do Google veem as salvaguardas propostas como tecnicamente inaplicáveis. Eles destacam que a própria política do Pentágono proíbe entidades externas de impor controles sobre seus sistemas de IA.
- A política do Pentágono impede que o Google imponha restrições sobre o uso de sua própria IA.
- Isso gera um impasse sobre a capacidade de garantir um uso ético e seguro da tecnologia.
O Apelo Final
A carta dos funcionários conclui com um apelo contundente: “Se a direção realmente levar a sério a prevenção de danos futuros, deve recusar por completo, por enquanto, as cargas de trabalho confidenciais”.
A decisão do Google sobre este acordo terá implicações significativas para a ética da inteligência artificial e para a confiança de seus colaboradores em relação ao futuro da empresa.
👍 Este conteúdo foi útil? Clique abaixo para avaliar!
CURTIR AGORA