A empresa se comprometeu a não usar IA para fins militares, mas agora busca parcerias para ‘segurança nacional’, levantando preocupações sobre vigilância e direitos humanos.
Com a mudança na política da Google, a empresa abre espaço para o desenvolvimento de projetos que utilizam a inteligência artificial, como a criação de sistemas de vigilância e armas. Com a inclusão desses projetos, a Google busca avançar em seu papel no cenário tecnológico, posto que a tecnologia de IA continua a ser uma ferramenta de destaque no desenvolvimento de produtos e serviços modernos.
A decisão da Google de revisar sua política de inteligência artificial sinaliza uma mudança na abordagem da empresa em relação ao uso dessa tecnologia. Em 2018, a Google adotou uma posição mais proativa em relação ao desenvolvimento de armas e vigilância. Contudo, com a mudança da política em 2023, a Google agora permite o uso da inteligência artificial em projetos que antes eram proibidos. A mudança não apenas permite o desenvolvimento de novos produtos, mas também sinaliza uma reavaliação da _política de responsabilidade_ da empresa.
Google e tecnologia: equilibrando liberdade e segurança
Na esteira de denúncias de violação de direitos humanos por meio de inteligência artificial (IA), o Google mudou sua abordagem em relação ao uso dessa ferramenta. O Google prometeu não aplicar IA em armamentos ou monitoramento que violassem direitos humanos, após pressão de milhares de funcionários contra um contrato com o governo dos EUA. O projeto em questão, chamado Project Maven, usava IA para aprimorar ataques com drones. A princípio, o Google defendia que empresas e governos devem trabalhar juntos em IA para garantir a ‘segurança nacional’, conforme se afirmava em uma postagem em seu blog assinada por James Manyika, vice-presidente do Google, e Demis Hassabis, líder do laboratório de IA Google DeepMind.
A Bloomberg observou que o Google modificou a página em que detalhava sua abordagem para IA. Antes, o site incluía uma seção chamada ‘Aplicações de IA que não buscaremos’, onde a empresa afirmava não usar a tecnologia para fins que ‘causem ou possam causar danos gerais’. Essa informação não está mais disponível. Na nova versão do texto, os executivos afirmam que os princípios de IA estabelecidos em 2018 precisavam ser atualizados para refletir os avanços da tecnologia. Pressionado por críticas de funcionários, o Google agora afirma que empresas e governos devem trabalhar juntos para criar uma IA que proteja as pessoas e promova o crescimento global.
Seis meses após a posse de Donald Trump, as grandes empresas de tecnologia norte-americanas mostram uma aproximação do novo presidente. Sundar Pichai, CEO do Google, foi um dos presentes à posse de Trump, em 20 de janeiro, ao lado de figuras como Mark Zuckerberg (Meta), Jeff Bezos (Amazon), Tim Cook (Apple) e Shou Zi Chew (TikTok) – além de Elon Musk (Tesla, SpaceX e X), que também faz parte do novo governo como chefe do recém-criado Departamento de Eficiência Governamental.
Há poucos dias, a Meta alterou de forma drástica sua política de moderação de conteúdo em suas plataformas. O anúncio, visto como um aceno a Trump, foi feito pelo próprio Mark Zuckerberg no dia 7 de janeiro. Na ocasião, o chefe da Meta disse que era o momento de a empresa ‘voltar às nossas raízes em torno da liberdade de expressão’ e afirmou que ela trabalharia com Trump para impedir a ‘censura’ de outros países contra companhias norte-americanas.
Além disso, um grupo de funcionários do Google, conhecido como o DeepSeek, pressionou a OpenAI a apresentar uma nova ferramenta. Essa ferramenta, chamada de ‘Alerta de danos’, é capaz de detectar danos causados pela IA em diversas áreas, como vigilância e desenvolvimento de armas.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo