Parlamentares do Reino Unido alertam: Compromissos de segurança em IA estão se tornando mera fachada
- 60 legisladores do Reino Unido acusam o Google DeepMind de violar compromissos de segurança em IA ao adiar relatórios detalhados de segurança para o Gemini 2.5 Pro. - A empresa lançou um modelo de cartão simplificado três semanas após o lançamento, sem transparência sobre testes de terceiros e envolvimento de agências governamentais. - O Google afirma ter cumprido os compromissos ao publicar um relatório técnico meses depois, mas críticos argumentam que isso mina a confiança nos protocolos de segurança. - Questões semelhantes na Meta e OpenAI destacam preocupações generalizadas na indústria sobre a opacidade.
Um grupo de 60 parlamentares do Reino Unido assinou uma carta aberta acusando o Google DeepMind de não cumprir seus compromissos de segurança em IA, especialmente em relação ao atraso na divulgação de informações detalhadas de segurança para seu modelo Gemini 2.5 Pro [1]. A carta, publicada pelo grupo ativista político PauseAI, critica a empresa por não fornecer um modelo de documentação abrangente no momento do lançamento do modelo, documento essencial que detalha como o modelo foi testado e desenvolvido [1]. Eles argumentam que essa falha constitui uma violação dos Compromissos de Segurança de IA de Fronteira assumidos em uma cúpula internacional em fevereiro de 2024, onde os signatários — incluindo o Google — se comprometeram a relatar publicamente as capacidades dos modelos, avaliações de risco e envolvimento de testes de terceiros [1].
O Google lançou o Gemini 2.5 Pro em março de 2025, mas não publicou um modelo de documentação completo na época, apesar de afirmar que o modelo superava concorrentes em benchmarks importantes [1]. Em vez disso, um modelo de documentação simplificado de seis páginas foi divulgado três semanas depois, que alguns especialistas em governança de IA descreveram como insuficiente e preocupante [1]. A carta destaca que o documento carecia de detalhes substanciais sobre avaliações externas e não confirmava se agências governamentais, como o Instituto de Segurança em IA do Reino Unido, participaram dos testes [1]. Essas omissões levantam preocupações sobre a transparência das práticas de segurança da empresa.
Em resposta às críticas, um porta-voz do Google DeepMind disse anteriormente à Fortune que qualquer sugestão de que a empresa estaria descumprindo seus compromissos era "imprecisa" [1]. A empresa também afirmou em maio que um relatório técnico mais detalhado seria publicado quando a versão final da família de modelos Gemini 2.5 Pro estivesse disponível. Um relatório mais abrangente foi finalmente divulgado no final de junho, meses após a versão completa estar disponível [1]. O porta-voz reiterou que a empresa está cumprindo seus compromissos públicos, incluindo os Compromissos de Segurança de IA de Fronteira de Seul, e que o Gemini 2.5 Pro passou por rigorosas verificações de segurança, incluindo avaliações por testadores independentes [1].
A carta também observa que a ausência do modelo de documentação para o Gemini 2.5 Pro parece contradizer outros compromissos assumidos pelo Google, como os Compromissos da Casa Branca de 2023 e um Código de Conduta voluntário sobre Inteligência Artificial assinado em outubro de 2023 [1]. A situação não é exclusiva do Google. A Meta enfrentou críticas semelhantes por seu modelo de documentação mínimo e limitado para o modelo Llama 4, enquanto a OpenAI optou por não publicar um relatório de segurança para seu modelo GPT-4.1, citando seu status não-fronteira [1]. Esses acontecimentos sugerem uma tendência mais ampla na indústria, onde as divulgações de segurança estão se tornando menos transparentes ou sendo omitidas completamente.
A carta pede que o Google reafirme seus compromissos de segurança em IA, definindo claramente a implantação como o momento em que um modelo se torna acessível ao público, comprometendo-se a publicar relatórios de avaliação de segurança em um cronograma definido para todos os lançamentos futuros de modelos e fornecendo total transparência em cada lançamento ao nomear as agências governamentais e terceiros independentes envolvidos nos testes, juntamente com os cronogramas exatos dos testes [1]. Lord Browne of Ladyton, signatário da carta e membro da Câmara dos Lordes, alertou que, se as principais empresas de IA tratarem os compromissos de segurança como opcionais, isso pode levar a uma perigosa corrida para implantar sistemas de IA cada vez mais poderosos sem as devidas salvaguardas [1].
Fonte:

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
Pulso do Mercado BTC: Semana 37
O Bitcoin se estabilizou próximo ao custo básico dos detentores de curto prazo, mas a estabilização continua frágil em todo o mercado. O Market Pulse desta semana mostra por que o sentimento de cautela ainda predomina.

Bitcoin oscila após revisão surpreendente dos empregos nos EUA: O que vem a seguir para o BTC?
BlackRock perde dinheiro com os títulos do Tesouro dos EUA tokenizados

Empresa de manufatura listada na Nasdaq arrecada US$ 1,65 bilhão para impulsionar o tesouro de Solana
A Forward Industries, Inc. (NASDAQ: FORD) anunciou uma captação privada de US$ 1.65 bilhões em compromissos de dinheiro e stablecoin liderada por Galaxy Digital, Jump Crypto e Multicoin Capital para lançar uma estratégia de tesouraria focada em Solana. O acordo representa a maior captação centrada em Solana por uma empresa pública e destaca a confiança institucional na trajetória de crescimento do blockchain. Apoio estratégico da Galaxy,

Populares
MaisPreços de criptomoedas
Mais








