Brytyjscy ustawodawcy ostrzegają: zobowiązania dotyczące bezpieczeństwa AI stają się tylko pozorem
- 60 brytyjskich parlamentarzystów oskarża Google DeepMind o naruszenie zobowiązań dotyczących bezpieczeństwa AI poprzez opóźnienie szczegółowych raportów bezpieczeństwa dla Gemini 2.5 Pro. - Firma udostępniła uproszczoną kartę modelu trzy tygodnie po premierze, która nie zawierała informacji o testach przeprowadzonych przez strony trzecie ani o udziale agencji rządowych. - Google twierdzi, że wypełniło zobowiązania, publikując raport techniczny kilka miesięcy później, jednak krytycy uważają, że podważa to zaufanie do protokołów bezpieczeństwa. - Podobne problemy w Meta i OpenAI podkreślają branżowe obawy dotyczące przejrzystości.
Grupa 60 brytyjskich parlamentarzystów podpisała otwarty list, oskarżając Google DeepMind o niewywiązywanie się ze zobowiązań dotyczących bezpieczeństwa AI, w szczególności w związku z opóźnionym ujawnieniem szczegółowych informacji dotyczących bezpieczeństwa modelu Gemini 2.5 Pro [1]. List, opublikowany przez grupę aktywistów politycznych PauseAI, krytykuje firmę za brak dostarczenia kompleksowej karty modelu w momencie jego premiery, która jest kluczowym dokumentem opisującym sposób testowania i budowy modelu [1]. Według autorów listu, to zaniedbanie stanowi naruszenie Frontier AI Safety Commitments podjętych podczas międzynarodowego szczytu w lutym 2024 roku, gdzie sygnatariusze – w tym Google – zobowiązali się do publicznego raportowania możliwości modeli, ocen ryzyka oraz udziału niezależnych testerów [1].
Google wypuściło Gemini 2.5 Pro w marcu 2025 roku, jednak nie opublikowało wówczas pełnej karty modelu, mimo że twierdziło, iż model przewyższa konkurencję w kluczowych benchmarkach [1]. Zamiast tego, uproszczona, sześciostronicowa karta modelu została opublikowana trzy tygodnie później, co niektórzy eksperci ds. zarządzania AI określili jako niewystarczające i budzące niepokój [1]. List podkreśla, że dokumentowi brakowało istotnych szczegółów dotyczących zewnętrznych ewaluacji i nie potwierdzono, czy w testach brały udział agencje rządowe, takie jak U.K. AI Security Institute [1]. Te braki budzą obawy o przejrzystość praktyk bezpieczeństwa firmy.
W odpowiedzi na krytykę rzecznik Google DeepMind powiedział wcześniej dla Fortune, że wszelkie sugestie, iż firma nie dotrzymuje zobowiązań, są "nieprawdziwe" [1]. Firma poinformowała również w maju, że bardziej szczegółowy raport techniczny zostanie opublikowany, gdy finalna wersja rodziny modeli Gemini 2.5 Pro będzie dostępna. Bardziej kompleksowy raport został ostatecznie opublikowany pod koniec czerwca, kilka miesięcy po udostępnieniu pełnej wersji [1]. Rzecznik podkreślił, że firma realizuje swoje publiczne zobowiązania, w tym Seoul Frontier AI Safety Commitments, a Gemini 2.5 Pro przeszedł rygorystyczne kontrole bezpieczeństwa, w tym ewaluacje przeprowadzone przez niezależnych testerów [1].
List zauważa również, że brakująca karta modelu dla Gemini 2.5 Pro wydaje się być sprzeczna z innymi zobowiązaniami Google, takimi jak 2023 White House Commitments oraz dobrowolny Code of Conduct on Artificial Intelligence podpisany w październiku 2023 roku [1]. Sytuacja ta nie jest wyjątkowa dla Google. Meta spotkała się z podobną krytyką za minimalną i ograniczoną kartę modelu dla Llama 4, podczas gdy OpenAI zdecydowało się nie publikować raportu bezpieczeństwa dla swojego modelu GPT-4.1, powołując się na jego nie-frontierowy status [1]. Rozwój tych wydarzeń sugeruje szerszy trend w branży, gdzie ujawnienia dotyczące bezpieczeństwa stają się mniej przejrzyste lub są całkowicie pomijane.
List wzywa Google do ponownego potwierdzenia swoich zobowiązań dotyczących bezpieczeństwa AI poprzez jasne zdefiniowanie wdrożenia jako momentu, w którym model staje się publicznie dostępny, zobowiązanie się do publikowania raportów z ocen bezpieczeństwa według ustalonego harmonogramu dla wszystkich przyszłych premier modeli oraz zapewnienie pełnej przejrzystości każdej premiery poprzez wskazanie agencji rządowych i niezależnych stron trzecich zaangażowanych w testy wraz z dokładnymi terminami testów [1]. Lord Browne of Ladyton, sygnatariusz listu i członek Izby Lordów, ostrzegł, że jeśli wiodące firmy AI będą traktować zobowiązania dotyczące bezpieczeństwa jako opcjonalne, może to doprowadzić do niebezpiecznego wyścigu w kierunku wdrażania coraz potężniejszych systemów AI bez odpowiednich zabezpieczeń [1].
Source:

Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Cykl obniżek stóp procentowych i zmiana płynności: jak rozmieścić aktywa ryzykowne, aby przygotować się na „ryczące lata dwudzieste”?
Wysoka zmienność wywołana wzrostami, w połączeniu z byczym narracją, wspólnie pobudzi zaufanie na rynku, zwiększy apetyt na ryzyko i ostatecznie doprowadzi do euforii.


Dylemat inflacyjny ETH: Czy to efekt udanej aktualizacji Cancun?
Przy jakim poziomie opłat za gas ETH zacznie być deflacyjny?

Popularne
WięcejCeny krypto
Więcej








