Bitget App
Trade smarter
Kup kryptoRynkiHandelFuturesEarnWeb3CentrumWięcej
Handel
Spot
Kupuj i sprzedawaj krypto
Margin
Zwiększ swój kapitał i wydajność środków
Onchain
Korzyści Onchain bez wchodzenia na blockchain
Konwersja i handel blokowy
Konwertuj kryptowaluty jednym kliknięciem i bez opłat
Odkryj
Launchhub
Zdobądź przewagę na wczesnym etapie i zacznij wygrywać
Kopiuj
Kopiuj wybitnego tradera jednym kliknięciem
Boty
Prosty, szybki i niezawodny bot handlowy AI
Handel
Kontrakty futures zabezpieczone USDT
Kontrakty futures rozliczane w USDT
Kontrakty futures zabezpieczone USDC
Kontrakty futures rozliczane w USDC
Kontrakty futures zabezpieczone monetami
Kontrakty futures rozliczane w kryptowalutach
Odkryj
Przewodnik po kontraktach futures
Podróż po handlu kontraktami futures – od początkującego do zaawansowanego
Promocje kontraktów futures
Czekają na Ciebie wysokie nagrody
Bitget Earn
Najróżniejsze produkty do pomnażania Twoich aktywów
Simple Earn
Dokonuj wpłat i wypłat w dowolnej chwili, aby uzyskać elastyczne zyski przy zerowym ryzyku
On-chain Earn
Codzienne zyski bez ryzykowania kapitału
Strukturyzowane produkty Earn
Solidna innowacja finansowa pomagająca poruszać się po wahaniach rynkowych
VIP i Wealth Management
Usługi premium do inteligentnego zarządzania majątkiem
Pożyczki
Elastyczne pożyczanie z wysokim bezpieczeństwem środków
Brytyjscy ustawodawcy ostrzegają: zobowiązania dotyczące bezpieczeństwa AI stają się tylko pozorem

Brytyjscy ustawodawcy ostrzegają: zobowiązania dotyczące bezpieczeństwa AI stają się tylko pozorem

ainvest2025/08/29 17:52
Pokaż oryginał
Przez:Coin World

- 60 brytyjskich parlamentarzystów oskarża Google DeepMind o naruszenie zobowiązań dotyczących bezpieczeństwa AI poprzez opóźnienie szczegółowych raportów bezpieczeństwa dla Gemini 2.5 Pro. - Firma udostępniła uproszczoną kartę modelu trzy tygodnie po premierze, która nie zawierała informacji o testach przeprowadzonych przez strony trzecie ani o udziale agencji rządowych. - Google twierdzi, że wypełniło zobowiązania, publikując raport techniczny kilka miesięcy później, jednak krytycy uważają, że podważa to zaufanie do protokołów bezpieczeństwa. - Podobne problemy w Meta i OpenAI podkreślają branżowe obawy dotyczące przejrzystości.

Grupa 60 brytyjskich parlamentarzystów podpisała otwarty list, oskarżając Google DeepMind o niewywiązywanie się ze zobowiązań dotyczących bezpieczeństwa AI, w szczególności w związku z opóźnionym ujawnieniem szczegółowych informacji dotyczących bezpieczeństwa modelu Gemini 2.5 Pro [1]. List, opublikowany przez grupę aktywistów politycznych PauseAI, krytykuje firmę za brak dostarczenia kompleksowej karty modelu w momencie jego premiery, która jest kluczowym dokumentem opisującym sposób testowania i budowy modelu [1]. Według autorów listu, to zaniedbanie stanowi naruszenie Frontier AI Safety Commitments podjętych podczas międzynarodowego szczytu w lutym 2024 roku, gdzie sygnatariusze – w tym Google – zobowiązali się do publicznego raportowania możliwości modeli, ocen ryzyka oraz udziału niezależnych testerów [1].

Google wypuściło Gemini 2.5 Pro w marcu 2025 roku, jednak nie opublikowało wówczas pełnej karty modelu, mimo że twierdziło, iż model przewyższa konkurencję w kluczowych benchmarkach [1]. Zamiast tego, uproszczona, sześciostronicowa karta modelu została opublikowana trzy tygodnie później, co niektórzy eksperci ds. zarządzania AI określili jako niewystarczające i budzące niepokój [1]. List podkreśla, że dokumentowi brakowało istotnych szczegółów dotyczących zewnętrznych ewaluacji i nie potwierdzono, czy w testach brały udział agencje rządowe, takie jak U.K. AI Security Institute [1]. Te braki budzą obawy o przejrzystość praktyk bezpieczeństwa firmy.

W odpowiedzi na krytykę rzecznik Google DeepMind powiedział wcześniej dla Fortune, że wszelkie sugestie, iż firma nie dotrzymuje zobowiązań, są "nieprawdziwe" [1]. Firma poinformowała również w maju, że bardziej szczegółowy raport techniczny zostanie opublikowany, gdy finalna wersja rodziny modeli Gemini 2.5 Pro będzie dostępna. Bardziej kompleksowy raport został ostatecznie opublikowany pod koniec czerwca, kilka miesięcy po udostępnieniu pełnej wersji [1]. Rzecznik podkreślił, że firma realizuje swoje publiczne zobowiązania, w tym Seoul Frontier AI Safety Commitments, a Gemini 2.5 Pro przeszedł rygorystyczne kontrole bezpieczeństwa, w tym ewaluacje przeprowadzone przez niezależnych testerów [1].

List zauważa również, że brakująca karta modelu dla Gemini 2.5 Pro wydaje się być sprzeczna z innymi zobowiązaniami Google, takimi jak 2023 White House Commitments oraz dobrowolny Code of Conduct on Artificial Intelligence podpisany w październiku 2023 roku [1]. Sytuacja ta nie jest wyjątkowa dla Google. Meta spotkała się z podobną krytyką za minimalną i ograniczoną kartę modelu dla Llama 4, podczas gdy OpenAI zdecydowało się nie publikować raportu bezpieczeństwa dla swojego modelu GPT-4.1, powołując się na jego nie-frontierowy status [1]. Rozwój tych wydarzeń sugeruje szerszy trend w branży, gdzie ujawnienia dotyczące bezpieczeństwa stają się mniej przejrzyste lub są całkowicie pomijane.

List wzywa Google do ponownego potwierdzenia swoich zobowiązań dotyczących bezpieczeństwa AI poprzez jasne zdefiniowanie wdrożenia jako momentu, w którym model staje się publicznie dostępny, zobowiązanie się do publikowania raportów z ocen bezpieczeństwa według ustalonego harmonogramu dla wszystkich przyszłych premier modeli oraz zapewnienie pełnej przejrzystości każdej premiery poprzez wskazanie agencji rządowych i niezależnych stron trzecich zaangażowanych w testy wraz z dokładnymi terminami testów [1]. Lord Browne of Ladyton, sygnatariusz listu i członek Izby Lordów, ostrzegł, że jeśli wiodące firmy AI będą traktować zobowiązania dotyczące bezpieczeństwa jako opcjonalne, może to doprowadzić do niebezpiecznego wyścigu w kierunku wdrażania coraz potężniejszych systemów AI bez odpowiednich zabezpieczeń [1].

Source:

Brytyjscy ustawodawcy ostrzegają: zobowiązania dotyczące bezpieczeństwa AI stają się tylko pozorem image 0
0

Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.

PoolX: Stakuj, aby zarabiać
Nawet ponad 10% APR. Zarabiaj więcej, stakując więcej.
Stakuj teraz!