Британські законодавці попереджають: обіцянки щодо безпеки AI стають лише показухою
- 60 британських парламентарів звинувачують Google DeepMind у порушенні зобов'язань щодо безпеки ШІ через затримку з публікацією детальних звітів про безпеку для Gemini 2.5 Pro. - Компанія випустила спрощену модельну картку через три тижні після запуску, яка не містить прозорої інформації щодо тестування третіми сторонами та участі державних органів. - Google стверджує, що виконала зобов'язання, опублікувавши технічний звіт через кілька місяців, але критики вважають, що це підриває довіру до протоколів безпеки. - Подібні проблеми у Meta та OpenAI підкреслюють загальноіндустрійну стурбованість щодо прозорості.
Група з 60 британських парламентарів підписала відкритого листа, в якому звинувачує Google DeepMind у невиконанні зобов'язань щодо безпеки штучного інтелекту, зокрема через затримку публікації детальної інформації про безпеку моделі Gemini 2.5 Pro [1]. Лист, опублікований політичною активістською групою PauseAI, критикує компанію за те, що вона не надала комплексної моделі-карти під час випуску моделі, яка є ключовим документом, що описує, як модель була протестована та створена [1]. На їхню думку, ця невдача є порушенням Frontier AI Safety Commitments, прийнятих на міжнародному саміті у лютому 2024 року, де підписанти, включаючи Google, зобов'язалися публічно звітувати про можливості моделей, оцінки ризиків та участь сторонніх тестувальників [1].
Google випустила Gemini 2.5 Pro у березні 2025 року, але тоді не опублікувала повної моделі-карти, незважаючи на заяви, що модель перевершує конкурентів за ключовими показниками [1]. Натомість через три тижні була опублікована спрощена шестисторінкова модель-карта, яку деякі експерти з управління AI назвали недостатньою та такою, що викликає занепокоєння [1]. У листі підкреслюється, що документ не містив суттєвих деталей щодо зовнішніх оцінок і не підтверджував, чи брали участь у тестуванні державні органи, такі як U.K. AI Security Institute [1]. Ці упущення викликають занепокоєння щодо прозорості практик безпеки компанії.
У відповідь на критику представник Google DeepMind раніше заявив Fortune, що будь-які припущення про відмову компанії від своїх зобов'язань є "неточними" [1]. Компанія також заявила у травні, що більш детальний технічний звіт буде опубліковано, коли фінальна версія сімейства моделей Gemini 2.5 Pro стане доступною. Більш комплексний звіт був зрештою опублікований наприкінці червня, через кілька місяців після того, як повна версія стала доступною [1]. Представник ще раз підкреслив, що компанія виконує свої публічні зобов'язання, включаючи Seoul Frontier AI Safety Commitments, і що Gemini 2.5 Pro пройшла ретельні перевірки безпеки, включаючи оцінки сторонніх тестувальників [1].
У листі також зазначається, що відсутність моделі-карти для Gemini 2.5 Pro суперечить іншим обіцянкам Google, таким як 2023 White House Commitments та добровільний Code of Conduct on Artificial Intelligence, підписаний у жовтні 2023 року [1]. Така ситуація не є унікальною для Google. Meta зіткнулася з подібною критикою через мінімальну та обмежену модель-карту для Llama 4, тоді як OpenAI вирішила не публікувати звіт про безпеку для своєї моделі GPT-4.1, посилаючись на її не-фронтирний статус [1]. Ці події свідчать про ширшу тенденцію в галузі, коли розкриття інформації про безпеку стає менш прозорим або взагалі опускається.
У листі Google закликають підтвердити свої зобов'язання щодо безпеки AI, чітко визначивши розгортання як момент, коли модель стає загальнодоступною, зобов'язавшись публікувати звіти про оцінку безпеки за встановленим графіком для всіх майбутніх випусків моделей, а також забезпечити повну прозорість для кожного випуску, вказуючи державні органи та незалежні треті сторони, залучені до тестування, разом із точними термінами тестування [1]. Лорд Браун з Лейдітона, підписант листа та член Палати лордів, попередив, що якщо провідні AI-компанії будуть ставитися до зобов'язань щодо безпеки як до необов'язкових, це може призвести до небезпечної гонки за впровадженням дедалі потужніших AI-систем без належних запобіжних заходів [1].
Джерело:

Відмова від відповідальності: зміст цієї статті відображає виключно думку автора і не представляє платформу в будь-якій якості. Ця стаття не повинна бути орієнтиром під час прийняття інвестиційних рішень.
Вас також може зацікавити
Ринковий аналіз і перспективи за різких коливань Ethereum
AiCoin Щоденний звіт (05 вересня)
Напередодні ринку в 5 трильйонів: де інвестиційні можливості в embodied intelligence × Web3?
Інкарнований інтелект x Web3, структурні рішення стимулюють інвестиційні можливості.

40 мільйонів фінансування, Vitalik взяв участь у інвестиціях, Etherealize прагне стати "представником" Ethereum
Мета перетворення традиційних фінансів за допомогою Ethereum необов'язково має бути досягнута через DeFi.

У тренді
БільшеЦіни на криптовалюти
Більше








