Bitget App
Mag-trade nang mas matalino
Buy cryptoMarketsTradeFuturesEarnWeb3SquareMore
Trade
Spot
Mag Buy and Sell ng crypto nang madali
Margin
Amplify your capital and maximize fund efficiency
Onchain
Going Onchain, Without Going Onchain
Convert & block trade
I-convert ang crypto sa isang click at walang bayad
Explore
Launchhub
Makuha ang gilid nang maaga at magsimulang manalo
Copy
Kopyahin ang elite trader sa isang click
Bots
Simple, mabilis, at maaasahang AI trading bot
Trade
USDT-M Futures
Futures settled in USDT
USDC-M Futures
Futures settled in USDC
Coin-M Futures
Futures settled in cryptocurrencies
Explore
Futures guide
Isang beginner-to-advanced na paglalakbay sa futures trading
Futures promotions
Generous rewards await
Overview
Iba't ibang produkto para mapalago ang iyong mga asset
Simple Earn
Magdeposito at mag-withdraw anumang oras para makakuha ng mga flexible return na walang panganib
On-chain Earn
Kumita ng kita araw-araw nang hindi nanganganib ang prinsipal
Structured na Kumita
Matatag na pagbabago sa pananalapi upang i-navigate ang mga market swing
VIP and Wealth Management
Mga premium na serbisyo para sa matalinong pamamahala ng kayamanan
Loans
Flexible na paghiram na may mataas na seguridad sa pondo
Isang Bagong Hangganan sa Kaligtasan ng AI: Pagsusuri sa Iba't Ibang Laboratoryo upang Pag-isahin ang Industriya

Isang Bagong Hangganan sa Kaligtasan ng AI: Pagsusuri sa Iba't Ibang Laboratoryo upang Pag-isahin ang Industriya

ainvest2025/08/27 19:56
Ipakita ang orihinal
By:Coin World

- Inirerekomenda ni Ilya Sutskever ng OpenAI ang cross-lab testing upang mapalakas ang kaligtasan ng AI sa harap ng mabilis na pag-unlad ng teknolohiya at mga panganib sa buong industriya. - Ipinapakita ng browser-based Claude pilot ng Anthropic ang mga hamon sa seguridad tulad ng prompt injection attacks, kaya't nagkaroon ng mas pinahusay na istratehiya para sa mitigasyon. - Isang pag-aaral ang nagpapakita ng mahinang pagsunod ng mga pangunahing AI firms, kabilang ang Apple, sa mga boluntaryong pangako tungkol sa kaligtasan, na nagpapatanong sa bisa ng self-regulation. - Nag-aalok ang AI Safety Initiative ng Cloud Security Alliance ng mga framework at RiskRub para sa AI risk management.

Nanawagan ang OpenAI co-founder at board member na si Ilya Sutskever para sa pagpapatupad ng cross-lab testing bilang isang mahalagang hakbang upang matiyak ang kaligtasan ng mga artificial intelligence (AI) system. Ang kanyang pahayag ay kasabay ng lumalaking pag-aalala tungkol sa mga panganib na kaakibat ng mga pag-unlad sa AI, kung saan binibigyang-diin ng mga lider ng industriya ang pangangailangan para sa kolaboratibo at standardized na mga safety protocol. Ang panawagan ni Sutskever para sa cross-lab testing ay umaayon sa mas malawak na pagsisikap na palakasin ang AI safety at mabawasan ang mga posibleng pinsala habang patuloy na mabilis ang pag-unlad ng teknolohiya [1].

Ang pangangailangan para sa ganitong kolaboratibong mga pamamaraan ay binibigyang-diin ng mga kamakailang kaganapan sa deployment at regulasyon ng AI. Halimbawa, ang Anthropic, isang pangunahing manlalaro sa AI sector, ay naglunsad ng pilot program para sa AI assistant nitong si Claude, na idinisenyong gumana direkta sa mga browser ng mga user. Ang inisyatibang ito, na naglalayong pataasin ang gamit ng AI sa pamamagitan ng integrasyon nito sa mga pangunahing digital workflow, ay nagbigay-diin din sa mahahalagang hamon sa kaligtasan at seguridad na kaakibat ng browser-based na AI agents. Ang prompt injection attacks—kung saan ang mga malisyosong aktor ay nagmamanipula ng kilos ng AI sa pamamagitan ng pag-embed ng mga nakatagong utos—ay lumitaw bilang isang pangunahing panganib, kaya't nagpatupad ang Anthropic ng matitibay na mitigation strategies tulad ng site-level permissions, action confirmations, at advanced classifiers upang matukoy ang mga kahina-hinalang pattern [2].

Ang mga ganitong panganib ay hindi lamang limitado sa mga indibidwal na kumpanya. Isang kamakailang pag-aaral mula sa mga mananaliksik sa Brown, Harvard, at Stanford ang nakatuklas na maraming AI companies ang hindi ganap na tumutupad sa kanilang mga boluntaryong pangako sa kaligtasan, lalo na pagkatapos ng AI safety pledges ng Biden administration noong 2023. Halimbawa, ang Apple ay mababa ang naging performance sa pagsusuri, na may ebidensya ng pagsunod sa isa lamang sa bawat walong pangako. Binibigyang-diin ng pag-aaral ang mga limitasyon ng self-regulation sa isang mabilis na umuunlad na industriya at nagpapataas ng mga tanong tungkol sa bisa ng mga boluntaryong hakbang sa pagtitiyak ng accountability at kaligtasan [5].

Bilang tugon sa mga hamong ito, inilunsad ng Cloud Security Alliance (CSA) ang AI Safety Initiative nito noong huling bahagi ng 2023, na nagtitipon ng mga lider ng industriya, ahensya ng gobyerno, at mga institusyong akademiko upang bumuo ng mga praktikal na tool at framework para sa AI risk management. Nagbibigay ang inisyatiba ng mga AI readiness checklist, governance framework, at security guidelines sa mga organisasyon, na may layuning i-align ang teknolohikal na pag-unlad sa mga inaasahan ng regulasyon. Kapansin-pansin, ipinakilala rin ng CSA ang RiskRubric.ai, isang scoring system na sumusuri sa kaligtasan, transparency, at reliability ng mga large language model (LLMs), na nag-aalok sa mga enterprise ng data-driven na paraan sa AI adoption [4].

Ang mga kolaboratibong pagsisikap upang mapahusay ang AI safety ay sinusuportahan din ng lumalaking ecosystem ng mga funder at grant program. Ang mga organisasyon tulad ng Long-Term Future Fund, Survival and Flourishing Fund, at AI Safety Fund ay nagbibigay ng pinansyal na suporta sa mga mananaliksik, negosyante, at institusyon na nagtatrabaho sa AI risk mitigation. Nilalayon ng mga inisyatibang ito na tugunan ang mga pangmatagalang existential risk habang isinusulong din ang responsableng inobasyon. Bukod dito, ang mga venture capital firm tulad ng Juniper Ventures at Mythos Ventures ay namumuhunan sa mga startup na bumubuo ng mga tool upang mapabuti ang AI security, compliance, at governance [6].

Ang panawagan para sa cross-lab testing, gaya ng itinaguyod ni Sutskever, ay kumakatawan sa isang mahalagang hakbang tungo sa pagtugon sa mga sistemikong hamon na ito. Sa pamamagitan ng pagpapagana ng shared standards at transparent na pagsusuri sa pagitan ng mga AI development lab, maaaring mapalakas ng industriya ang mas mataas na tiwala at accountability. Ang ganitong pamamaraan ay lalong mahalaga habang ang mga AI system ay nagiging mas kumplikado at mas may kakayahan, na nangangailangan ng nagkakaisang harapan upang suriin ang mga posibleng panganib bago ito i-deploy. Ang OpenAI, Anthropic, at iba pang mahahalagang stakeholder ay may pagkakataon—at responsibilidad—na pangunahan ang transisyong ito sa pamamagitan ng pagtanggap sa kolaboratibong mga safety protocol at pagtatakda ng pamantayan para sa responsableng AI innovation [1].

Isang Bagong Hangganan sa Kaligtasan ng AI: Pagsusuri sa Iba't Ibang Laboratoryo upang Pag-isahin ang Industriya image 0
0

Disclaimer: Ang nilalaman ng artikulong ito ay sumasalamin lamang sa opinyon ng author at hindi kumakatawan sa platform sa anumang kapasidad. Ang artikulong ito ay hindi nilayon na magsilbi bilang isang sanggunian para sa paggawa ng mga desisyon sa investment.

PoolX: Naka-lock para sa mga bagong token.
Hanggang 12%. Palaging naka-on, laging may airdrop.
Mag Locked na ngayon!

Baka magustuhan mo rin

AiCoin Daily Report (Setyembre 05)

AICoin2025/09/05 23:57

Sa bisperas ng 5 trilyong merkado: Saan ang mga oportunidad sa pamumuhunan ng embodied intelligence × Web3?

Embodied intelligence x Web3, mga solusyong may estruktura ang nagtutulak ng mga oportunidad para sa pamumuhunan.

深潮2025/09/05 23:45
Sa bisperas ng 5 trilyong merkado: Saan ang mga oportunidad sa pamumuhunan ng embodied intelligence × Web3?

4000 milyong financing, Vitalik ay sumali sa investment, Etherealize nais maging "tagapagsalita" ng Ethereum

Ang layunin na baguhin ang tradisyonal na pananalapi gamit ang Ethereum ay hindi kinakailangang makamit sa pamamagitan ng DeFi.

深潮2025/09/05 23:41
4000 milyong financing, Vitalik ay sumali sa investment, Etherealize nais maging "tagapagsalita" ng Ethereum