Bitget App
Trading lebih cerdas
Beli KriptoPasarTradingFuturesEarnWeb3WawasanSelengkapnya
Trading
Spot
Beli dan jual kripto dengan mudah
Margin
Perkuat modalmu dan maksimalkan efisiensi dana
Onchain
Trading Onchain, tanpa on-chain
Konversi
Tanpa biaya, tanpa slippage
Jelajah
Launchhub
Dapatkan keunggulan lebih awal dan mulailah menang
Copy
Salin elite trader dengan satu klik
Bot
Bot trading AI yang mudah, cepat, dan andal
Trading
Futures USDT-M
Futures diselesaikan dalam USDT
Futures USDC-M
Futures diselesaikan dalam USDC
Futures Koin-M
Futures diselesaikan dalam mata uang kripto
Jelajah
Panduan fitur
Dari pemula hingga mahir di perdagangan futures
Promosi Futures
Hadiah berlimpah menantimu
Ringkasan
Beragam produk untuk mengembangkan aset Anda
Earn Sederhana
Deposit dan tarik kapan saja untuk mendapatkan imbal hasil fleksibel tanpa risiko
Earn On-chain
Dapatkan profit setiap hari tanpa mempertaruhkan modal pokok
Earn Terstruktur
Inovasi keuangan yang tangguh untuk menghadapi perubahan pasar
VIP dan Manajemen Kekayaan
Layanan premium untuk manajemen kekayaan cerdas
Pinjaman
Pinjaman fleksibel dengan keamanan dana tinggi
Para Ilmuwan Memperingatkan ‘Ancaman Eksistensial’ dari AI yang Tidak Terkendali

Para Ilmuwan Memperingatkan ‘Ancaman Eksistensial’ dari AI yang Tidak Terkendali

CoineditionCoinedition2024/09/17 13:51
Oleh:By Nynu V Jamal
  • Ilmuwan AI memperingatkan kemungkinan ancaman AI jika manusia kehilangan kendali.
  • Para ahli mendesak negara-negara untuk mengadopsi rencana darurat global untuk mengatasi risiko.
  • Mereka menyesalkan kurangnya teknologi canggih untuk menghadapi bahaya AI.

Para ilmuwan AI telah membunyikan alarm tentang potensi bahaya kecerdasan buatan. Dalam sebuah pernyataan , sekelompok ahli memperingatkan tentang kemungkinan manusia kehilangan kendali atas AI dan menyerukan sistem regulasi yang terkoordinasi secara global.

Para ilmuwan, yang berperan dalam mengembangkan teknologi AI, menyatakan keprihatinan tentang potensi efek berbahayanya jika dibiarkan. Mereka menekankan kurangnya ilmu pengetahuan canggih saat ini untuk “mengontrol dan melindungi” sistem AI, menyatakan bahwa “hilangnya kendali manusia atau penggunaan jahat dari sistem AI ini dapat menyebabkan hasil bencana bagi seluruh umat manusia.”

Baca juga: OpenAI Luncurkan Model AI Baru yang Dirancang untuk ‘Berpikir’ Sebelum Menjawab

Gillian Hadfield, seorang sarjana hukum dan profesor di Universitas Johns Hopkins, menggarisbawahi kebutuhan mendesak untuk langkah-langkah peraturan. Dia menyoroti kurangnya teknologi saat ini untuk mengontrol atau menahan AI jika ingin melampaui kendali manusia.

We don't have to agree on the probability of catastrophic AI events to agree that we should have some global protocols in place in the event of international AI incidents that require coordinated responses. More here: https://t.co/FrKyLXJLYf

— Gillian Hadfield (@ghadfield) September 16, 2024

Panggilan untuk Rencana Kontinjensi Global

Para ilmuwan menekankan perlunya “rencana darurat global” untuk memungkinkan negara-negara mengidentifikasi dan mengatasi ancaman yang ditimbulkan oleh AI. Mereka menekankan bahwa keamanan AI adalah barang publik global yang membutuhkan kerja sama dan tata kelola internasional.

Para ahli mengusulkan tiga proses utama untuk mengatur AI:

  • Menetapkan protokol tanggap darurat
  • Menerapkan kerangka kerja standar keselamatan
  • Melakukan penelitian menyeluruh tentang keamanan AI

Saat mengatasi keadaan darurat mengadopsi pedoman peraturan baru, para ahli menyatakan bahwa keamanan AI adalah barang publik global yang membutuhkan kerja sama dan tata kelola internasional. Mereka mengedepankan tiga proses utama yang melibatkan regulasi AI. Para ilmuwan merekomendasikan untuk menetapkan protokol tanggap darurat, menerapkan kerangka standar keselamatan, dan melakukan penelitian yang memadai tentang keselamatan AI.

Negara-negara di seluruh dunia mengambil langkah-langkah untuk mengembangkan peraturan dan pedoman untuk mengurangi risiko AI yang terus meningkat. Di California, dua RUU, AB 3211 dan SB 1047 , telah diusulkan untuk melindungi publik dari potensi bahaya AI. AB 3211 berfokus pada memastikan transparansi dengan membedakan antara AI dan konten buatan manusia. SB 1047 meminta pertanggungjawaban pengembang AI atas potensi bahaya yang disebabkan oleh model mereka.

Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.

0

Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.

PoolX: Raih Token Baru
APR hingga 12%. Selalu aktif, selalu dapat airdrop.
Kunci sekarang!