Bitget App
Trading lebih cerdas
Beli kriptoPasarTradingFuturesEarnWawasanSelengkapnya
Paradigma Baru Ekonomi Data AI: Ambisi DIN dan Penjualan Node dari Perspektif Pra-pemrosesan Data Modular

Paradigma Baru Ekonomi Data AI: Ambisi DIN dan Penjualan Node dari Perspektif Pra-pemrosesan Data Modular

GO2MARS的WEB3研究GO2MARS的WEB3研究2025/11/27 20:43
Tampilkan aslinya
Oleh:GO2MARS的WEB3研究

Saat ini, AI tidak diragukan lagi merupakan salah satu sektor terpanas di dunia. Baik itu OpenAI di Silicon Valley maupun Moonshot serta Zhipu Qingyan di dalam negeri, para pengusaha baru dan perusahaan besar tradisional telah berbondong-bondong bergabung dalam revolusi AI ini.

Paradigma Baru Ekonomi Data AI: Ambisi DIN dan Penjualan Node dari Perspektif Pra-pemrosesan Data Modular image 0

Pendahuluan

Saat ini, AI tidak diragukan lagi menjadi salah satu bidang paling panas di seluruh dunia. Baik itu OpenAI di Silicon Valley maupun Moonshot dan Zhipu Qingyan di dalam negeri, para pengusaha baru dan perusahaan besar tradisional telah memasuki revolusi AI ini satu per satu. AI tidak hanya memimpin tren di bidang teknologi, tetapi juga menjadi salah satu sektor paling menonjol di pasar cryptocurrency tahun ini. Melihat proyek-proyek yang terdaftar di berbagai CEX tahun ini, meskipun pasar mengalami gejolak baru-baru ini, pemimpin AI Bittensor (TAO) masih memimpin semua koin baru tahun ini dengan tingkat pengembalian lebih dari 5 kali lipat. Seiring dengan perkembangan dan penerapan teknologi AI, data sebagai fondasi pengembangan AI menjadi semakin penting.

Di era AI, pentingnya dan potensi nilai data telah mencapai tingkat yang belum pernah terjadi sebelumnya

Menurut statistik, perusahaan model besar AI utama saat ini harus memproses dan mengonsumsi ratusan juta kumpulan data setiap tahun, dan efektivitas serta akurasi data ini secara langsung memengaruhi hasil pelatihan model AI. Namun, biaya perolehan data juga terus meningkat, menjadi tantangan besar yang dihadapi oleh perusahaan AI besar.

Optimalisasi kinerja didukung oleh konsumsi data yang terus meningkat

Di pasar saat ini, perusahaan model besar memproses dan mengonsumsi data dalam jumlah yang sangat besar setiap tahun. Sebagai contoh, OpenAI menggunakan sekitar 45TB data teks untuk melatih model GPT-3, dan biaya pelatihan GPT-4 bahkan mencapai 78 juta dolar AS; biaya komputasi untuk melatih model Gemini Ultra milik Google sekitar 191 juta dolar AS. Permintaan data yang sangat besar ini tidak hanya terbatas pada OpenAI, perusahaan AI lain seperti Google, Meta, dan lainnya juga harus memproses data dalam jumlah besar saat melatih model AI besar.

Efektivitas data perlu diperhatikan

Data yang efektif harus memiliki kualitas tinggi, tidak bias, dan kaya akan fitur, untuk memastikan model AI dapat belajar dan membuat prediksi yang akurat. Misalnya, OpenAI saat melatih GPT-3 menggunakan data teks dari berbagai sumber, termasuk buku, artikel, dan situs web, untuk memastikan keragaman dan representasi data. Namun, efektivitas data tidak hanya bergantung pada sumbernya, tetapi juga melibatkan proses pembersihan data, pelabelan, dan pra-pemrosesan, yang semuanya memerlukan banyak tenaga kerja dan sumber daya.

Ekonomis yang tidak boleh diabaikan, biaya pengumpulan dan pemrosesan data

Dalam pelatihan model AI yang sebenarnya, biaya pengumpulan, pelabelan, dan pemrosesan data sering kali diremehkan, padahal biaya tersebut bisa sangat signifikan. Secara khusus, pelabelan data sendiri adalah proses yang memakan waktu dan mahal, sering kali memerlukan tenaga kerja manual. Setelah data dikumpulkan, data juga perlu dibersihkan, diorganisasi, dan diproses agar algoritma AI dapat memanfaatkannya secara efektif. Menurut laporan McKinsey, biaya pelatihan satu model AI besar bisa mencapai jutaan dolar AS. Selain itu, pembangunan dan pemeliharaan pusat data serta infrastruktur komputasi perusahaan AI juga merupakan pengeluaran besar.

Secara keseluruhan, pelatihan model AI besar sangat bergantung pada data berkualitas tinggi dalam jumlah besar, dan jumlah, efektivitas, serta biaya perolehan data secara langsung menentukan kinerja dan keberhasilan model AI. Di masa depan, seiring kemajuan teknologi AI, bagaimana memperoleh dan memanfaatkan data secara efisien akan menjadi faktor kunci dalam persaingan perusahaan AI.

Lapisan Pra-pemrosesan Data Modular, Solusi Data AI Terdesentralisasi Berbasis Blockchain

Dalam konteks ini, DIN (sebelumnya bernama Web3Go) muncul sebagai lapisan pra-pemrosesan data AI modular pertama. DIN bertujuan untuk memungkinkan setiap orang menyediakan data untuk AI dan mendapatkan imbalan melalui verifikasi data terdesentralisasi dan pemrosesan vektorisasi, memimpin tren ekonomi data di mana setiap orang dapat memonetisasi data pribadi mereka dan perusahaan dapat memperoleh data secara lebih efisien dan ekonomis. Saat ini, DIN telah memperoleh pendanaan awal sebesar 4 juta dolar AS dari Binance Labs, dan kemudian menerima tambahan 4 juta dolar AS pendanaan pra-listing dari institusi, komunitas, dan jaringan KOL lainnya, dengan valuasi saat ini sebesar 80 juta dolar AS, menunjukkan pengakuan tinggi pasar terhadap potensi besar dan perkembangan masa depannya. Mitra mereka meliputi Polkadot, BNB Chain, Moonbeam Network, dan Manta Network.

Node Pra-pemrosesan Data DIN – Chipper Node

DIN memiliki posisi pasar yang sangat jelas, berkomitmen membangun jaringan kecerdasan data terdesentralisasi di bidang AI dan data.Chipper Node memainkan peran penting dalam ekosistem DIN,bertanggung jawab atas verifikasi data, pemrosesan vektorisasi, serta perhitungan imbalan, dan merupakan komponen inti dari lapisan pra-pemrosesan data DIN.

0

Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.

PoolX: Raih Token Baru
APR hingga 12%. Selalu aktif, selalu dapat airdrop.
Kunci sekarang!

Kamu mungkin juga menyukai