Laporan Panorama Web3-AI: Analisis Mendalam terhadap Logika Teknologi, Aplikasi Skenario, dan Proyek Teratas
Seiring dengan meningkatnya perhatian terhadap narasi AI, semakin banyak fokus terkumpul di jalur ini. Analisis mendalam tentang logika teknis, skenario aplikasi, dan proyek perwakilan di jalur Web3-AI telah dilakukan untuk menyajikan secara komprehensif panorama dan tren perkembangan di bidang ini.
I. Web3-AI: Analisis Logika Teknologi dan Peluang Pasar Baru
1.1 Logika Integrasi Web3 dan AI: Bagaimana Mendefinisikan Jalur Web-AI
Dalam setahun terakhir, narasi AI telah sangat populer di industri Web3, dengan proyek AI bermunculan seperti jamur setelah hujan. Meskipun ada banyak proyek yang melibatkan teknologi AI, beberapa proyek hanya menggunakan AI di beberapa bagian produk mereka, sedangkan ekonomi token yang mendasarinya tidak memiliki hubungan substantif dengan produk AI, oleh karena itu proyek semacam ini tidak termasuk dalam diskusi proyek Web3-AI dalam artikel ini.
Fokus artikel ini adalah pada penggunaan blockchain untuk menyelesaikan masalah hubungan produksi, proyek yang menggunakan AI untuk menyelesaikan masalah produktivitas, di mana proyek-proyek ini sendiri menyediakan produk AI, dan pada saat yang sama menggunakan model ekonomi Web3 sebagai alat hubungan produksi, keduanya saling melengkapi. Kami mengklasifikasikan proyek-proyek semacam ini sebagai jalur Web3-AI. Untuk membantu pembaca lebih memahami jalur Web3-AI, kami akan menjelaskan proses pengembangan AI dan tantangan yang dihadapi, serta bagaimana perpaduan antara Web3 dan AI dapat secara sempurna menyelesaikan masalah dan menciptakan skenario aplikasi baru.
1.2 Proses pengembangan AI dan tantangannya: dari pengumpulan data hingga inferensi model
Teknologi AI adalah teknologi yang memungkinkan komputer untuk mensimulasikan, memperluas, dan meningkatkan kecerdasan manusia. Ini memungkinkan komputer untuk melakukan berbagai tugas kompleks, dari penerjemahan bahasa, klasifikasi gambar hingga pengenalan wajah, dan aplikasi seperti mengemudi otomatis, AI sedang mengubah cara kita hidup dan bekerja.
Proses pengembangan model kecerdasan buatan biasanya mencakup beberapa langkah kunci berikut: pengumpulan data dan pra-pemrosesan data, pemilihan dan penyetelan model, pelatihan model dan inferensi. Sebagai contoh sederhana, untuk mengembangkan model yang mengklasifikasikan gambar kucing dan anjing, Anda perlu:
Pengumpulan data dan pra-pemrosesan data: Kumpulkan dataset gambar yang berisi kucing dan anjing, dapat menggunakan dataset publik atau mengumpulkan data nyata sendiri. Kemudian beri label kategori (kucing atau anjing) untuk setiap gambar, pastikan labelnya akurat. Ubah gambar menjadi format yang dapat dikenali oleh model, bagi dataset menjadi set pelatihan, set validasi, dan set pengujian.
Pemilihan dan Penyesuaian Model: Memilih model yang tepat, seperti Jaringan Saraf Konvolusional (CNN), yang lebih cocok untuk tugas klasifikasi gambar. Menyesuaikan parameter atau arsitektur model berdasarkan kebutuhan yang berbeda, umumnya, tingkat lapisan jaringan model dapat disesuaikan berdasarkan kompleksitas tugas AI. Dalam contoh klasifikasi sederhana ini, tingkat jaringan yang lebih dangkal mungkin sudah cukup.
Pelatihan model: Model dapat dilatih menggunakan GPU, TPU, atau kluster komputasi berkinerja tinggi, waktu pelatihan dipengaruhi oleh kompleksitas model dan kemampuan komputasi.
Inferensi model: File model yang telah dilatih biasanya disebut sebagai bobot model, proses inferensi adalah penggunaan model yang telah dilatih untuk memprediksi atau mengklasifikasikan data baru. Dalam proses ini, dapat digunakan set pengujian atau data baru untuk menguji efektivitas klasifikasi model, biasanya dievaluasi menggunakan metrik seperti akurasi, recall, dan F1-score.
Seperti yang ditunjukkan pada gambar, setelah pengumpulan data dan pra-pemrosesan data, pemilihan dan penyetelan model, serta pelatihan, model yang telah dilatih akan melakukan inferensi pada kumpulan pengujian untuk menghasilkan nilai prediksi kucing dan anjing P (probabilitas), yaitu probabilitas yang diprediksi oleh model bahwa itu adalah kucing atau anjing.
Model AI yang telah dilatih dapat diintegrasikan lebih lanjut ke dalam berbagai aplikasi, menjalankan tugas yang berbeda. Dalam contoh ini, model AI klasifikasi kucing dan anjing dapat diintegrasikan ke dalam aplikasi ponsel, di mana pengguna mengunggah gambar kucing atau anjing, dan akan mendapatkan hasil klasifikasi.
Namun, proses pengembangan AI terpusat memiliki beberapa masalah dalam skenario berikut:
Privasi Pengguna: Dalam skenario terpusat, proses pengembangan AI biasanya tidak transparan. Data pengguna mungkin dicuri tanpa sepengetahuan dan digunakan untuk pelatihan AI.
Sumber data diperoleh: Tim kecil atau individu mungkin menghadapi batasan tidak adanya sumber terbuka saat mendapatkan data di bidang tertentu (seperti data medis).
Pemilihan dan penyetelan model: Untuk tim kecil, sulit untuk mendapatkan sumber daya model khusus atau menghabiskan biaya besar untuk penyetelan model.
Perolehan daya komputasi: Bagi pengembang individu dan tim kecil, biaya pembelian GPU yang tinggi dan biaya sewa daya komputasi cloud dapat menjadi beban ekonomi yang signifikan.
Pendapatan Aset AI: Pekerja penandaan data sering kali tidak dapat memperoleh pendapatan yang sebanding dengan usaha mereka, sementara hasil penelitian pengembang AI juga sulit untuk dicocokkan dengan pembeli yang memiliki permintaan.
Tantangan yang ada di bawah skenario AI terpusat dapat diatasi dengan menggabungkannya dengan Web3. Web3, sebagai hubungan produksi baru, secara alami cocok untuk mewakili produktivitas baru AI, sehingga mendorong kemajuan teknologi dan kapasitas produksi secara bersamaan.
1.3 Sinergi Web3 dan AI: Perubahan Peran dan Aplikasi Inovatif
Web3 dan AI yang digabungkan dapat meningkatkan kedaulatan pengguna, menyediakan platform kolaborasi AI yang terbuka bagi pengguna, memungkinkan pengguna bertransisi dari pengguna AI di era Web2 menjadi peserta, menciptakan AI yang dapat dimiliki oleh semua orang. Sementara itu, penggabungan dunia Web3 dengan teknologi AI juga dapat menghasilkan lebih banyak skenario aplikasi inovatif dan cara bermain.
Berdasarkan teknologi Web3, pengembangan dan penerapan AI akan menyambut sistem ekonomi kolaboratif yang baru. Privasi data orang akan terjamin, model data crowdsourcing akan mendorong kemajuan model AI, banyak sumber daya AI sumber terbuka dapat digunakan oleh pengguna, dan daya komputasi yang dibagikan dapat diperoleh dengan biaya yang lebih rendah. Dengan memanfaatkan mekanisme crowdsourcing kolaboratif yang terdesentralisasi dan pasar AI yang terbuka, sistem distribusi pendapatan yang adil dapat diwujudkan, sehingga mendorong lebih banyak orang untuk mendorong kemajuan teknologi AI.
Dalam skenario Web3, AI dapat memberikan dampak positif di berbagai jalur. Misalnya, model AI dapat diintegrasikan ke dalam kontrak pintar, meningkatkan efisiensi kerja dalam berbagai skenario aplikasi, seperti analisis pasar, deteksi keamanan, klustering sosial, dan berbagai fungsi lainnya. AI generatif tidak hanya memungkinkan pengguna merasakan peran "seniman", seperti menggunakan teknologi AI untuk membuat NFT mereka sendiri, tetapi juga dapat menciptakan berbagai macam skenario permainan dan pengalaman interaktif yang menarik dalam GameFi. Infrastruktur yang kaya menyediakan pengalaman pengembangan yang lancar, baik untuk ahli AI maupun pemula yang ingin memasuki bidang AI dapat menemukan pintu masuk yang sesuai di dunia ini.
Dua, Peta dan Arsitektur Proyek Ekosistem Web3-AI
Kami terutama meneliti 41 proyek di jalur Web3-AI dan membagi proyek-proyek ini ke dalam berbagai tingkat. Logika pembagian setiap tingkat ditunjukkan pada gambar di bawah ini, termasuk lapisan infrastruktur, lapisan menengah, dan lapisan aplikasi, di mana setiap lapisan dibagi lagi menjadi berbagai sektor. Di bab berikutnya, kami akan melakukan analisis mendalam terhadap beberapa proyek yang representatif.
Lapisan infrastruktur mencakup sumber daya komputasi dan arsitektur teknologi yang mendukung seluruh siklus hidup AI, lapisan menengah mencakup manajemen data, pengembangan model, dan layanan inferensi verifikasi yang menghubungkan infrastruktur dengan aplikasi, sementara lapisan aplikasi berfokus pada berbagai aplikasi dan solusi yang langsung ditujukan kepada pengguna.
Lapisan infrastruktur:
Lapisan infrastruktur adalah dasar dari siklus hidup AI, artikel ini mengklasifikasikan daya komputasi, AI Chain, dan platform pengembangan sebagai lapisan infrastruktur. Justru dukungan dari infrastruktur-infrastruktur ini yang memungkinkan pelatihan dan inferensi model AI, serta menghadirkan aplikasi AI yang kuat dan praktis kepada pengguna.
Jaringan komputasi terdesentralisasi: dapat menyediakan daya komputasi terdistribusi untuk pelatihan model AI, memastikan penggunaan sumber daya komputasi yang efisien dan ekonomis. Beberapa proyek menawarkan pasar daya komputasi terdesentralisasi, di mana pengguna dapat menyewa daya komputasi dengan biaya rendah atau berbagi daya komputasi untuk mendapatkan keuntungan, proyek yang mewakili seperti IO.NET dan Hyperbolic. Selain itu, beberapa proyek telah mengembangkan permainan baru, seperti Compute Labs, yang mengusulkan protokol tokenisasi, di mana pengguna dapat berpartisipasi dalam penyewaan daya komputasi dengan cara yang berbeda untuk mendapatkan keuntungan dengan membeli NFT yang mewakili entitas GPU.
AI Chain: Menggunakan blockchain sebagai dasar siklus hidup AI, mewujudkan interaksi sumber daya AI on-chain dan off-chain yang mulus, serta mendorong perkembangan ekosistem industri. Pasar AI terdesentralisasi di blockchain dapat memperdagangkan aset AI seperti data, model, agen, dan menyediakan kerangka pengembangan AI serta alat pengembangan yang mendukung, dengan proyek yang diwakili seperti Sahara AI. AI Chain juga dapat memfasilitasi kemajuan teknologi AI di berbagai bidang, seperti Bittensor yang mendorong kompetisi subnet AI yang berbeda melalui mekanisme insentif subnet yang inovatif.
Platform pengembangan: Beberapa proyek menyediakan platform pengembangan agen AI, yang juga dapat melakukan perdagangan agen AI, seperti Fetch.ai dan ChainML. Alat serba guna membantu pengembang untuk lebih mudah membuat, melatih, dan menerapkan model AI, dengan proyek perwakilan seperti Nimble. Infrastruktur ini memfasilitasi penerapan teknologi AI yang luas dalam ekosistem Web3.
Lapisan tengah:
Tingkat ini melibatkan data AI, model, serta inferensi dan verifikasi, dengan menggunakan teknologi Web3 dapat mencapai efisiensi kerja yang lebih tinggi.
Data: Kualitas dan jumlah data adalah faktor kunci yang mempengaruhi efek pelatihan model. Di dunia Web3, melalui data crowdsourcing dan pemrosesan data kolaboratif, kita dapat mengoptimalkan pemanfaatan sumber daya dan menurunkan biaya data. Pengguna dapat memiliki otonomi atas data mereka, menjual data mereka sendiri dalam perlindungan privasi, untuk menghindari data dicuri oleh pedagang yang tidak bertanggung jawab dan meraih keuntungan yang tinggi. Bagi pihak yang membutuhkan data, platform-platform ini menawarkan pilihan yang luas dan biaya yang sangat rendah. Proyek-proyek yang mewakili seperti Grass memanfaatkan bandwidth pengguna untuk mengambil data Web, xData mengumpulkan informasi media melalui plugin yang ramah pengguna, dan mendukung pengguna untuk mengunggah informasi tweet.
Selain itu, beberapa platform memungkinkan ahli di bidangnya atau pengguna biasa untuk melakukan tugas pra-pemrosesan data, seperti pelabelan gambar, klasifikasi data, yang mungkin memerlukan pengetahuan profesional dalam pemrosesan data untuk tugas keuangan dan hukum. Pengguna dapat men-token-kan keterampilan untuk mencapai kolaborasi crowdsourcing dalam pra-pemrosesan data. Contohnya adalah pasar AI seperti Sahara AI, yang memiliki tugas data dari berbagai bidang dan dapat mencakup berbagai skenario data; sedangkan AIT Protocol melakukan pelabelan data melalui kolaborasi manusia dan mesin.
Model: Dalam proses pengembangan AI yang telah disebutkan sebelumnya, berbagai jenis kebutuhan memerlukan pencocokan model yang sesuai. Model yang umum digunakan untuk tugas gambar seperti CNN, GAN, untuk tugas deteksi objek dapat memilih seri Yolo, dan untuk tugas teks model yang umum digunakan adalah RNN, Transformer, dan tentu saja ada beberapa model besar tertentu atau umum. Kedalaman model yang dibutuhkan untuk tugas dengan kompleksitas yang berbeda juga berbeda, terkadang perlu melakukan penyesuaian pada model.
Beberapa proyek mendukung pengguna untuk menyediakan berbagai jenis model atau berkolaborasi dalam pelatihan model melalui crowdsourcing, seperti Sentient yang melalui desain modular, memungkinkan pengguna untuk menempatkan data model yang dapat dipercaya di lapisan penyimpanan dan lapisan distribusi untuk optimasi model, alat pengembangan yang disediakan oleh Sahara AI dilengkapi dengan algoritma AI canggih dan kerangka perhitungan, serta memiliki kemampuan pelatihan kolaboratif.
Penalaran dan verifikasi: Setelah model dilatih, model akan menghasilkan file bobot model, yang dapat digunakan untuk klasifikasi langsung, prediksi, atau tugas spesifik lainnya, proses ini disebut penalaran. Proses penalaran biasanya disertai dengan mekanisme verifikasi, untuk memverifikasi apakah sumber model penalaran benar, apakah ada perilaku jahat, dll. Penalaran Web3 biasanya dapat diintegrasikan ke dalam kontrak pintar, dengan memanggil model untuk melakukan penalaran, metode verifikasi yang umum termasuk teknologi ZKML, OPML, dan TEE. Proyek perwakilan seperti orakel AI di blockchain ORA (OAO), telah memperkenalkan OPML sebagai lapisan yang dapat diverifikasi untuk orakel AI, di situs resmi ORA juga disebutkan penelitian mereka tentang ZKML dan opp/ai (ZKML dikombinasikan dengan OPML).
Lapisan aplikasi:
Tingkat ini terutama merupakan aplikasi yang langsung ditujukan untuk pengguna, menggabungkan AI dengan Web3, menciptakan lebih banyak cara yang menarik dan inovatif untuk bermain. Artikel ini terutama merangkum proyek-proyek dalam beberapa bidang seperti AIGC (Konten yang Dihasilkan AI), agen AI, dan analisis data.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Web3-AI jalur panorama: analisis mendalam tentang integrasi teknologi, skenario aplikasi, dan proyek perwakilan Kedalaman
Laporan Panorama Web3-AI: Analisis Mendalam terhadap Logika Teknologi, Aplikasi Skenario, dan Proyek Teratas
Seiring dengan meningkatnya perhatian terhadap narasi AI, semakin banyak fokus terkumpul di jalur ini. Analisis mendalam tentang logika teknis, skenario aplikasi, dan proyek perwakilan di jalur Web3-AI telah dilakukan untuk menyajikan secara komprehensif panorama dan tren perkembangan di bidang ini.
I. Web3-AI: Analisis Logika Teknologi dan Peluang Pasar Baru
1.1 Logika Integrasi Web3 dan AI: Bagaimana Mendefinisikan Jalur Web-AI
Dalam setahun terakhir, narasi AI telah sangat populer di industri Web3, dengan proyek AI bermunculan seperti jamur setelah hujan. Meskipun ada banyak proyek yang melibatkan teknologi AI, beberapa proyek hanya menggunakan AI di beberapa bagian produk mereka, sedangkan ekonomi token yang mendasarinya tidak memiliki hubungan substantif dengan produk AI, oleh karena itu proyek semacam ini tidak termasuk dalam diskusi proyek Web3-AI dalam artikel ini.
Fokus artikel ini adalah pada penggunaan blockchain untuk menyelesaikan masalah hubungan produksi, proyek yang menggunakan AI untuk menyelesaikan masalah produktivitas, di mana proyek-proyek ini sendiri menyediakan produk AI, dan pada saat yang sama menggunakan model ekonomi Web3 sebagai alat hubungan produksi, keduanya saling melengkapi. Kami mengklasifikasikan proyek-proyek semacam ini sebagai jalur Web3-AI. Untuk membantu pembaca lebih memahami jalur Web3-AI, kami akan menjelaskan proses pengembangan AI dan tantangan yang dihadapi, serta bagaimana perpaduan antara Web3 dan AI dapat secara sempurna menyelesaikan masalah dan menciptakan skenario aplikasi baru.
1.2 Proses pengembangan AI dan tantangannya: dari pengumpulan data hingga inferensi model
Teknologi AI adalah teknologi yang memungkinkan komputer untuk mensimulasikan, memperluas, dan meningkatkan kecerdasan manusia. Ini memungkinkan komputer untuk melakukan berbagai tugas kompleks, dari penerjemahan bahasa, klasifikasi gambar hingga pengenalan wajah, dan aplikasi seperti mengemudi otomatis, AI sedang mengubah cara kita hidup dan bekerja.
Proses pengembangan model kecerdasan buatan biasanya mencakup beberapa langkah kunci berikut: pengumpulan data dan pra-pemrosesan data, pemilihan dan penyetelan model, pelatihan model dan inferensi. Sebagai contoh sederhana, untuk mengembangkan model yang mengklasifikasikan gambar kucing dan anjing, Anda perlu:
Pengumpulan data dan pra-pemrosesan data: Kumpulkan dataset gambar yang berisi kucing dan anjing, dapat menggunakan dataset publik atau mengumpulkan data nyata sendiri. Kemudian beri label kategori (kucing atau anjing) untuk setiap gambar, pastikan labelnya akurat. Ubah gambar menjadi format yang dapat dikenali oleh model, bagi dataset menjadi set pelatihan, set validasi, dan set pengujian.
Pemilihan dan Penyesuaian Model: Memilih model yang tepat, seperti Jaringan Saraf Konvolusional (CNN), yang lebih cocok untuk tugas klasifikasi gambar. Menyesuaikan parameter atau arsitektur model berdasarkan kebutuhan yang berbeda, umumnya, tingkat lapisan jaringan model dapat disesuaikan berdasarkan kompleksitas tugas AI. Dalam contoh klasifikasi sederhana ini, tingkat jaringan yang lebih dangkal mungkin sudah cukup.
Pelatihan model: Model dapat dilatih menggunakan GPU, TPU, atau kluster komputasi berkinerja tinggi, waktu pelatihan dipengaruhi oleh kompleksitas model dan kemampuan komputasi.
Inferensi model: File model yang telah dilatih biasanya disebut sebagai bobot model, proses inferensi adalah penggunaan model yang telah dilatih untuk memprediksi atau mengklasifikasikan data baru. Dalam proses ini, dapat digunakan set pengujian atau data baru untuk menguji efektivitas klasifikasi model, biasanya dievaluasi menggunakan metrik seperti akurasi, recall, dan F1-score.
Seperti yang ditunjukkan pada gambar, setelah pengumpulan data dan pra-pemrosesan data, pemilihan dan penyetelan model, serta pelatihan, model yang telah dilatih akan melakukan inferensi pada kumpulan pengujian untuk menghasilkan nilai prediksi kucing dan anjing P (probabilitas), yaitu probabilitas yang diprediksi oleh model bahwa itu adalah kucing atau anjing.
Model AI yang telah dilatih dapat diintegrasikan lebih lanjut ke dalam berbagai aplikasi, menjalankan tugas yang berbeda. Dalam contoh ini, model AI klasifikasi kucing dan anjing dapat diintegrasikan ke dalam aplikasi ponsel, di mana pengguna mengunggah gambar kucing atau anjing, dan akan mendapatkan hasil klasifikasi.
Namun, proses pengembangan AI terpusat memiliki beberapa masalah dalam skenario berikut:
Privasi Pengguna: Dalam skenario terpusat, proses pengembangan AI biasanya tidak transparan. Data pengguna mungkin dicuri tanpa sepengetahuan dan digunakan untuk pelatihan AI.
Sumber data diperoleh: Tim kecil atau individu mungkin menghadapi batasan tidak adanya sumber terbuka saat mendapatkan data di bidang tertentu (seperti data medis).
Pemilihan dan penyetelan model: Untuk tim kecil, sulit untuk mendapatkan sumber daya model khusus atau menghabiskan biaya besar untuk penyetelan model.
Perolehan daya komputasi: Bagi pengembang individu dan tim kecil, biaya pembelian GPU yang tinggi dan biaya sewa daya komputasi cloud dapat menjadi beban ekonomi yang signifikan.
Pendapatan Aset AI: Pekerja penandaan data sering kali tidak dapat memperoleh pendapatan yang sebanding dengan usaha mereka, sementara hasil penelitian pengembang AI juga sulit untuk dicocokkan dengan pembeli yang memiliki permintaan.
Tantangan yang ada di bawah skenario AI terpusat dapat diatasi dengan menggabungkannya dengan Web3. Web3, sebagai hubungan produksi baru, secara alami cocok untuk mewakili produktivitas baru AI, sehingga mendorong kemajuan teknologi dan kapasitas produksi secara bersamaan.
1.3 Sinergi Web3 dan AI: Perubahan Peran dan Aplikasi Inovatif
Web3 dan AI yang digabungkan dapat meningkatkan kedaulatan pengguna, menyediakan platform kolaborasi AI yang terbuka bagi pengguna, memungkinkan pengguna bertransisi dari pengguna AI di era Web2 menjadi peserta, menciptakan AI yang dapat dimiliki oleh semua orang. Sementara itu, penggabungan dunia Web3 dengan teknologi AI juga dapat menghasilkan lebih banyak skenario aplikasi inovatif dan cara bermain.
Berdasarkan teknologi Web3, pengembangan dan penerapan AI akan menyambut sistem ekonomi kolaboratif yang baru. Privasi data orang akan terjamin, model data crowdsourcing akan mendorong kemajuan model AI, banyak sumber daya AI sumber terbuka dapat digunakan oleh pengguna, dan daya komputasi yang dibagikan dapat diperoleh dengan biaya yang lebih rendah. Dengan memanfaatkan mekanisme crowdsourcing kolaboratif yang terdesentralisasi dan pasar AI yang terbuka, sistem distribusi pendapatan yang adil dapat diwujudkan, sehingga mendorong lebih banyak orang untuk mendorong kemajuan teknologi AI.
Dalam skenario Web3, AI dapat memberikan dampak positif di berbagai jalur. Misalnya, model AI dapat diintegrasikan ke dalam kontrak pintar, meningkatkan efisiensi kerja dalam berbagai skenario aplikasi, seperti analisis pasar, deteksi keamanan, klustering sosial, dan berbagai fungsi lainnya. AI generatif tidak hanya memungkinkan pengguna merasakan peran "seniman", seperti menggunakan teknologi AI untuk membuat NFT mereka sendiri, tetapi juga dapat menciptakan berbagai macam skenario permainan dan pengalaman interaktif yang menarik dalam GameFi. Infrastruktur yang kaya menyediakan pengalaman pengembangan yang lancar, baik untuk ahli AI maupun pemula yang ingin memasuki bidang AI dapat menemukan pintu masuk yang sesuai di dunia ini.
Dua, Peta dan Arsitektur Proyek Ekosistem Web3-AI
Kami terutama meneliti 41 proyek di jalur Web3-AI dan membagi proyek-proyek ini ke dalam berbagai tingkat. Logika pembagian setiap tingkat ditunjukkan pada gambar di bawah ini, termasuk lapisan infrastruktur, lapisan menengah, dan lapisan aplikasi, di mana setiap lapisan dibagi lagi menjadi berbagai sektor. Di bab berikutnya, kami akan melakukan analisis mendalam terhadap beberapa proyek yang representatif.
Lapisan infrastruktur mencakup sumber daya komputasi dan arsitektur teknologi yang mendukung seluruh siklus hidup AI, lapisan menengah mencakup manajemen data, pengembangan model, dan layanan inferensi verifikasi yang menghubungkan infrastruktur dengan aplikasi, sementara lapisan aplikasi berfokus pada berbagai aplikasi dan solusi yang langsung ditujukan kepada pengguna.
Lapisan infrastruktur:
Lapisan infrastruktur adalah dasar dari siklus hidup AI, artikel ini mengklasifikasikan daya komputasi, AI Chain, dan platform pengembangan sebagai lapisan infrastruktur. Justru dukungan dari infrastruktur-infrastruktur ini yang memungkinkan pelatihan dan inferensi model AI, serta menghadirkan aplikasi AI yang kuat dan praktis kepada pengguna.
Jaringan komputasi terdesentralisasi: dapat menyediakan daya komputasi terdistribusi untuk pelatihan model AI, memastikan penggunaan sumber daya komputasi yang efisien dan ekonomis. Beberapa proyek menawarkan pasar daya komputasi terdesentralisasi, di mana pengguna dapat menyewa daya komputasi dengan biaya rendah atau berbagi daya komputasi untuk mendapatkan keuntungan, proyek yang mewakili seperti IO.NET dan Hyperbolic. Selain itu, beberapa proyek telah mengembangkan permainan baru, seperti Compute Labs, yang mengusulkan protokol tokenisasi, di mana pengguna dapat berpartisipasi dalam penyewaan daya komputasi dengan cara yang berbeda untuk mendapatkan keuntungan dengan membeli NFT yang mewakili entitas GPU.
AI Chain: Menggunakan blockchain sebagai dasar siklus hidup AI, mewujudkan interaksi sumber daya AI on-chain dan off-chain yang mulus, serta mendorong perkembangan ekosistem industri. Pasar AI terdesentralisasi di blockchain dapat memperdagangkan aset AI seperti data, model, agen, dan menyediakan kerangka pengembangan AI serta alat pengembangan yang mendukung, dengan proyek yang diwakili seperti Sahara AI. AI Chain juga dapat memfasilitasi kemajuan teknologi AI di berbagai bidang, seperti Bittensor yang mendorong kompetisi subnet AI yang berbeda melalui mekanisme insentif subnet yang inovatif.
Platform pengembangan: Beberapa proyek menyediakan platform pengembangan agen AI, yang juga dapat melakukan perdagangan agen AI, seperti Fetch.ai dan ChainML. Alat serba guna membantu pengembang untuk lebih mudah membuat, melatih, dan menerapkan model AI, dengan proyek perwakilan seperti Nimble. Infrastruktur ini memfasilitasi penerapan teknologi AI yang luas dalam ekosistem Web3.
Lapisan tengah:
Tingkat ini melibatkan data AI, model, serta inferensi dan verifikasi, dengan menggunakan teknologi Web3 dapat mencapai efisiensi kerja yang lebih tinggi.
Selain itu, beberapa platform memungkinkan ahli di bidangnya atau pengguna biasa untuk melakukan tugas pra-pemrosesan data, seperti pelabelan gambar, klasifikasi data, yang mungkin memerlukan pengetahuan profesional dalam pemrosesan data untuk tugas keuangan dan hukum. Pengguna dapat men-token-kan keterampilan untuk mencapai kolaborasi crowdsourcing dalam pra-pemrosesan data. Contohnya adalah pasar AI seperti Sahara AI, yang memiliki tugas data dari berbagai bidang dan dapat mencakup berbagai skenario data; sedangkan AIT Protocol melakukan pelabelan data melalui kolaborasi manusia dan mesin.
Beberapa proyek mendukung pengguna untuk menyediakan berbagai jenis model atau berkolaborasi dalam pelatihan model melalui crowdsourcing, seperti Sentient yang melalui desain modular, memungkinkan pengguna untuk menempatkan data model yang dapat dipercaya di lapisan penyimpanan dan lapisan distribusi untuk optimasi model, alat pengembangan yang disediakan oleh Sahara AI dilengkapi dengan algoritma AI canggih dan kerangka perhitungan, serta memiliki kemampuan pelatihan kolaboratif.
Lapisan aplikasi:
Tingkat ini terutama merupakan aplikasi yang langsung ditujukan untuk pengguna, menggabungkan AI dengan Web3, menciptakan lebih banyak cara yang menarik dan inovatif untuk bermain. Artikel ini terutama merangkum proyek-proyek dalam beberapa bidang seperti AIGC (Konten yang Dihasilkan AI), agen AI, dan analisis data.