OpenLedger Kedalaman Penelitian: Membangun Ekonomi Agen Cerdas yang Didorong oleh Data dan Dapat Dikombinasikan dengan Model
Satu, Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan kekuatan komputasi adalah tiga elemen inti infrastruktur AI yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga mengalami tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang secara umum menekankan logika pertumbuhan yang kasar "menggabungkan kekuatan komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar ke pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Spesifik (SLM)
Model bahasa tradisional yang besar (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter yang berkisar antara 70B hingga 500B, dan biaya pelatihan sekali mencapai jutaan dolar. SLM (Model Bahasa Khusus) sebagai sebuah paradigma fine-tuning ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka, menggabungkan sedikit data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, tetapi akan beroperasi secara kolaboratif dengan LLM melalui panggilan arsitektur Agent, sistem plugin untuk pengalihan dinamis, hot-plug modul LoRA, RAG (retrieval-augmented generation), dan lainnya. Arsitektur ini mempertahankan kemampuan luas LLM sekaligus memperkuat kinerja profesional melalui modul tuning, membentuk sistem cerdas kombinatorial yang sangat fleksibel.
Nilai dan batasan Crypto AI di lapisan model
Proyek Crypto AI pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti dari model bahasa besar (LLM), penyebab utamanya adalah
Hambatan teknis yang terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan rekayasa yang diperlukan untuk melatih Foundation Model sangat besar, saat ini hanya sedikit raksasa teknologi yang memiliki kemampuan terkait.
Keterbatasan ekosistem sumber terbuka: Meskipun model dasar utama telah sumber terbuka, kunci untuk mendorong terobosan model tetap terfokus pada lembaga penelitian dan sistem rekayasa tertutup, ruang partisipasi proyek on-chain di tingkat model inti terbatas.
Namun, di atas model dasar open source, proyek Crypto AI masih dapat memperluas nilai dengan menyesuaikan model bahasa spesifik (SLM) dan menggabungkan verifiabilitas dan mekanisme insentif Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, ini terwujud dalam dua arah inti:
Lapisan Verifikasi Terpercaya: Meningkatkan keterlacakan dan kemampuan anti-rekayasa dari output AI dengan mencatat jalur generasi model, kontribusi data, dan penggunaan melalui on-chain.
Mekanisme insentif: Memanfaatkan Token asli, digunakan untuk mendorong perilaku seperti pengunggahan data, pemanggilan model, dan pelaksanaan agen (Agent), membangun siklus positif pelatihan dan layanan model.
Klasifikasi Tipe Model AI dan Analisis Kesesuaian Blockchain
Dari sini dapat terlihat bahwa titik jatuh yang layak dari proyek Crypto AI berbasis model terutama terfokus pada penyempurnaan ringan SLM kecil, akses dan verifikasi data on-chain dari arsitektur RAG, serta penyebaran lokal dan insentif untuk model Edge. Menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah ke bawah ini, membentuk nilai diferensiasi dari lapisan "antarmuka" AI.
Blockchain AI chain berbasis data dan model dapat mencatat sumber kontribusi setiap data dan model secara jelas dan tidak dapat diubah, secara signifikan meningkatkan kredibilitas data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, ketika data atau model dipanggil, distribusi hadiah akan secara otomatis dipicu, mengubah perilaku AI menjadi nilai tokenisasi yang dapat diukur dan diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat mengevaluasi kinerja model melalui pemungutan suara token, berpartisipasi dalam penetapan aturan dan iterasi, serta memperbaiki struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang fokus pada insentif data dan model di pasar saat ini. Ini pertama kali mengajukan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat dikombinasikan, mendorong kontributor data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama, dan mendapatkan keuntungan on-chain berdasarkan kontribusi nyata.
OpenLedger menyediakan rantai tertutup lengkap dari "penyediaan data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti sebagai berikut:
Model Factory: Tanpa perlu pemrograman, Anda dapat menggunakan LoRA untuk melatih dan menerapkan model kustom yang disesuaikan berdasarkan LLM sumber terbuka;
OpenLoRA: Mendukung keberadaan ribuan model secara bersamaan, memuat secara dinamis sesuai kebutuhan, secara signifikan mengurangi biaya penyebaran;
PoA (Proof of Attribution): Mengukur kontribusi dan distribusi hadiah melalui pencatatan panggilan di blockchain;
Datanets: Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan diverifikasi melalui kolaborasi komunitas;
Platform Usulan Model (Model Proposal Platform): pasar model on-chain yang dapat digabungkan, dipanggil, dan dibayar.
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen pintar" yang didorong oleh data dan dapat dikombinasikan dengan model, mendorong on-chain dari rantai nilai AI.
Dan dalam penerapan teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk menjalankan data dan kontrak untuk model AI.
Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung throughput tinggi dan biaya rendah dalam eksekusi;
Settling di jaringan utama Ethereum: memastikan keamanan transaksi dan integritas aset;
Kompatibel EVM: Memudahkan pengembang untuk dengan cepat mengembangkan dan memperluas berdasarkan Solidity;
EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan, memastikan verifikasi data.
Dibandingkan dengan beberapa rantai AI umum yang lebih berfokus pada lapisan dasar dan menekankan kedaulatan data, OpenLedger lebih fokus pada pembangunan rantai khusus AI yang ditujukan untuk insentif data dan model, berkomitmen untuk mewujudkan pengembangan dan pemanggilan model yang dapat dilacak, dapat dikombinasikan, dan berkelanjutan di atas rantai. Ini adalah infrastruktur insentif model di dunia Web3, menggabungkan hosting model, penagihan penggunaan, dan antarmuka yang dapat dikombinasikan di atas rantai, mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
3.1 Pabrik Model, pabrik model tanpa kode
ModelFactory adalah platform penyetelan model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyetelan tradisional, ModelFactory menyediakan antarmuka grafis murni, tanpa memerlukan alat baris perintah atau integrasi API. Pengguna dapat menyetel model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:
Kontrol akses data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data secara otomatis terhubung ke antarmuka pelatihan model.
Pemilihan dan konfigurasi model: Mendukung LLM utama, melalui GUI untuk mengonfigurasi hyperparameter.
Penyesuaian ringan: Mesin LoRA / QLoRA bawaan, menampilkan kemajuan pelatihan secara real-time.
Evaluasi dan Penempatan Model: Alat evaluasi bawaan, mendukung ekspor penempatan atau pemanggilan berbagi ekosistem.
Antarmuka verifikasi interaktif: Menyediakan antarmuka chat yang memudahkan pengujian kemampuan tanya jawab model secara langsung.
RAG menghasilkan jejak: Menjawab dengan kutipan sumber, meningkatkan kepercayaan dan dapat diaudit.
Model Factory arsitektur sistem terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, evaluasi penyebaran, dan pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman dan terkontrol, interaksi waktu nyata, dan monetisasi berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Seri LLaMA: Ekosistem terluas, komunitas aktif, dan kinerja umum yang kuat, merupakan salah satu model dasar sumber terbuka yang paling mainstream saat ini.
Mistral:Arsitektur efisien, kinerja inferensi sangat baik, cocok untuk penerapan yang fleksibel dan sumber daya terbatas.
Qwen: Tugas dalam bahasa Mandarin menunjukkan kinerja yang sangat baik, kemampuan komprehensif yang kuat, cocok sebagai pilihan utama bagi pengembang domestik.
ChatGLM: Efek percakapan dalam bahasa Mandarin menonjol, cocok untuk layanan pelanggan dalam kategori tertentu dan skenario lokalisasi.
Deepseek: Unggul dalam pembuatan kode dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
Gemma: Struktur yang jelas, mudah untuk cepat dipahami dan diuji.
Falcon:Pernah menjadi tolok ukur kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi aktivitas komunitas telah berkurang.
BLOOM: Dukungan multi-bahasa yang kuat, tetapi kinerja inferensi relatif lemah, cocok untuk penelitian yang mencakup berbagai bahasa.
GPT-2: Model klasik awal, hanya cocok untuk tujuan pengajaran dan verifikasi, tidak disarankan untuk digunakan dalam penerapan nyata.
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "prioritas praktis" yang didasarkan pada batasan realitas dari penerapan di blockchain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi yang memastikan hak-hak kontributor data dan pengembang model, memiliki keunggulan ambang rendah, dapat dimonetisasi, dan dapat digabungkan, dibandingkan dengan alat pengembangan model tradisional:
Untuk pengembang: Menyediakan jalur lengkap untuk inkubasi, distribusi, dan pendapatan model;
Untuk platform: membentuk ekosistem sirkulasi dan kombinasi aset model;
Untuk pengguna: Anda dapat menggabungkan model atau Agen seperti memanggil API.
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, dengan menyisipkan "matriks peringkat rendah" ke dalam model besar yang telah dilatih sebelumnya untuk mempelajari tugas baru, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya pada tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan.", yang efisien dalam parameter, cepat dalam pelatihan, dan fleksibel dalam penerapan, adalah metode penyesuaian utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.
OpenLoRA adalah satu set kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan inti dari OpenLoRA adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan ulang, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan, dan aspek-aspek kunci lainnya, untuk mewujudkan kemampuan penerapan dan pemanggilan multi-model yang efisien dan biaya rendah:
Modul Penyimpanan LoRA Adapter (LoRA Adapters Storage): LoRA adapter yang telah disesuaikan dihosting di OpenLedger, memungkinkan pemuatan sesuai permintaan, menghindari pemuatan semua model ke dalam memori, menghemat sumber daya.
Model Hosting & Adapter Merging Layer (Model Hosting & Adapter Merging Layer): Semua model fine-tuning berbagi model dasar (base model), pada saat inferensi, LoRA adapter digabungkan secara dinamis, mendukung beberapa adapter untuk inferensi gabungan (ensemble), meningkatkan kinerja.
Mesin Inferensi (Inference Engine): Mengintegrasikan teknologi optimasi CUDA seperti Flash-Attention, Paged-Attention, dan SGMV.
Modul Router Permintaan dan Streaming Token (Request Router & Token Streaming):
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
OpenLedger: Membangun infrastruktur ekonomi agensi cerdas yang didorong oleh data
OpenLedger Kedalaman Penelitian: Membangun Ekonomi Agen Cerdas yang Didorong oleh Data dan Dapat Dikombinasikan dengan Model
Satu, Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan kekuatan komputasi adalah tiga elemen inti infrastruktur AI yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga mengalami tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang secara umum menekankan logika pertumbuhan yang kasar "menggabungkan kekuatan komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar ke pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Spesifik (SLM)
Model bahasa tradisional yang besar (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter yang berkisar antara 70B hingga 500B, dan biaya pelatihan sekali mencapai jutaan dolar. SLM (Model Bahasa Khusus) sebagai sebuah paradigma fine-tuning ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka, menggabungkan sedikit data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, tetapi akan beroperasi secara kolaboratif dengan LLM melalui panggilan arsitektur Agent, sistem plugin untuk pengalihan dinamis, hot-plug modul LoRA, RAG (retrieval-augmented generation), dan lainnya. Arsitektur ini mempertahankan kemampuan luas LLM sekaligus memperkuat kinerja profesional melalui modul tuning, membentuk sistem cerdas kombinatorial yang sangat fleksibel.
Nilai dan batasan Crypto AI di lapisan model
Proyek Crypto AI pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti dari model bahasa besar (LLM), penyebab utamanya adalah
Namun, di atas model dasar open source, proyek Crypto AI masih dapat memperluas nilai dengan menyesuaikan model bahasa spesifik (SLM) dan menggabungkan verifiabilitas dan mekanisme insentif Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, ini terwujud dalam dua arah inti:
Klasifikasi Tipe Model AI dan Analisis Kesesuaian Blockchain
Dari sini dapat terlihat bahwa titik jatuh yang layak dari proyek Crypto AI berbasis model terutama terfokus pada penyempurnaan ringan SLM kecil, akses dan verifikasi data on-chain dari arsitektur RAG, serta penyebaran lokal dan insentif untuk model Edge. Menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah ke bawah ini, membentuk nilai diferensiasi dari lapisan "antarmuka" AI.
Blockchain AI chain berbasis data dan model dapat mencatat sumber kontribusi setiap data dan model secara jelas dan tidak dapat diubah, secara signifikan meningkatkan kredibilitas data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, ketika data atau model dipanggil, distribusi hadiah akan secara otomatis dipicu, mengubah perilaku AI menjadi nilai tokenisasi yang dapat diukur dan diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat mengevaluasi kinerja model melalui pemungutan suara token, berpartisipasi dalam penetapan aturan dan iterasi, serta memperbaiki struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang fokus pada insentif data dan model di pasar saat ini. Ini pertama kali mengajukan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat dikombinasikan, mendorong kontributor data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama, dan mendapatkan keuntungan on-chain berdasarkan kontribusi nyata.
OpenLedger menyediakan rantai tertutup lengkap dari "penyediaan data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti sebagai berikut:
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen pintar" yang didorong oleh data dan dapat dikombinasikan dengan model, mendorong on-chain dari rantai nilai AI.
Dan dalam penerapan teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk menjalankan data dan kontrak untuk model AI.
Dibandingkan dengan beberapa rantai AI umum yang lebih berfokus pada lapisan dasar dan menekankan kedaulatan data, OpenLedger lebih fokus pada pembangunan rantai khusus AI yang ditujukan untuk insentif data dan model, berkomitmen untuk mewujudkan pengembangan dan pemanggilan model yang dapat dilacak, dapat dikombinasikan, dan berkelanjutan di atas rantai. Ini adalah infrastruktur insentif model di dunia Web3, menggabungkan hosting model, penagihan penggunaan, dan antarmuka yang dapat dikombinasikan di atas rantai, mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
3.1 Pabrik Model, pabrik model tanpa kode
ModelFactory adalah platform penyetelan model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyetelan tradisional, ModelFactory menyediakan antarmuka grafis murni, tanpa memerlukan alat baris perintah atau integrasi API. Pengguna dapat menyetel model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:
Model Factory arsitektur sistem terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, evaluasi penyebaran, dan pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman dan terkontrol, interaksi waktu nyata, dan monetisasi berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "prioritas praktis" yang didasarkan pada batasan realitas dari penerapan di blockchain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi yang memastikan hak-hak kontributor data dan pengembang model, memiliki keunggulan ambang rendah, dapat dimonetisasi, dan dapat digabungkan, dibandingkan dengan alat pengembangan model tradisional:
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, dengan menyisipkan "matriks peringkat rendah" ke dalam model besar yang telah dilatih sebelumnya untuk mempelajari tugas baru, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya pada tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan.", yang efisien dalam parameter, cepat dalam pelatihan, dan fleksibel dalam penerapan, adalah metode penyesuaian utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.
OpenLoRA adalah satu set kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan inti dari OpenLoRA adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan ulang, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan, dan aspek-aspek kunci lainnya, untuk mewujudkan kemampuan penerapan dan pemanggilan multi-model yang efisien dan biaya rendah: