Thursday, April 2, 2026

Akamai dan NVIDIA Hadirkan AI Grid Global di 4.400 Lokasi Edge

Must Read

marketinginsight.id – Akamai Technologies mencapai tonggak penting dalam evolusi artificial intelligence (AI), dengan meluncurkan implementasi skala global pertama dari desain referensi NVIDIA® AI Grid.

Dengan mengintegrasikan infrastruktur AI NVIDIA ke dalam infrastruktur Akamai, serta memanfaatkan orkestrasi beban kerja cerdas di seluruh jaringannya, Akamai berencana untuk membawa industri ini melampaui “pabrik AI” yang terisolasi menuju grid terpadu dan terdistribusi untuk inferensi AI.

Langkah ini menandai tonggak penting dalam perkembangan Akamai Inference Cloud, yang diluncurkan pada akhir tahun lalu.

Sebagai perusahaan pertama mengimplementasikan AI Grid, Akamai kini mengimplementasikan ribuan unit GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, yang menyediakan platform bagi berbagai perusahaan untuk menjalankan AI berbasis agen dan fisik dengan kecepatan respons komputasi lokal dan skalabilitas jaringan web global.

“Pabrik AI telah dirancang khusus untuk beban kerja pelatihan dan model terdepan — dan infrastruktur terpusat akan terus memberikan tokenomics terbaik untuk kasus penggunaan tersebut,” kata Adam Karon, Chief Operating Officer dan General Manager, Cloud Technology Group, Akamai.

Ia menambahkan, “Namun, video real-time, AI fisik, dan pengalaman personalisasi dengan tingkat koneksi yang sangat tinggi menuntut proses inferensi di titik kontak, bukan melalui perjalanan bolak-balik ke klaster terpusat.”

“Orkestrasi cerdas AI Grid kami memberikan cara bagi pabrik AI untuk memperluas inferensi ke luar — memanfaatkan arsitektur terdistribusi yang sama seperti yang telah merevolusi pengiriman konten untuk mengarahkan beban kerja AI ke 4.400 lokasi, dengan biaya yang tepat, pada waktu yang tepat,” jelas Adam

Arsitektur Tokenomics

Inti dari AI Grid adalah orkestrator cerdas yang berfungsi sebagai perantara real-time untuk permintaan AI. Dengan menerapkan keahlian Akamai dalam optimalisasi kinerja aplikasi ke bidang AI, bidang kendali yang peka terhadap beban kerja ini mengoptimalkan “tokenomics” dengan secara drastis meningkatkan efisiensi biaya per token, waktu hingga token pertama, dan throughput.

Hal utama yang membedakan Akamai dangan yang lain adalah kemampuannya untuk memungkinkan pelanggan mengakses model-model yang telah disesuaikan secara mendetail atau dipersempit melalui jangkauan edge globalnya yang sangat luas, sehingga menawarkan keunggulan besar dalam hal biaya dan kinerja untuk beban kerja AI skala kecil. Contohnya:

  • Efisiensi Biaya dalam Skala Besar: Perusahaan dapat secara drastis mengurangi biaya inferensi dengan menyesuaikan beban kerja secara otomatis ke tingkat komputasi yang tepat. Pengatur sistem (orchestrator) menerapkan teknik seperti penyimpanan cache semantik dan routing cerdas untuk mengarahkan permintaan ke sumber daya yang sesuai, serta mengalokasikan siklus GPU premium untuk beban kerja yang membutuhkannya. Hal ini didukung oleh Akamai Cloud, yang dibangun di atas infrastruktur open source dengan kuota lalu lintas keluar yang besar untuk mendukungoperasionalAIyang intensif data dalam skala besar.
  • Responsivitas Real-Time: Studio game dapat menghadirkan interaksi NPC berbasis AI yang menjaga pengalaman imersif pemain dalam hitungan milidetik. Lembaga keuangan dapat melakukan deteksi penipuan yang dipersonalisasi dan memberikan rekomendasi pemasaran pada saat antara login dan tampilan layar pertama. Penyiar dapat mentranskode dan menyulihsuarakan konten secara real- time untuk pemirsa global. Hasil ini didukung oleh jaringan edge Akamai yang tersebar secara global dengan lebih dari 4.400 lokasi yang dilengkapi caching terintegrasi, komputasi edge tanpa server, dan konektivitas berkinerja tinggi yang memproses permintaan pada titik kontak pengguna, sehingga menghindari  latensi  bolak-balik  dari  cloud  yang  bergantung  pada  lokasi  asal.
  • AI Kelas Produksi sebagai Inti: Model bahasa berskala besar, pelatihan lanjutan yang terus-menerus, dan beban kerja inferensi multimodal membutuhkan daya komputasi yang berkelanjutan dan berdensitas tinggi, yang hanya dapat dipenuhi oleh infrastruktur khusus. Kluster GPU Akamai yang terdiri dari ribuan unit, yang didukung oleh GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, menyediakan daya komputasi yang terkonsentrasi untuk beban kerja AI terberat, sehingga melengkapi jaringan edge terdistribusi dengan skalabilitas terpusat

Kontinum Komputasi: Dari Inti hingga Edge yang Jauh

Dibangun berbasis NVIDIA AI Enterprise serta memanfaatkan arsitektur NVIDIA Blackwell dan NVIDIA BlueField DPU untuk jaringan dan keamanan yang dipercepat perangkat keras, Akamai mampu mengelola SLA (service level agreement) yang kompleks di seluruh lokasi edge dan inti

  • The Edge (lebih dari 4.400 lokasi): Menawarkan waktu respons yang cepat untuk AI fisik dan agen otonom. Platform ini akan memanfaatkan penyimpanan semantik dan kemampuan serverless seperti Akamai Functions (komputasi berbasis WebAssembly) serta EdgeWorkers untuk memastikan kesesuaianmodeldankinerjayangstabildititikinteraksipengguna.
  • Akamai Cloud IaaS dan Kluster GPU Khusus: Infrastruktur cloud publik inti memungkinkan portabilitas dan penghematan biaya untuk beban kerja berskala besar, sementara pod yang didukung oleh GPU NVIDIA RTX PRO 6000 Blackwell memungkinkan pemrosesan pasca-pelatihan dan inferensi multimodal yang intensif.

“Aplikasi AI-native yang baru membutuhkan latensi yang dapat diprediksi dan efisiensi biaya yang lebih baik dalam skala global,” kata Chris Penrose, Global VP – Business Development – Telco, NVIDIA.

“Dengan mengimplementasikan NVIDIA AI Grid, Akamai sedang membangun jembatan penghubung bagi AI generatif, AI agen, dan AI fisik, sehingga kecerdasan dapat diterapkan langsung pada data untuk membuka peluang bagi gelombang baru aplikasi real-time,” lanjutnya

Mendorong Gelombang Baru AI Real-Time

Akamai telah melihat adopsi awal yang kuat terhadap Akamai Inference Cloud di berbagai industri yang membutuhkan daya komputasi tinggi dan sensitif terhadap latensi:

  • Gaming: Berbagai studio kini menerapkan inferensi dengan waktu respons di bawah 50 milidetik untuk NPC yang digerakkan oleh AI dan interaksi pemain secara real-time.
  • Layanan Keuangan: Bank mengandalkan jaringan ini untuk pemasaran yang sangat dipersonalisasi dan rekomendasi cepat pada saat-saat krusial ketika pelanggan masuk ke akun mereka.
  • Media dan Video: Penyiar menggunakan jaringan terdistribusi untuk transkoding berbasis AI dan dubbing real-time.
  • Ritel dan Perdagangan: Para pelaku ritel mulai memanfaatkan jaringan ini untuk aplikasi kecerdasan buatan(AI)didalamtokosertaalat-alatproduktivitasterkaitdititikpenjualan.

Didorong oleh permintaan dari kalangan korporat, platform ini juga telah diakui oleh penyedia teknologi terkemuka, termasuk perjanjian layanan senilai $200 juta selama empat tahun untuk sebuah klaster yang terdiri dari ribuan GPU di pusat data yang dirancang khusus untuk infrastruktur AI korporat di jaringan edge perkotaan.

Memperluas Pabrik AI dari Model Terpusat ke Model Terdistribusi

Gelombang pertama infrastruktur AI ditandai dengan adanya klaster-klaster GPU berskala besar di sejumlah lokasi terpusat, yang dioptimalkan untuk proses pelatihan.

Namun, seiring dengan semakin dominannya beban kerja inferensi dan fokus bisnis di berbagai industri pada pengembangan agen AI, model terpusat tersebut kini menghadapi kendala skalabilitas yang sama dengan yang dihadapi oleh generasi sebelumnya dari infrastruktur internet dalam hal penyampaian konten media, game online, transaksi keuangan, dan aplikasi layanan mikro yang kompleks.

Akamai mengatasi setiap tantangan tersebut melalui pendekatan mendasar yang sama: jaringan terdistribusi, orkestrasi cerdas, dan sistem yang dirancang khusus untuk menyatukan konten dan konteks sedekat mungkin dengan titik sentuh digital.

Hasilnya adalah pengalaman pengguna yang lebih baik dan ROI yang lebih tinggi bagi perusahaan-perusahaan yang mengadopsi model ini.

Akamai Inference Cloud menerapkan arsitektur yang sama dan telah teruji ini ke dalam AI factories, sehingga memungkinkan gelombang skalabilitas dan pertumbuhan berikutnya dengan mendistribusikan komputasi intensif dari inti ke edge.

Bagi perusahaan-perusahaan, hal ini berarti kemampuan untuk menerapkan agen AI yang peka terhadap konteks dan responsif secara adaptif.

Bagi industri, hal ini menjadi pedoman tentang bagaimana pabrik AI berkembang dari instalasi-instalasi terpisah menjadi layanan yang tersebar secara global.

Ketersediaan

Akamai Inference Cloud kini telah tersedia bagi pelanggan korporat yang memenuhi syarat. Berbagai organisasi dapat memperoleh informasi lebih lanjut dan mengajukan permohonan akses di akamai.com/products/akamai-inference-cloud-platform.

Perwakilan Akamai akan siap memberikan demonstrasi dan mengadakan pertemuan selama acara NVIDIA GTC 2026 di San Jose Convention Center, Booth 621, pada tanggal 16–19 Maret 2026.

Redaksi

- Advertisement -spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisement -spot_img
TODAY'S PICK

Palo Alto Networks Satukan Observabilitas dan Keamanan Lewat Chronosphere

marketinginsight.id – Seiring dengan semakin tingginya ketergantungan perusahaan pada AI untuk menjalankan operasi digital, melindungi aset, dan mendorong pertumbuhan bisnis,...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img