JAKARTA (IndoTelko) - Akamai Technologies, meluncurkan Akamai Cloud Inference, sebuah platform yang akan mentransformasi cara dan lokasi penerapan AI dengan memperluas inferensi daricore pusat data hingga ke edge internet.
Akamai Cloud Inference memungkinkan inferensi agentic AI cerdas di edge, yang dekat dengan pengguna dan perangkat. Berbeda dengan sistem konvensional, platform ini dirancang khusus untuk menyediakan pemrosesan edge AI beratensi rendah secara real time dalam skala global. Peluncuran Akamai Cloud Inference memanfaatkan keahlian Akamai dalam arsitektur terdistribusi global dan infrastruktur NVIDIA Blackwell AI untuk secara radikal mentransformasi dan memperluas komputasi yang dipercepat untuk kebutuhan memaksimalkan potensi AI yang sesungguhnya.
Aplikasi AI generasi terbaru, mulai dari pengalaman digital yang dipersonalisasi dan smart agent hingga sistem pengambilan keputusan secara real time, menuntut agar inferensi dijalankan lebih dekat dengan pengguna, sehingga respons dapat diberikan dengan sangat cepat dan rutepermintaan dapat ditentukan secara cerdas.
Beban kerja berbasis agen semakin membutuhkan inferensi beratensi rendah, konteks lokal, dan kemampuan peningkatan skalabilitas global yang cepat. Untuk menjawab kebutuhan tersebut, Akamai Cloud Inference dihadirkan sebagai platform edge generatif terdistribusi yang menempatkan arsitektur AINVIDIA lebih dekat dengan tempat data dihasilkan dan keputusan dibuat.
Menurut Chief Executive Officer Akamai, Dr. Tom Leighton, dua puluh lima tahun yang lalu, pihaknya memelopori CDN untuk mengatasi world wide wait dan mendorong web berkembang menjadi platform global seperti sekarang. Pola serupa kini terlihat pada AI, seiring meningkatnya kebutuhan untuk memperluas kapasitas dan kinerja inferensi.
“Dengan dukungan infrastruktur AI NVIDIA, Akamai Inference Cloud akan memperluas inferensi AI ke ribuan lokasi di seluruh dunia seiring pertumbuhan permintaan,” katanya.
Sementara, Founder dan CEO NVIDIA, Jensen Huang mengungkapkan, inferensi telah menjadi fase AI yang membutuhkan komputasi paling intensif—yang membutuhkan penalaran secara real-time dalam skala global.
“Bersama-sama, NVIDIA dan Akamai memindahkan inferensi lebih dekat ke pengguna di mana saja, sehingga menghadirkan generative AI yang lebihcepat dan lebih skalabel dan mendorong lahirnya aplikasi-aplikasi cerdas generasi berikutnya,” jelasnya.
Akamai Cloud Inference mentransformasi cara dan lokasi penerapan AI dengan menghadirkan inferensi AI cerdas berbasis agen langsung di edge, yang dekat dengan pengguna dan perangkat. Platform ini menggabungkan Server NVIDIA RTX PRO dengan GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, DPU NVIDIA BlueField-3, dan perangkat lunak NVIDIA AI Enterprise, bersama infrastruktur komputasi cloud terdistribusi dan jaringan edge global Akamai yang mencakup lebih dari 4.200 lokasi.
Akamai CloudInferince akan mendukung visi Akamai dalam menghadirkan kinerja AI terdistribusi yang skalabel secara global dengan memanfaatkan teknologi terbaru NVIDIA—termasuk DPU NVIDIA BlueField-4 yang baru diumumkan—untuk semakin mempercepat dan mengamankan akses data serta bebankerja inferensi dari inti hingga edge.
Akamai telah bekerja sama dengan NVIDIA untuk menghadirkan inferensi ke wilayah yang sebelumnya tidak terjangkau, sehingga membuka cakupan baru AI melalui Akamai Cloud Inference diantaranya :