telkomsel halo

Akamai Technologies tawarkan Akamai Cloud Inference

07:17:00 | 31 Okt 2025
Akamai Technologies tawarkan Akamai Cloud Inference
JAKARTA (IndoTelko) - Akamai Technologies, meluncurkan Akamai Cloud Inference, sebuah platform yang akan mentransformasi cara dan lokasi penerapan AI dengan memperluas inferensi daricore pusat data hingga ke edge internet.

Akamai Cloud Inference memungkinkan inferensi agentic AI cerdas di edge, yang dekat dengan pengguna dan perangkat. Berbeda dengan sistem konvensional, platform ini dirancang khusus untuk menyediakan pemrosesan edge AI beratensi rendah secara real time dalam skala global. Peluncuran Akamai Cloud Inference memanfaatkan keahlian Akamai dalam arsitektur terdistribusi global dan infrastruktur NVIDIA Blackwell AI untuk secara radikal mentransformasi dan memperluas komputasi yang dipercepat untuk kebutuhan memaksimalkan potensi AI yang sesungguhnya.

Aplikasi AI generasi terbaru, mulai dari pengalaman digital yang dipersonalisasi dan smart agent hingga sistem pengambilan keputusan secara real time, menuntut agar inferensi dijalankan lebih dekat dengan pengguna, sehingga respons dapat diberikan dengan sangat cepat dan rutepermintaan dapat ditentukan secara cerdas.

Beban kerja berbasis agen semakin membutuhkan inferensi beratensi rendah, konteks lokal, dan kemampuan peningkatan skalabilitas global yang cepat. Untuk menjawab kebutuhan tersebut, Akamai Cloud Inference dihadirkan sebagai platform edge generatif terdistribusi yang menempatkan arsitektur AINVIDIA lebih dekat dengan tempat data dihasilkan dan keputusan dibuat.

Menurut Chief Executive Officer Akamai, Dr. Tom Leighton, dua puluh lima tahun yang lalu, pihaknya memelopori CDN untuk mengatasi world wide wait dan mendorong web berkembang menjadi platform global seperti sekarang. Pola serupa kini terlihat pada AI, seiring meningkatnya kebutuhan untuk memperluas kapasitas dan kinerja inferensi.

“Dengan dukungan infrastruktur AI NVIDIA, Akamai Inference Cloud akan memperluas inferensi AI ke ribuan lokasi di seluruh dunia seiring pertumbuhan permintaan,” katanya.

Sementara, Founder dan CEO NVIDIA, Jensen Huang mengungkapkan, inferensi telah menjadi fase AI yang membutuhkan komputasi paling intensif—yang membutuhkan penalaran secara real-time dalam skala global.

“Bersama-sama, NVIDIA dan Akamai memindahkan inferensi lebih dekat ke pengguna di mana saja, sehingga menghadirkan generative AI yang lebihcepat dan lebih skalabel dan mendorong lahirnya aplikasi-aplikasi cerdas generasi berikutnya,” jelasnya.

Akamai Cloud Inference mentransformasi cara dan lokasi penerapan AI dengan menghadirkan inferensi AI cerdas berbasis agen langsung di edge, yang dekat dengan pengguna dan perangkat. Platform ini menggabungkan Server NVIDIA RTX PRO dengan GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, DPU NVIDIA BlueField-3, dan perangkat lunak NVIDIA AI Enterprise, bersama infrastruktur komputasi cloud terdistribusi dan jaringan edge global Akamai yang mencakup lebih dari 4.200 lokasi.

Akamai CloudInferince akan mendukung visi Akamai dalam menghadirkan kinerja AI terdistribusi yang skalabel secara global dengan memanfaatkan teknologi terbaru NVIDIA—termasuk DPU NVIDIA BlueField-4 yang baru diumumkan—untuk semakin mempercepat dan mengamankan akses data serta bebankerja inferensi dari inti hingga edge.

GCG BUMN
Akamai telah bekerja sama dengan NVIDIA untuk menghadirkan inferensi ke wilayah yang sebelumnya tidak terjangkau, sehingga membuka cakupan baru AI melalui Akamai Cloud Inference diantaranya :

    Memperluas AI Factories perusahaan ke edge untuk menghadirkan agen perdagangan yang pintar dan pengalaman digital yang dipersonalisasi. AI Factories merupakan pusat komputasi yang mengelola seluruh siklus AI, mulai dari pengumpulan data hingga menghasilkan kecerdasan dalam skala luas. Akamai Cloud Inference memperluas AI Factories ke edge, dengan mendesentralisasikan data dan pemrosesan serta merutekan permintaan ke model yang paling sesuai melalui jaringan edge Akamai yang sangat terdistribusi. Dengan demikian, agen pintar dapat langsung menyesuaikan diri dengan lokasi, perilaku, dan tujuan pengguna, serta bertindak secara mandiri untuk melakukan negosiasi, pembelian, dan optimalisasi transaksi secara real time.
    Menghadirkan Streaming Inference dan agen yang dapat memberikan wawasan finansial instan dan melakukan pengambilan keputusan secara langsung. Agen AI memerlukan beberapa inferensi berurutan untuk menyelesaikan tugas kompleks, yang dapat menimbulkan jeda dan menurunkan kualitas pengalaman pengguna. Alur kerja AI berbasis agen membutuhkan beberapa panggilan inferensi, dan jika setiap panggilan menimbulkan latensi jaringan, pengalaman akan terasa lambat atau tidak memenuhi kebutuhan latensi antar mesin. Arsitektur edge-native Akamai Cloud Inference memberikan respons yang hampir seketika, sehingga memungkinkan agen AI beroperasi dengan responsivitas menyerupai manusia dalam alur kerja multi tahap. Hal ini dapat dimanfaatkan untuk mendeteksi penipuan, mempercepat pembayaran aman, dan mendukung pengambilan keputusan cepat di lingkungan industri.
    Memungkinkan AI Fisik real time beroperasi dengan responsivitas yang melampaui kemampuan manusia. Sistem AI Fisik seperti kendaraan otonom, robot industri, dan infrastruktur kota pintar memerlukan pengambilan keputusan tingkat milidetik agar dapat berinteraksi dengan dunia fisik secara aman. Akamai Cloud Inference dirancang agar AI Fisik dapat memproses data sensor, membuat keputusan keselamatan, dan mengoordinasikan tindakan pada kecepatan yang sesuai dengan lingkungan fisik—sehingga membantu mentransformasi mulai dari lantai pabrik dan drone pengiriman hingga robot bedah dan jaringan transportasi otonom menjadi sistem cerdas yang dapat beroperasi berdampingan dengan manusia secaraaman.
    Mempercepat waktu untuk meraih nilai bisnis. Mengatur beban kerja AI terdistribusi yang kompleks di berbagai wilayah cloud memerlukan keahlian dan tim khusus. Lapisan orkestrasi cerdas Akamai Cloud Inference secara otomatis merutekan tugas AI ke lokasi yang paling optimal— sehingga inferensi rutin dijalankan langsung di edge melalui layanan mikro NVIDIA NIM, sementara penalaran yang lebih kompleks diproses di AI Factories terpusat, semuanya dikelola melalui satu platform terpadu yang menyederhanakan kompleksitas infrastruktur. (mas)
Artikel Terkait
Rekomendasi
Berita Pilihan
More Stories