Termasuk model Red Hat baru yang telah divalidasi dan dioptimalkan, untuk menyederhanakan pengembangan. Pilihan yang telah terkurasi meliputi model open sourceyang popular seperti gpt-oss dari OpenAI, DeepSeek-R1, dan model khusus seperti Whisper untuk speech-to-text dan Voxtral Mini untuk agen AI berbasis suara.
Menurut Vice President dan General Manager AI Business Unit Red Hat, Joe Fernandes, saat perusahaan meningkatkan AI dari fase eksperimen ke produksi, mereka menghadapi gelombang tantangan baru seperti kompleksitas, biaya, dan kontrol. Dengan Red Hat AI 3, kami menyediakan platform open source kelas enterprise yang akan meminimalkan hambatan-hambatan tersebut.
“Dengan kemampuan baru seperti inferensi terdistribusi dengan llm-d dan fondasi untuk agentic AI, kami membuat tim IT mengoperasionalkan AI generasi berikutnya dengan lebih percaya diri, dengan cara mereka sendiri, di infrastruktur apa pun,” ujarnya.
Sementara, Senior Vice President dan General Manager, Server and Enterprise AI, AMD, Dan McNamara mengungkapkan, saat Red Hat menghadirkan inferensi AI terdistribusi ke tingkat produksi, AMD bangga menjadi fondasi yang kuat di baliknya. “Bersama, kami telah mengintegrasikan efisiensi dari prosesor AMD EPYC™, skalabilitas GPU AMD Instinct™, dan keterbukaan software stack AMD ROCm™ untuk membantu perusahaan bergerak dari fase eksperimen dan mengoperasionalkan AI generasi berikutnya, mengubah performa dan skalabilitas menjadi dampak bisnis yang nyata di lingkungan on-prem, cloud, maupun edge,” katanya.
Agen AI akan mengubah cara aplikasi dibangun dan alur kerjanya yang kompleks dan otonom akan membutuhkan kemampuan inferensi yang besar. Perilisan Red Hat OpenShift AI 3.0 menjadi langkah yang penting untuk menghadirkan sistem agentic AI yang skalabel, tidak hanya melalui kemampuan inferensi tapi juga melalui fitur-fitur baru dan peningkatan yang difokuskan pada pengelolaan agen.
Untuk mempercepat kreasi dan penerapan agen, RedHat telah memperkenalkan Unified API layer berbasis Llama Stack, yang membantu menyelaraskan pengembangan dengan standar industri seperti protokol interface LLM yang kompatibel dengan OpenAI. Selain itu, untuk mengembangkan ekosistem yang lebih terbuka dan interoperable, Red Hat menjadi pengadopsi awal Model Context Protocol (MCP), sebuah standar baru yang kuat untuk menyederhanakan cara model AI berinteraksi dengan tools eksternal, fitur yang sangat penting bagi agen AI modern.
Red Hat AI 3 memperkenalkan toolkit modular dan dapat diperluas untuk kustomisasi model, dibangun di atas fungsi InstructLab. Ia menyediakan libraries Python khusus yang memberikan fleksibilitas dan kontrol yang lebih besar kepada para pengembang. Toolkit ini ditenagai oleh proyek open source seperti Docling untuk pemrosesan data, yang menyederhanakan proses ingestion dokumen yang tidak terstruktur menjadi format yang bisa dibaca oleh AI. Ia juga termasuk framework fleksibel untuk menghasilkan data sintetis dan sebuah training hub untuk melatih LLM. Pusat evaluasi yang terintegrasi ini membantu engineer AI memonitor dan memvalidasi hasil, mendorong mereka jadi lebih percaya diri dalam memanfaatkan proprietary data untuk mendapatkan outcomes AI yang lebih akurat dan relevan.
Dikatakan Chief Executive Officer ARSAT, Mariano Greco, sebagai penyedia infrastruktur konektivitas untuk Argentina, ARSAT menangani interaksi pelanggan dan data sensitif dalam volume yang masif. Pihaknya membutuhkan sebuah solusi yang akan membawanya melangkah dari otomatisasi sederhana ke 'Augmented Intelligence' seraya menghadirkan kedaulatan data yang absolut bagi pelanggan kami.
“Dengan membangun platform agentic AI kami di Red Hat OpenShift AI, kami hanya butuh 45 hari untuk mengidentifikasi kebutuhan hingga ke tahap produksi. Red Hat OpenShift AI tidak hanya membantu kami meningkatkan pelayanan dan mengurangi waktu yang dihabiskan tim engineer untuk mengatasi masalah, namun juga membebaskan mereka untuk fokus pada inovasi dan pengembangan baru,” jelasnya.
Sedangkan, Group Vice President Worldwide Research IDC, Rick Villars, 2026 akan menjadi titik balik saat perusahaan beralih dari tahap awal penerapan AI ke tahap di mana mereka menuntut outcomebisnis yang terukur dan berkelanjutan dari investasi AI mereka. Meskipun proyek awal berfokus pada pelatihan dan pengujian model, value yang sesungguhnya dan tantangan yang sebenarnya adalah mengimplementasikan insight yang dihasilkan model dengan inferensi yang efisien, aman, dan hemat biaya.
“Peralihan ini membutuhkan infrastruktur, data, dan lingkungan penerapan yang lebih modern dengan kemampuan inferensi yang siap produksi, untuk menangani peningkatan dan kompleksitas yang nyata, terutama ketika agentic AIhadir untuk mempercepat beban kerja inferensi. Perusahaan sukses yang digerakkan oleh AI adalah perusahaan yang mampu membangun platform terpadu untuk mengelola beban kerja yang semakin rumit di lingkungan hybrid cloud, tidak sekadar untuk menangani silo,” katanya.
Pun Vice President Engineering AI Frameworks NVIDIA, Ujval Kapasi menambahkan, inferensi yang skalabel dan berperforma tinggi adalah kunci menuju AI generatif dan agentic AIgelombang berikutnya. “Dengan dukungan inferensi terakselerasi dari teknologi open sourceNVIDIA Dynamo dan NIXL, Red Hat AI 3 menyediakan platform terpadu yang memberdayakan tim IT untuk bergerak cepat dari fase eksperimental ke fase menjalankan beban kerja AI dan agen AI dalam skala besar,” jelasnya. (mas)