Seiring meningkatnya permintaan terhadap Artificial Intelligence (AI), data center kini sedang direkayasa ulang agar mampu memenuhi kebutuhan jaringan dan komputasi unik yang dibawa oleh beban kerja AI. Masa depan AI cloud akan bertumpu pada standar Ethernet untuk memberikan skala, performa, dan fleksibilitas yang dibutuhkan aplikasi generasi berikutnya.
Apakah Jaringan Anda Siap untuk Beban Kerja AI?
Dulu, AI dianggap sebagai fungsi yang berdiri sendiri. Kini, ekspektasinya berbeda: AI harus ada di mana-mana — mulai dari perangkat pribadi, sistem perusahaan, hingga di edge, core, dan cloud.
Untuk mengikuti perkembangan ini, organisasi perlu mempercepat infrastruktur AI mereka agar bisa mendukung beban kerja kapan saja, di mana saja, dan dalam skala apa pun. Caranya? Dengan membangun AI data center fabrics yang dirancang khusus: berperforma tinggi, bisa diskalakan masif, dan beroperasi tanpa kehilangan data.
Tantangan Berat dari Beban Kerja AI
AI dan Machine Learning (ML) mencakup banyak tugas: mulai dari analisis data, membuat prediksi, hingga otomatisasi keputusan. Semua ini menuntut infrastruktur data center yang luar biasa kuat, terutama pada sisi jaringan berkecepatan tinggi, penyimpanan, dan komputasi.
Contohnya, pelatihan Large Language Models (LLM) memerlukan dataset terpusat yang sangat besar dan koneksi berbandwidth tinggi. Sementara itu, penggunaan inference mendorong arsitektur yang lebih terdistribusi, dengan lalu lintas data yang terus bergerak antarperangkat, edge, core, dan cloud.
Berbeda dari lalu lintas data tradisional yang bersifat asinkron (misalnya panggilan database), beban kerja AI menghasilkan “elephant flows”: aliran data raksasa yang terus-menerus mengalir antar mesin dalam data center (east-west traffic). Bahkan, hingga 90% lalu lintas ini hanya berputar di dalam data center, bukan keluar (north-south).
Dalam sebuah cluster AI, sebagian besar data berpindah antar GPU dalam waktu lama. Jika ada satu GPU terhambat, seluruh proses bisa melambat. Artinya, performa jaringan menjadi faktor utama yang harus didesain dengan sangat hati-hati.
Mendesain Jaringan untuk AI
Banyak perusahaan mulai memilih menjalankan beban kerja AI di data center sendiri (on-premises) ketimbang di cloud. Alasannya: keamanan data, kepatuhan regulasi, latensi, hingga biaya cloud yang semakin tinggi.
Data center AI biasanya punya tiga komponen inti:
- Jaringan front-end dan back-end
- Front-end menghubungkan CPU dan lalu lintas eksternal.
- Back-end menghubungkan GPU dengan komunikasi berkecepatan tinggi dan lossless (tanpa kehilangan paket).
- Sistem penyimpanan
- Memberi makan data ke GPU agar proses pelatihan berjalan lancar.
- Cluster komputasi
- Tempat GPU bekerja memproses beban kerja AI.
Kunci desainnya: hindari oversubscription. Semua jalur data dari penyimpanan dan komputasi ke switch jaringan harus punya kapasitas cukup agar tidak ada bottleneck.
Solusinya: Ethernet untuk AI
Cloud memang menawarkan skalabilitas tanpa batas, tetapi biaya GPU dan bandwidth cloud yang terus naik membuat banyak perusahaan beralih ke on-premises. Selain lebih hemat biaya, pendekatan ini juga memberi kontrol lebih ketat terhadap keamanan data.
Di pusat dari arsitektur AI modern ini adalah Ethernet. Teknologi jaringan yang sudah dipakai selama puluhan tahun ini kini berevolusi untuk memenuhi kebutuhan AI dengan kecepatan 400G, 800G, hingga 1.6T.
Salah satu tantangan utama adalah keterbatasan TCP/IP pada kecepatan sangat tinggi, karena membebani CPU. Solusinya adalah Remote Direct Memory Access (RDMA), yang memindahkan tugas komunikasi transport ke hardware khusus. RDMA memungkinkan aplikasi mengakses memori langsung, sehingga performa jauh lebih tinggi.
Implementasi paling populer adalah RoCE (RDMA over Converged Ethernet), ditambah teknik seperti:
- Priority Flow Control (PFC)
- Explicit Congestion Notification (ECN)
- Dynamic Load Balancing
Dengan kombinasi ini, Ethernet bisa berjalan lossless, cocok untuk AI.
Ultra Ethernet: Generasi Berikutnya
Selama ini InfiniBand dianggap standar emas untuk komputasi performa tinggi (HPC) karena latensinya rendah. Namun, RoCE lebih mudah diintegrasikan ke lingkungan Ethernet yang sudah ada, dan biasanya lebih murah.
Untuk mengatasi keterbatasan Ethernet saat menghadapi beban kerja AI berskala masif, sejumlah vendor membentuk Ultra Ethernet Consortium (UEC). Tujuannya: memperluas kemampuan Ethernet agar bisa memenuhi tuntutan AI.
Dengan menambahkan fitur-fitur baru pada standar Ethernet, Ultra Ethernet dirancang untuk mengatasi bottleneck dalam pertukaran data masif antar node komputasi di cluster AI.
Masa Depan: AI On-Premises dan Edge
Ethernet sudah jadi tulang punggung jaringan data center, baik untuk beban kerja tradisional maupun AI. Dengan munculnya model AI open-source seperti DeepSeek, tren AI on-premises diperkirakan akan tumbuh kembali.
Model-model baru ini lebih ringan dan bisa jalan di infrastruktur komputasi yang lebih terjangkau. Hasilnya: perusahaan bisa menjalankan AI di data center sendiri, mengurangi ketergantungan pada cloud, sekaligus menjaga kepatuhan data.
Bahkan, tren berikutnya adalah AI di edge computing — deployment kecil dekat dengan pengguna akhir. Ini mengurangi latensi, menekan biaya bandwidth cloud, dan membawa layanan AI lebih dekat ke tempat aksinya.
Kesimpulan
Kombinasi Ethernet berperforma tinggi, model AI inovatif, dan kebutuhan perusahaan yang terus berkembang sedang membentuk ulang lanskap data center.
Organisasi yang lebih dulu memodernisasi infrastruktur dengan menggabungkan teknologi Ethernet yang terbukti dengan inovasi baru seperti Ultra Ethernet, akan berada di posisi terbaik untuk memanfaatkan potensi penuh AI — mengubah kapabilitas teknis menjadi keunggulan kompetitif nyata.
Infrastruktur IT yang kuat adalah kunci produktivitas perusahaan. Dengan extreme networks indonesia, Anda bisa mendapatkan solusi IT lengkap yang sesuai dengan kebutuhan Anda. iLogo Indonesia sebagai mitra terpercaya siap mengintegrasikan semuanya agar bisnis Anda tetap berjalan lancar dan aman.
Hubungi kami sekarang atau kunjungi extremenetworks.ilogoindonesia.id untuk informasi lebih lanjut!
