Friday, December 21, 2007

Infiniband

Infiniband merupakan jenis interface (semacam Gigabit Ethernet) yang dikembangkan Intel untuk menghubungkan server2 dengan remote storage dan perangkat networking (switches). Infiniband juga dikembangkan untuk komunikasi di dalam server cluster menggunakan IPC (Inter Processor Communication).

Infiniband merupakan teknology terbaik saat ini yang patut dipertimbangkan jika kita ingin mengimplementasikan High Performance Clustering, atau bahkan Virtual Data Center.

Alternatif selain Infiniband adalah 10 Gigabit Ethernet. Teknologi Ethernet mengalami banyak sekali kemajuan belakangan ini, namun demikian dibandingkan dengan Infiniband, Ethernet masih kalah efisiensi dan kecepatannya (penting sekali untuk aplikasi clustering).

Keuntungan utama infiniband : performance (kecepatan), latency dan QoS.

Speed
Satuan kecepatan Infiniband adalah 2.5Gbps. Kecepatan ini bisa ditingkatkan dengan menggunakan teknik DDR (Double Data Rate) dan QDR (Quad Data Rate) menjadi 5 Gbps dan 10 Gbps.

DDR & QDR meningkatkan kecepatan tanpa mengubah clock (clock tetap 2.5Gbps), tetapi dengan memanfaatkan pulsa naik/turun (utk DDR) ditambah dengan pergeseran fasa 90 derajat (utk QDR).

Selain itu link yang paralel juga bisa diaggregasikan (4 atau 12 parallel links) sehingga kecepatannya menjadi berlipat-ganda. Agregasi 12 link tadi biasa digunakan pada super komputer/cluster dan interkoneksi antar switch.

Sehingga kecepatan maximum Infiniband sekarang adalah 12 parallel links yang QDR = 12x 10 Gbps = 120 Gbps. Kalau dihitung full duplexnya, berarti kecepatannya adalah 2x lipat, yaitu 240 Gbps ! (tetapi ada overhead 20%, sehingga efektif transfer ratenya adalah 192 Gbps.

Lumayan cepat dibandingkan dengan 10 Gigabit Ethernet yang diparallel menggunakan EtherChannel....

Latency
Namun jika dibandingkan dengan Ethernet, keunggulan utama Infiniband bukan pada kecepatan, melainkan pada latency dan QoS. Latency utk QDR Infiniband adalah 140 nanosecond. Jauh lebih cepat dibandingkan dengan latency ethernet (pada umumnya 10GE punya latency dalam orde microsecond).

RDMA
Keunggulan yang lain adalah support untuk RDMA (Remote Direct Memory Access) dengan latency 0.99 microsecond. RDMA adalah kemampuan suatu CPU untuk mengakses memory yang nempel ke CPU lain tanpa keterlibatan Operating System, sehingga througputnya besar dan low latency, sangat berguna untuk aplikasi clustering. Teknologi Ethernet mulai mengekor dengan dikembangkannya Ethernet RDMA, tapi karena baru dikembangkan kita belum tahu performancenya seperti apa.

3 comments:

Ajay said...

Saya tertarik dengan teknologi InfiniBand, apakah di Indonesia sudah ada yang mengimplementasikan?

Tony Seno Hartono said...

Saya yakin di Indonesia sudah ada yg mengimplementasikan InfiniBand, terutama di data center yang menggunakan blade servers. Tapi saya tidak punya data siapa saja yang sudah pakai.

Reza Kurnia said...

lebih baik ditambah referensinya mas biar jelas