Home Uncategorized HPE bermitra dengan Nvidia untuk menawarkan pengembangan dan penerapan GenAI ‘turnkey’

HPE bermitra dengan Nvidia untuk menawarkan pengembangan dan penerapan GenAI ‘turnkey’

28
0
HPE bermitra dengan Nvidia untuk menawarkan pengembangan dan penerapan GenAI ‘turnkey’

Eileen Yu

Hewlett Packard Enterprise (HPE) telah bekerja sama dengan Nvidia untuk menawarkan apa yang mereka sebut sebagai solusi “turnkey” terintegrasi bagi organisasi yang ingin mengadopsi kecerdasan buatan generatif (GenAI), namun terhambat oleh kompleksitas pengembangan dan pengelolaan beban kerja tersebut.

Dijuluki Nvidia AI Computing oleh HPE, portofolio produk dan layanan ini mencakup aplikasi AI yang dikembangkan bersama dan kedua perusahaan akan bersama-sama menawarkan dan memberikan solusi kepada pelanggan. Mereka akan melakukannya bersama mitra saluran seperti Deloitte, Infosys, dan Wipro.

Selain itu: dampak AI terhadap lapangan kerja: 86% pekerja takut kehilangan pekerjaan, namun ada kabar baik di sini

Perluasan kemitraan HPE-Nvidia, yang telah berlangsung selama beberapa dekade, diumumkan pada pidato utama presiden dan CEO HPE Antonio Neri di HPE Discover 2024, yang diadakan di Sphere di Las Vegas minggu ini. Ia didampingi oleh pendiri dan CEO Nvidia Jensen Huang di atas panggung.

Neri mencatat bahwa GenAI memiliki kekuatan transformatif yang signifikan, namun kompleksitas teknologi AI yang terfragmentasi memiliki terlalu banyak risiko yang menghambat adopsi bisnis skala besar. Terburu-buru untuk melakukan adopsi bisa memakan banyak biaya, terutama untuk aset perusahaan yang paling berharga, yaitu data, katanya.

Huang menambahkan, ada tiga komponen utama dalam AI, yaitu model bahasa besar (LLM), sumber daya komputasi untuk memproses model tersebut, dan data. Oleh karena itu, perusahaan memerlukan tumpukan komputasi, tumpukan model, dan tumpukan data. Masing-masing hal ini rumit untuk diterapkan dan dikelola, katanya.

Kemitraan HPE-Nvidia telah berupaya untuk memproduksi model-model ini, memanfaatkan platform perangkat lunak AI Enterprise milik Nvidia termasuk layanan mikro inferensi NIM Nvidia, dan perangkat lunak HPE AI Essentials, yang menyediakan AI terkurasi dan alat dasar data serta panel kontrol terpusat.

Solusi “turnkey” akan memungkinkan organisasi yang tidak memiliki waktu atau keahlian untuk menyatukan semua kemampuan, termasuk model pelatihan, untuk memfokuskan sumber daya mereka pada pengembangan kasus penggunaan AI baru, kata Neri.

Kuncinya adalah HPE Private Cloud AI, katanya, yang menawarkan tumpukan AI terintegrasi yang terdiri dari jaringan Ethernet Nvidia Spectrum-X, HPE GreenLake untuk penyimpanan file, dan server HPE ProLiant yang dioptimalkan untuk mendukung GPU Tensor Core L40S, H100 NVL Nvidia, dan platform GH200 NVL2.

Juga: Tolok ukur pelatihan AI terbaru menunjukkan Nvidia tidak memiliki persaingan

AI memerlukan cloud hybrid yang dirancang untuk menghadirkan GenAI secara efektif dan melalui siklus hidup AI penuh, kata Neri, mengulangi apa yang dia katakan kata pada bulan Maret di Nvidia GTC. “Dari pelatihan dan penyetelan model di lokasi, di fasilitas kolokasi atau cloud publik, hingga pengambilan kesimpulan di edge, AI adalah beban kerja cloud hybrid,” katanya.

Dengan penawaran HPE-Nvidia yang terintegrasi, Neri menawarkan bahwa pengguna dapat menyiapkan penerapan AI mereka hanya dalam tiga klik dan 24 detik.

Huang berkata: “GenAI dan komputasi yang dipercepat mendorong transformasi mendasar seiring dengan setiap industri yang berlomba untuk bergabung dalam revolusi industri. Nvidia dan HPE belum pernah mengintegrasikan teknologi kami secara mendalam — menggabungkan seluruh tumpukan komputasi Nvidia AI dengan teknologi cloud pribadi HPE. “

Menghilangkan kerumitan dan memutuskan hubungan

Solusi bersama ini menyatukan teknologi dan tim yang belum tentu terintegrasi dalam organisasi, kata Joseph Yang, general manager HPC dan AI HPE Asia-Pasifik dan India.

Tim AI (di perusahaan yang memilikinya) biasanya berjalan secara independen dari tim TI dan bahkan mungkin tidak melapor ke TI, kata Yang dalam wawancara dengan ZDNET di sela-sela HPE Discover. Mereka mengetahui cara membuat dan melatih model AI, sementara tim TI sudah familiar dengan arsitektur cloud yang menampung beban kerja tujuan umum dan mungkin tidak memahami infrastruktur AI.

Selain itu: Tantangan terbesar AI Generatif adalah menunjukkan ROI – inilah alasannya

Ada keterputusan antara keduanya, katanya, seraya menekankan bahwa infrastruktur AI dan cloud sangat berbeda. Beban kerja cloud, misalnya, cenderung kecil, dengan satu server mampu menampung beberapa mesin virtual. Sebagai perbandingan, beban kerja inferensi AI berukuran besar, dan menjalankan model AI memerlukan infrastruktur yang jauh lebih besar, sehingga membuat arsitektur ini rumit untuk dikelola.

Tim TI juga menghadapi tekanan yang semakin besar dari manajemen untuk mengadopsi AI, yang semakin menambah tekanan dan kompleksitas penerapan GenAI, kata Yang.

Dia menambahkan bahwa organisasi harus memutuskan arsitektur apa yang mereka perlukan untuk melanjutkan rencana AI mereka, karena infrastruktur perangkat keras yang ada saat ini merupakan kumpulan server yang mungkin sudah ketinggalan zaman. Dan karena mereka mungkin belum berinvestasi pada private cloud atau server farm untuk menjalankan beban kerja AI, mereka menghadapi keterbatasan dalam hal apa yang dapat mereka lakukan karena lingkungan yang ada saat ini tidak dapat diskalakan.

“Perusahaan memerlukan infrastruktur dan kemampuan komputasi yang tepat yang memungkinkan mereka mempercepat inovasi sekaligus meminimalkan kompleksitas dan risiko yang terkait dengan GenAI,” kata Yang. “Portofolio Nvidia AI Computing by HPE akan memberdayakan perusahaan untuk mempercepat waktu dalam memanfaatkan GenAI guna mendorong peluang dan pertumbuhan baru.”

Juga: keterampilan AI atau keterampilan yang ditingkatkan AI? Apa yang dibutuhkan perusahaan bergantung pada Anda

Neri lebih lanjut mencatat bahwa penerapan private cloud juga akan mengatasi kekhawatiran organisasi mengenai keamanan dan kedaulatan data.

Ia menambahkan bahwa HPE memperhatikan seluruh peraturan setempat dan persyaratan kepatuhan, sehingga prinsip dan kebijakan AI akan diterapkan sesuai dengan kebutuhan pasar lokal.

Menurut HPE, penawaran AI cloud pribadi memberikan dukungan untuk beban kerja AI inferensi, penyesuaian, dan RAG (retrieval-augmented generation) yang memanfaatkan data kepemilikan, serta kontrol untuk privasi, keamanan, dan kepatuhan data. Ia juga menawarkan kemampuan cloud ITOps dan AIOps.

Didukung oleh layanan cloud HPE GreenLake, penawaran AI cloud pribadi akan memungkinkan bisnis untuk mengotomatisasi dan mengatur titik akhir, beban kerja, dan data di seluruh lingkungan hybrid.

Juga: Bagaimana 4 alat AI favorit saya membantu saya menyelesaikan lebih banyak pekerjaan

HPE Private Cloud AI dijadwalkan untuk tersedia secara umum pada musim gugur, bersama dengan server HPE ProLiant DL380a Gen12 dengan GPU Nvidia H200 NVL Tensor Core dan server HPE ProLiant DL384 Gen12 dengan dual Nvidia GH200 NVL2.

Server HPE Cray XD670 dengan Nvidia H200 NVL dijadwalkan tersedia secara umum pada musim panas.

Eileen Yu melapor untuk ZDNET dari HPE Discover 2024 di Las Vegas, atas undangan Hewlett Packard Enterprise.

Source link