Internasional Intel meluncurkan chip AI Gaudi3 untuk bersaing dengan Nvidia dan AMD

Intel meluncurkan chip AI Gaudi3 untuk bersaing dengan Nvidia dan AMD

3
0

CEO Intel Corp. Patrick Gelsinger berbicara pada acara peluncuran Intel AI Everywhere di New York, AS, pada hari Kamis, 14 Desember 2023.

Victor J. Biru | Bloomberg | Gambar Getty

Intel meluncurkan chip komputer baru pada hari Kamis, termasuk Gaudi3, sebuah chip kecerdasan buatan untuk perangkat lunak AI generatif. Gaudi3 akan diluncurkan tahun depan dan akan bersaing dengan chip saingannya Nvidia Dan AMD mendukung model AI yang besar dan haus daya.

Model AI yang paling menonjol, seperti ChatGPT OpenAI, berjalan pada GPU Nvidia di cloud. Itulah salah satu alasan mengapa saham Nvidia naik hampir 230% dari tahun ke tahun sementara saham Intel naik 68%. Dan itulah mengapa perusahaan seperti AMD dan sekarang Intel telah mengumumkan chip yang mereka harap akan memikat perusahaan AI menjauh dari posisi dominan Nvidia di pasar.

Saham Intel naik 1% pada hari Kamis.

Meskipun perusahaan tidak terlalu memperhatikan detailnya, Gaudi3 akan bersaing dengan Nvidia H100, pilihan utama di antara perusahaan yang membangun kumpulan chip besar untuk mendukung aplikasi AI, dan MI300X AMD yang akan datang, ketika mulai dikirimkan ke pelanggan pada tahun 2024.

Intel telah membuat chip Gaudi sejak 2019, ketika membeli pengembang chip bernama Habana Labs.

Akselerator Intel Gaudi2 AI saat acara peluncuran Intel AI Everywhere di New York, AS, pada hari Kamis, 14 Desember 2023. Intel Corp. telah mengumumkan chip baru untuk PC dan pusat data yang diharapkan perusahaan akan mengambil bagian lebih besar dari pasar perangkat keras kecerdasan buatan yang sedang booming. Fotografer: Victor J. Blue/Bloomberg melalui Getty Images

Bloomberg | Bloomberg | Gambar Getty

“Kami telah melihat kegembiraan dengan AI generatif, bintang pertunjukan pada tahun 2023,” kata CEO Intel Pat Gelsinger pada acara peluncuran di New York di mana ia mengumumkan bahwa Gaudi3 bersama dengan chip lain yang menargetkan aplikasi AI menjadi fokus.

“Kami pikir AI PC akan menjadi bintang pertunjukan di tahun mendatang,” tambah Gelsinger. Dan di situlah prosesor Intel Core Ultra baru, yang juga diumumkan pada hari Kamis, akan berperan.

Intel Core Ultra dan chip Xeon baru

Intel juga mengumumkan chip Core Ultra, yang dirancang untuk laptop dan desktop Windows, dan chip server Xeon generasi kelima yang baru. Keduanya berisi bagian AI khusus yang disebut NPU yang dapat digunakan untuk membuat program AI berjalan lebih cepat.

Ini adalah tanda terbaru bahwa pembuat prosesor tradisional, termasuk saingannya Intel AMD Dan Qualcommsedang melakukan reorientasi produk mereka dan mengingatkan investor akan kemungkinan model AI yang menyebabkan meningkatnya permintaan chip mereka.

Core Ultra tidak akan memberikan kekuatan yang sama untuk menjalankan chatbot seperti ChatGPT tanpa koneksi internet, tetapi dapat menangani tugas-tugas yang lebih kecil. Misalnya, kata Intel, Zoom menggunakan fitur blur latar belakang pada chipnya. Mereka dibuat menggunakan proses 7 nanometer perusahaan, yang lebih hemat daya dibandingkan chip sebelumnya.

Namun, yang lebih penting, chip 7 nanometer menunjukkan strategi Gelsinger untuk mengejar ketinggalan Taiwan Semikonduktor Manufaktur Co. dalam hal produksi chip pada tahun 2026 tidak ketinggalan.

Chip Core Ultra juga mencakup kemampuan bermain game yang lebih bertenaga dan kekuatan grafis tambahan dapat membantu program seperti Adobe Premier berjalan lebih dari 40% lebih cepat. Seri ini diluncurkan di laptop yang tersedia di toko pada hari Kamis.

Terakhir, server daya prosesor Intel Xeon generasi kelima yang digunakan oleh organisasi besar seperti perusahaan cloud. Intel tidak membagikan harga, tetapi Xeon sebelumnya berharga ribuan dolar. Prosesor Intel Xeon sering kali dipasangkan dengan GPU Nvidia dalam sistem yang digunakan untuk pelatihan dan penerapan AI generatif. Di beberapa sistem, delapan GPU terhubung ke satu atau dua CPU Xeon.

Intel mengatakan prosesor Xeon terbaru akan sangat baik untuk inferensi, atau proses penerapan model AI, yang tidak terlalu haus daya dibandingkan proses pelatihan.

Jangan lewatkan cerita ini dari CNBC PRO:

Tinggalkan Balasan