Artikel ini berdasarkan diskusi dari Podcast Lex Fridman: Dengarkan episodenya di sini.

Dalam percakapan ini, Lex Fridman berbicara dengan Dylan Patel dan Nathan Lambert tentang perkembangan terbaru dalam AI, dengan fokus pada DeepSeek, ambisi AI Tiongkok, peran NVIDIA dalam persaingan AI global, dan masa depan megakluster AI. Diskusi tersebut mencakup terobosan efisiensi AI, pertarungan geopolitik untuk dominasi semikonduktor, dan pemain kunci yang membentuk masa depan kecerdasan buatan.

Kecerdasan buatan berkembang dengan kecepatan yang sangat tinggi, tetapi tidak seperti yang diharapkan kebanyakan orang. 

Berita utama memberitakan tentang model yang lebih besar, lebih banyak parameter, dan kemampuan baru yang menakjubkan. Namun, di balik semua kehebohan itu, revolusi yang lebih senyap sedang terjadi: menjadikan AI lebih efisien, hemat biaya, dan strategis secara geopolitik. 

Dan jika Anda memperhatikan, Anda akan menyadari sesuatu yang besar—dunia AI di Tiongkok berkembang pesat dengan cara yang tak diduga banyak orang.

Model AI yang Lebih Cerdas: Pendekatan Campuran Para Ahli

Bukan rahasia lagi bahwa model bahasa besar (LLM) membutuhkan daya komputasi yang sangat besar. Melatihnya dari awal dapat menghabiskan biaya ratusan juta dolar, dan menjalankannya? Itu adalah pengeluaran yang tidak ada habisnya. Masa depan AI tidak akan hanya ditentukan oleh siapa yang memiliki algoritme terbaik—tetapi juga oleh siapa yang menemukan cara membangun model AI yang hebat. tanpa menghabiskan biaya server melalui PDB suatu negara. Dan di situlah pergeseran besar terjadi.

Alih-alih memperbesar ukuran model tanpa henti, para insinyur menjadi lebih cerdas tentang cara kerja sistem ini sebenarnya.

 Memasuki campuran para ahli model. 

Bayangkan Anda sedang mengumpulkan sekelompok spesialis, tetapi alih-alih meminta setiap pakar mengerjakan setiap pertanyaan, Anda hanya mengaktifkan mereka yang paling cocok untuk pekerjaan tersebut. Begitulah cara kerja model-model baru ini. Alih-alih memiliki jaringan saraf raksasa yang memproses setiap permintaan dengan kekuatan penuh, hanya beberapa submodel "pakar" yang menyala pada waktu tertentu. Hasilnya? Peningkatan efisiensi yang sangat besar—mengurangi komputasi dan konsumsi energi—tanpa mengorbankan kecerdasan.

Ini bukan hanya teoritis saja.

 Beberapa model AI terbaru yang berasal dari Tiongkok membuktikan bahwa metode ini berhasil dalam aplikasi dunia nyata. Dengan menyempurnakan cara komputasi dialokasikan, mereka memperoleh kinerja yang menyaingi model Barat terbaik, tetapi dengan biaya yang jauh lebih murah.

Terobosan Optimasi Tingkat Rendah

Hal ini membawa kita ke perubahan besar berikutnya: optimasi tingkat rendah.

 Sebagian besar perusahaan AI mengandalkan kerangka kerja perangkat lunak yang sudah ada seperti CUDA, yang dikembangkan oleh NVIDIA, untuk melatih model mereka. Namun, kerangka kerja ini tidak dirancang untuk efisiensi puncak; melainkan dibuat untuk kegunaan umum. Perusahaan yang membuat terobosan nyata saat ini adalah perusahaan yang rekayasa ulang cara AI memanfaatkan perangkat keras. 

Mereka tidak sekadar menggunakan GPU; mereka memeras setiap tetes kinerja terakhir dari GPU, menulis ulang aturan pemrograman GPU untuk membuat komputasi lebih cepat, lebih ramping, dan jauh lebih murah.

Perlombaan untuk Kekuatan Komputasi

Dan jika bicara perangkat keras, ukuran itu penting.

 Beberapa pemain terbesar dalam AI mengoperasikan kluster komputasi yang luas, pada dasarnya merupakan kumpulan server raksasa yang berisi puluhan ribu GPU. Sebagai perbandingan, Meta memiliki kluster pelatihan dengan kisaran 60.000 hingga 100.000 GPU setara H100. Model AI terbaru di Tiongkok dilatih pada kluster yang berisi sekitar 50.000 GPU—kekuatan yang cukup untuk bersaing dengan yang terbaik di dunia. 

Skala besar investasi ini menunjukkan bahwa AI bukan lagi sekadar perlombaan senjata industri teknologi; tetapi prioritas nasional.

Papan Catur Geopolitik AI

Tentu saja, lanskap AI bukan hanya tentang siapa yang dapat melatih model paling cepat—tetapi juga tentang siapa yang dapat benar-benar mendapatkan perangkat keras yang diperlukan. Dan di situlah geopolitik berperan. 

AS telah menerapkan kontrol ekspor yang semakin ketat pada chip AI kelas atas, membatasi penjualannya ke China. NVIDIA telah menanggapinya dengan membuat versi GPU yang lebih sedikit, khusus untuk pasar China. 

Artinya, meskipun perusahaan AI Tiongkok masih dapat melatih model besar, mereka terpaksa melakukannya dengan perangkat keras yang sedikit kurang canggih. Namun, inilah bagian yang menarik: pembatasan ini mendorong perusahaan AI Tiongkok untuk melakukan hal yang sama. lagi efisien. Alih-alih memaksakan diri untuk mencapai puncak dengan komputasi tak terbatas, mereka dipaksa untuk berinovasi. 

Mereka mengoptimalkan perangkat lunak, memikirkan ulang arsitektur, dan menemukan cara untuk mendapatkan keuntungan kinerja yang bahkan belum dipertimbangkan oleh perusahaan Barat. Ironisnya, kendala tersebut justru membuat mereka menjadi pesaing yang lebih kuat.

Apakah Kita Mendekati AGI?

Lalu ada pertanyaan gambaran besar yang membayangi segalanya: seberapa dekatkah kita dengan Kecerdasan Umum Buatan (AGI)? 

Beberapa pihak berpendapat bahwa model-model saat ini sudah menunjukkan sekilas gambarannya. Kemampuan AI modern untuk beradaptasi di berbagai tugas—bernalar, memecahkan masalah, kreativitas—menunjukkan bahwa kita mungkin lebih maju dalam perjalanan menuju AGI daripada yang diasumsikan orang. 

Dan dengan kekuatan manufaktur China, negara ini diposisikan secara unik untuk mempercepat kemajuan. Sementara AS dan Eropa mendominasi perangkat lunak AI, China adalah tulang punggung perangkat keras AI. China mengendalikan sebagian besar rantai pasokan semikonduktor dunia, yang memberinya keunggulan dalam memproduksi massal chip yang dibutuhkan untuk melatih dan menerapkan sistem AI dalam skala besar.

Taiwan: Pusat Semesta AI

Hal ini membawa kita ke Taiwan, pahlawan yang tidak dikenal dalam seluruh persaingan AI global. Perusahaan Manufaktur Semikonduktor Taiwan (TSMC) memproduksi chip AI tercanggih di dunia. Hampir setiap model AI—baik itu GPT milik OpenAI, Gemini milik Google, atau sistem pembelajaran mendalam terbaru milik China—bergantung pada chip yang dibuat oleh TSMC.

 Jika ada sesuatu yang mengganggu rantai pasokan TSMC, dampaknya akan terasa di seluruh setiap industri, dari telepon pintar hingga superkomputer. AI bukan lagi sekadar tentang terobosan pengkodean—melainkan tentang rantai pasokan global, aliansi strategis, dan stabilitas geopolitik.

Masa Depan AI: Efisiensi adalah Kemenangan

Jadi, bagaimana dengan kita semua? 

AI bergeser dari persaingan kekuatan kasar "siapa yang memiliki model terbesar" menjadi permainan efisiensi, penguasaan perangkat keras, dan posisi geopolitik yang jauh lebih strategis. Perusahaan (dan negara) yang menemukan cara mengoptimalkan, meningkatkan skala, dan menerapkan AI secara efisien akan menjadi pihak yang mendominasi masa depan. Dan jika Anda tidak memperhatikan pergeseran ini, Anda kehilangan cerita sebenarnya tentang ke mana arah AI.

Ini bukan hanya tentang demo yang mencolok atau skor benchmark yang memecahkan rekor.

 Ini tentang siapa Sebenarnya memenangkan perlombaan AI dalam jangka panjang—siapa yang membangun model yang tidak hanya kuat tetapi juga praktis, dapat diskalakan, dan berkelanjutan. Dan perlombaan itu? Semakin hari semakin menarik.

Diposting oleh Leo Jiang
POSTING SEBELUMNYA
Anda Mungkin Juga Menyukai

Tinggalkan Komentar Anda:

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *