AI Has Reached the Peak of Human Knowledge, Says Elon Musk
Elon Musk, CEO Tesla dan pendiri xAI, baru-baru ini mengungkapkan pandangannya mengenai masa depan pengembangan kecerdasan buatan (AI). Dalam siaran langsung melalui media sosial X, Musk menyatakan bahwa dunia sudah mendekati titik di mana hampir semua pengetahuan manusia yang tersedia telah diproses dalam pelatihan AI, dan data dunia nyata yang digunakan untuk melatih model AI semakin terbatas.
Menurut Musk, “data puncak” yang dapat diakses untuk melatih AI akan segera tercapai. Dia menjelaskan bahwa hampir seluruh pengetahuan manusia telah digunakan dalam proses pelatihan, dan ini adalah fenomena yang terjadi hampir setahun yang lalu. “Pada dasarnya, kami telah menghabiskan jumlah kumulatif pengetahuan manusia dalam pelatihan AI,” kata Musk, merujuk pada kurangnya data baru yang tersedia untuk pengembangan kecerdasan buatan.
Musk, yang meluncurkan perusahaan AI-nya, xAI, pada tahun 2023, mengungkapkan bahwa untuk melanjutkan pengembangan AI, perusahaan teknologi harus beralih ke penggunaan “data sintetis.” Data sintetis adalah data yang dihasilkan oleh AI itu sendiri, yang memungkinkan proses pembelajaran mandiri. “Satu-satunya cara untuk melengkapinya adalah dengan data sintetis, yang mana, data tersebut akan menulis esai atau membuat tesis, lalu akan menilai dirinya sendiri,” ungkap Musk.
Meskipun demikian, Musk memperingatkan bahwa menggunakan data sintetis berpotensi menimbulkan masalah serius. Salah satu risiko utama yang dibawa oleh model AI adalah fenomena “halusinasi,” yakni keluaran yang dihasilkan AI yang tidak akurat atau bahkan tidak masuk akal. Halusinasi ini membuatnya sulit untuk menentukan apakah jawaban yang dihasilkan oleh AI benar atau hanya ilusi buatan yang dihasilkan oleh sistem.
Peringatan serupa juga datang dari para ahli AI, seperti Andrew Duncan, Direktur AI dasar di Alan Turing Institute, Inggris. Duncan mengomentari pernyataan Musk, mencatat bahwa ada kecenderungan yang serupa dalam penelitian akademis yang baru-baru ini dipublikasikan. Studi tersebut menunjukkan bahwa data yang tersedia untuk umum bagi model AI dapat habis pada tahun 2026. Duncan memperingatkan bahwa ketergantungan berlebihan pada data sintetis berpotensi menyebabkan “keruntuhan model,” yaitu penurunan kualitas output AI, yang dapat menyebabkan hasil yang semakin buruk dan bias.
“Saat Anda mulai memberi model materi sintetis, Anda mulai mendapatkan hasil yang semakin berkurang,” jelas Duncan, menambahkan bahwa penggunaan data sintetis dapat merusak kreativitas dan kualitas keluaran AI. Lebih jauh, dia menyarankan bahwa peningkatan konten yang dihasilkan AI secara daring dapat berisiko memasukkan materi yang kurang akurat ke dalam data pelatihan AI, memperburuk masalah ini.
Dengan semakin terbatasnya data dunia nyata untuk melatih AI, pertanyaan besar yang muncul adalah bagaimana teknologi ini akan berkembang tanpa mengorbankan kualitas dan keandalannya. Dalam menghadapi tantangan ini, banyak yang berharap bahwa pencarian solusi yang lebih inovatif dan akurat untuk mengatasi keterbatasan data dapat membuka jalan bagi perkembangan kecerdasan buatan yang lebih aman dan efisien.