Jujur, timeline saya minggu ini isinya agak chaos. Bukan karena drama selebgram, tapi gara-gara serangkaian klip video pendek yang diunggah sama Ruairi Robinson. Buat yang belum ngeh, Robinson ini bukan sekadar prompt engineer iseng, tapi sutradara film beneran (The Last Days on Mars) yang lagi ngulik mainan baru dari ByteDance.
Nah, mainan baru ini—yang sering kita kenal dengan nama Jimeng AI atau model riset PixelDance—menghasilkan klip yang bikin kita harus kucek mata dua kali. Bintang utamanya? Tom Cruise.
Tapi tunggu dulu. Ini bukan Tom Cruise beneran, melainkan duplikat digital yang digenerate 100% oleh AI. Kualitasnya? Di satu sisi, ini adalah lompatan teknis yang brilian. Di sisi lain, kalau kalian perhatiin lebih jeli pakai “mata developer”, rasanya masih kayak makan permen karet yang udah hambar: visualnya manis, tapi substansinya slop.
Mari kita bedah kenapa teknologi video generatif terbaru dari induk TikTok ini bisa jadi harapan baru, sekaligus bukti kalau jalan kita menuju holodeck masih panjang banget.
The “Wow” Factor: Konsistensi Karakter yang Ngeri
Masalah terbesar di dunia video generation saat ini—mau itu Sora, Gen-3 Alpha, atau Kling—adalah konsistensi karakter. Kalian minta AI bikin video “cewek naik sepeda”, di detik ke-3 sepedanya berubah jadi motor, dan di detik ke-5 muka ceweknya berubah jadi nenek-nenek.
ByteDance sepertinya berhasil memecahkan code ini, atau setidaknya, mendekati solusi.
Dalam eksperimen Robinson, sosok “Tom Cruise” ini terlihat stabil. Struktur wajahnya nggak morphing aneh-aneh setiap kali dia nengok. Pencahayaannya on-point, ngikutin logika sumber cahaya virtual yang konsisten. Ini bukan pencapaian kecil, guys. Menjaga koherensi identitas dalam latent space yang bergerak itu susahnya minta ampun secara komputasi.
Apa itu Latent Space?
Bayangkan latent space sebagai sebuah peta raksasa di mana AI menyimpan pemahaman tentang konsep visual. Kalau AI “berjalan” terlalu jauh di peta ini saat membuat frame video berikutnya, wajah karakter bisa berubah total. ByteDance tampaknya punya algoritma navigasi yang lebih presisi supaya si AI nggak “nyasar” dan mengubah Tom Cruise jadi Brad Pitt di tengah jalan.
Klip-klip ini menunjukkan level detail tekstur kulit dan rambut yang bikin creepy. Kalau cuma dilihat sekilas di layar HP (apalagi resolusi TikTok yang terkompresi), saya berani taruhan 90% orang bakal ngira ini cuplikan film Mission Impossible yang belum rilis.
Tapi… Masih “Slop” Juga
Di sinilah bagian serunya. Meskipun secara teknis mengesankan, istilah “slop” yang sering dipakai komunitas AI art buat nyindir konten sampah berkualitas rendah, rasanya masih relevan di sini. Kenapa?
Karena Logika Fisika-nya Masih Mimpi Demam.
Coba perhatikan gerakannya. Jika diamati dengan teliti, meskipun visualnya fotorealistik, ada nuansa “shimmering” (berkedip-kedip halus) di tekstur background. Objek-objek di latar belakang sering kali punya mind of their own—bergerak atau berubah bentuk tanpa alasan fisik yang jelas.
ByteDance AI Model Specs (Estimasi)
| Arsitektur | Diffusion Transformer (DiT) |
| Durasi Max | 5-10 Detik (High Coherence) |
| Resolusi | Hingga 1080p |
| Konsistensi Wajah | High Fidelity |
Ini penyakit klasik diffusion models. Mereka nggak “mengerti” dunia 3D. Mereka cuma memprediksi piksel mana yang harus muncul selanjutnya berdasarkan probabilitas statistik. Jadi, ketika AI diminta bikin adegan orang berjalan, dia nggak mensimulasikan tulang dan otot; dia cuma menebak, “biasanya abis piksel kaki di sini, frame berikutnya pikselnya geser ke sana.”
Hasilnya? Gerakan yang terasa “berat” atau malah terlalu melayang. Karakter AI sering kali nggak punya weight yang bener. Tom Cruise digital ini kadang terlihat seperti stiker yang ditempel di atas background bergerak, bukan entitas yang exist di dalam ruang itu.
Uncanny Valley 2.0
Kita udah lewat fase di mana muka AI kelihatan hancur. Sekarang kita masuk ke fase yang lebih tricky: Hyper-realistic tapi Soul-less.
Ekspresi mikro—kedipan mata, tarikan ujung bibir—sering kali nggak sinkron sama konteks emosi adegan. Di sinilah otak kita langsung teriak, “FAKE!”. Kita sebagai manusia sudah berevolusi jutaan tahun buat mendeteksi nuansa wajah sesama manusia. Sekecil apa pun glitch-nya, rasanya langsung off.
Robinson, sebagai filmmaker, tentu sadar ini. Klip-klip ini lebih terasa sebagai demo teknologi daripada sebuah cinema. “Slop” di sini bukan berarti jelek secara visual, tapi “kosong” secara naratif dan fisika. Cuma permen mata buat doomscrolling.
Kenapa ByteDance (TikTok) yang Menang?
Mungkin ada yang nanya, “Kok ByteDance bisa-bisanya nge-leapfrog pemain lain?”
Jawabannya simpel: DATA.
TikTok adalah perpustakaan video pendek terbesar di dunia dengan metadata yang luar biasa kaya. Setiap kali kita nge-like video kucing atau dance challenge, kita lagi ngasih label data buat mereka. ByteDance punya akses ke miliaran klip video manusia dengan berbagai angle, pencahayaan, dan gerakan.
Keunggulan Kompetitif ByteDance
Kalau OpenAI harus “scraping” YouTube (yang legalitasnya abu-abu), ByteDance punya kebun data sendiri di halaman belakang rumahnya. Inilah kenapa model video mereka, baik itu Jimeng atau iterasi PixelDance berikutnya, punya potensi understanding terhadap gestur manusia yang lebih luwes dibanding kompetitor.
Apa Artinya Buat Kita di Indonesia?
Oke, cukup bahas teknisnya. So what buat kita?
-
Demokratisasi atau Banjir Sampah? Alat ini bakal segera (atau sudah) masuk ke ekosistem CapCut dan TikTok. Kreator Indo yang super kreatif itu bakal punya mainan baru. Bayangkan bikin film pendek kualitas Hollywood cuma modal HP dan prompt. Keren? Banget. Tapi siap-siap juga timeline kita banjir sama konten “slop” AI yang ngebosenin dan repetitif.
-
Bahaya Deepfake Makin Nyata Kasus Tom Cruise ini jadi warning. Kalau Robinson bisa bikin Tom Cruise digital serealistis itu, bayangkan apa yang bisa dilakukan orang jahat ke tokoh publik atau bahkan orang biasa di Indonesia. Kita butuh literasi digital yang jauh lebih kencang. “Seeing is believing” udah nggak berlaku lagi.
-
Peluang Developer & Animator Jangan takut kerjaan ilang dulu. Justru model kayak gini butuh “tukang” buat benerin. Workflow masa depan bukan “text-to-video” terus jadi, tapi “text-to-video” -> masuk After Effects -> rotoscoping manual -> color grading. AI cuma nge-generate bahan mentah (raw material), sentuhan manusialah yang bikin itu jadi seni, bukan slop.
Peringatan Etika
Teknologi ini pedang bermata dua. Kemampuan meniru wajah selebriti (seperti Tom Cruise di atas) tanpa izin adalah masalah hukum yang serius. Di Indonesia, penggunaan AI untuk meniru wajah orang lain bisa berbenturan dengan UU ITE dan hak publisitas. Play smart, play safe.
Jadi, apakah model video ByteDance ini masa depan? Ya, salah satu versinya. Tapi kalau dibilang sudah sempurna, sorry to say, masih jauh. Kita masih di tahap “Tontonan Sirkus”—kita kagum karena beruangnya bisa naik sepeda, bukan karena sepedanya bagus.
Buat sekarang, nikmati aja keajaiban teknologinya, tapi tetap kritis sama isinya. Jangan sampai kita jadi generasi yang kenyang makan “visual slop” tapi lupa rasa daging asli.