Gemini dari Google kini dapat mengotomatiskan tugas langsung di dalam aplikasi pada ponsel Pixel dan Galaxy. Pengujian awal menunjukkan iterasi pertama yang kikuk namun fungsional dari apa yang bisa menjadi pengalaman asisten AI yang transformatif. Meskipun terbatas pada fungsi dasar seperti pesan-antar makanan dan ridesharing, kemampuan AI untuk menavigasi antarmuka aplikasi secara mandiri menunjukkan lompatan maju yang signifikan—meskipun performa saat ini jauh dari mulus.
Mengapa Ini Penting
Selama bertahun-tahun, asisten ponsel cerdas mengandalkan perintah suara dan integrasi yang telah ditentukan sebelumnya. Otomatisasi tugas Gemini berbeda: ia secara langsung mengontrol aplikasi, mengetuk tombol, menggulir menu, dan membuat keputusan seperti yang dilakukan manusia. Hal ini mempunyai implikasi di luar kenyamanan. Hal ini menunjukkan masa depan di mana AI menangani tugas-tugas seluler rutin secara mandiri, sehingga membebaskan pengguna untuk melakukan aktivitas yang lebih kompleks. Namun eksekusi saat ini menyoroti betapa jauhnya kita dari kenyataan tersebut.
Lambat, Tapi Fungsional
Pengujian menunjukkan bahwa Gemini terasa lebih lambat dibandingkan pengguna manusia. Memesan makan malam melalui Uber Eats memakan waktu hampir sembilan menit, karena AI kesulitan dengan navigasi menu. Perilaku default sistem adalah berjalan di latar belakang, memungkinkannya bekerja tanpa pengawasan langsung, namun juga membuatnya buram. Log teks menunjukkan proses berpikir AI (“Memilih porsi kedua dari Ayam Teriyaki”), yang mungkin menarik bagi sebagian orang, sementara yang lain menganggapnya tidak efisien.
Akurasi dan Keterbatasan
Meskipun lambat, Gemini ternyata sangat akurat. Dalam pengujian, jarang sekali pesanan diselesaikan tanpa tinjauan pengguna, dan kesalahan cenderung terjadi di awal proses (misalnya memerlukan izin lokasi). Salah satu prestasi yang sangat mengesankan adalah menjadwalkan Uber ke bandara, mengakses kalender dan detail penerbangan untuk menyarankan waktu keberangkatan yang optimal.
Namun, performa AI sangat bergantung pada desain aplikasi. Antarmuka yang berpusat pada manusia yang dipenuhi dengan iklan dan visual yang tidak relevan menghambat efisiensinya. Google mengakui hal ini, dan menyatakan bahwa pendekatan yang ada saat ini hanyalah pengganti sementara sampai pengembang aplikasi mengadopsi protokol yang lebih ramah AI, seperti Model Context Protocol (MCP).
Masa Depan Desain Aplikasi
Jika aplikasi dibuat untuk AI, tampilannya akan sangat berbeda. Fokusnya akan beralih dari kekacauan visual ke data terstruktur. Perjuangan saat ini menyoroti bahwa otomatisasi AI yang paling efektif memerlukan infrastruktur yang tidak dioptimalkan untuk interaksi manusia.
Versi otomatisasi tugas ini terasa seperti langkah awal yang penting menuju cara baru dalam menggunakan asisten seluler kami—canggung, lambat, namun sangat menjanjikan.
Pengembangan otomatisasi tugas Gemini merupakan langkah penting menuju asisten AI yang terintegrasi penuh, meskipun iterasi saat ini belum sempurna. Kesimpulan utamanya adalah kontrol aplikasi berbasis AI kini dapat dilakukan, dan evolusinya akan mengubah cara kita berinteraksi dengan ponsel.




























