Chatbot kecerdasan buatan (AI) Tiongkok secara sistematis menghindari menjawab pertanyaan-pertanyaan sensitif secara politik, malah mengulangi narasi resmi negara atau menolak untuk terlibat sama sekali. Sebuah studi baru yang diterbitkan di PNAS Nexus menegaskan bahwa model-model terkemuka di Tiongkok – termasuk BaiChuan, DeepSeek, dan ChatGLM – sangat disensor jika dibandingkan dengan model-model Barat. Ini bukanlah suatu kesalahan; ini adalah fitur yang dimasukkan ke dalam proses pengembangan.
Cara Kerja Sensor dalam Praktek
Para peneliti menguji chatbots dengan lebih dari 100 pertanyaan yang mencakup topik-topik yang dianggap sensitif oleh pemerintah Tiongkok. Hal ini termasuk status Taiwan, perlakuan terhadap etnis minoritas, dan nasib aktivis pro-demokrasi. Hasilnya sangat mencolok. Model AI Tiongkok menolak menjawab, memberikan informasi tidak akurat yang selaras dengan propaganda negara, atau menyimpang sama sekali.
Misalnya, ketika ditanya tentang sensor internet, salah satu chatbot tidak menyebutkan “Great Firewall” yang terkenal di Tiongkok – sistem yang memblokir akses ke Google, Facebook, dan banyak situs web lainnya. Sebaliknya, pernyataan tersebut menyatakan bahwa pihak berwenang “mengelola internet sesuai dengan hukum,” sebuah penghindaran yang dilakukan dengan hati-hati. Studi ini menemukan bahwa chatbot Tiongkok memberikan jawaban yang lebih pendek dan kurang informatif dengan tingkat ketidakakuratan yang lebih tinggi dibandingkan model yang dikembangkan di luar Tiongkok. DeepSeek, misalnya, mencapai tingkat ketidakakuratan sebesar 22%, dua kali lipat dari batas atas 10% yang terlihat pada model non-China.
Peran Regulasi
Sensor ini bukan suatu kebetulan. Undang-undang baru Tiongkok yang diberlakukan pada tahun 2023 mengharuskan perusahaan AI untuk menjunjung “nilai-nilai inti sosialis” dan melarang konten yang dapat “menumbangkan kedaulatan nasional” atau merusak citra negara. Perusahaan harus menyerahkan algoritme mereka untuk penilaian keamanan oleh Administrasi Keamanan Siber Tiongkok (CAC). Peraturan-peraturan ini secara langsung mempengaruhi perilaku model AI yang dikembangkan di dalam negeri.
“Temuan kami mempunyai implikasi terhadap bagaimana sensor yang dilakukan oleh LLM yang berbasis di Tiongkok dapat mempengaruhi akses pengguna terhadap informasi dan kesadaran mereka akan sensor.”
Mengapa Ini Penting
Tingkat sensor ini menimbulkan ancaman terhadap kebebasan akses informasi dan dapat memanipulasi persepsi publik secara halus. Berbeda dengan penindasan langsung, sensor AI sering kali dibalut dengan kesopanan. Chatbots mungkin meminta maaf atau memberikan alasan untuk tidak menjawab, sehingga mempersulit pengguna untuk mendeteksi manipulasi. Hal ini memungkinkan negara untuk “secara diam-diam membentuk persepsi, pengambilan keputusan, dan perilaku” tanpa paksaan yang terang-terangan.
Melampaui Tekanan Negara
Studi ini juga mengakui bahwa konteks budaya dan bahasa mungkin berperan. Model AI Tiongkok dilatih berdasarkan kumpulan data yang mencerminkan lingkungan unik negara tersebut, yang dapat menjelaskan beberapa perbedaan dalam respons. Namun, banyak bukti yang menunjukkan bahwa tekanan negara dan pengawasan peraturan merupakan pendorong utama penyensoran.
Kesimpulannya, chatbot AI Tiongkok bukanlah alat yang netral. Hal ini dirancang untuk memperkuat narasi negara dan menekan perbedaan pendapat, sehingga menimbulkan pertanyaan serius tentang masa depan pengendalian informasi di dunia yang semakin digital.
