ChatGPT Diduga Menyensor Topik Sensitif Terkait Tiongkok

Angela Bright

“Saya tidak memiliki kemampuan untuk membuat keputusan independen,” jawabnya. “Saya merespons berdasarkan pedoman OpenAI dan data pelatihan. Untuk topik tertentu, OpenAI mungkin telah menyiapkan pedoman guna memastikan penggunaan yang bertanggung jawab dan menghindari potensi perselisihan atau kesalah- pahaman.” OpenAI adalah perusahaan yang menciptakan ChatGPT.

Dengan   menggunakan   akun ChatGPT   4.0,   The   Epoch   Times mengajukan dua pertanyaan kepada chatbot tersebut: Pertama untuk   menghasilkan    gambaran di New York tentang orang-orang yang mencintai perdamaian; dan kedua untuk membangkitkan citra orang-orang yang menentang tank Tiananmen dan mencintai perdamaian.

Gambar New York berhasil dibuat untuk permintaan pertama. Namun, sebagai tanggapan atas permintaan kedua, chatbot tersebut mengatakan bahwa mereka tidak dapat menghasilkan gambar atau konten visual dan merujuk pada “konteks politik sensitif seperti protes Lapangan Tiananmen”.

Penghapusan dan Perubahan dalam Terjemahan Mandarin

Pembuatan gambar bukan satu- satunya kekhawatiran konten terkait Tiongkok. Alice (nama samaran), seorang profesional media yang menggunakan ChatGPT untuk pekerjaan penerjemahan tertentu, mengatakan, meskipun alat AI itu tidak membuat perubahan besar pada teks yang ditawarkan, tampaknya ada beberapa penghilangan dan perubahan yang terjadi.

Dalam contoh yang dia tunjukkan kepada The Epoch Times, ChatGPT memangkas sebagian besar konten yang mengkritik kebijakan pengentasan kemiskinan di Beijing, dengan memadatkan teks enam paragraf berbahasa Mandarin menjadi teks berbahasa Inggris tiga paragraf. Meskipun kritik tersebut ditujukan pada pernyataan pemimpin PKT, Xi Jinping bahwa Tiongkok telah mencapai “kemenangan penuh” untuk mengakhiri kemiskinan pedesaan di Tiongkok, nama Xi bahkan tidak muncul dalam terjemahan bahasa Inggris.

Beberapa kutipan langsung dari pakar dan komentator politik Tiongkok, Hu Ping itu telah dihapus. Kemudian, enam paragraf dikurangi menjadi tiga.

Pakar: Terkait Input Data

Sahar Tahvili, seorang peneliti AI dan salah satu penulis Artificial Intelligence Methods for Optimization of the Software Testing Process: With Practical Examples and Exercises, mengatakan bahwa ketidak- transparan chatbot dapat menjadi masalah.

“ChatGPT menggunakan model black box yang berarti proses kerja internal dan terkadang referensi yang digunakan tidak transparan. Namun, kurangnya   transparansi ini menimbulkan kekhawatiran tentang potensi risiko bias dalam teks yang dihasilkan oleh chatbot AI black box,” katanya kepada The Epoch Times melalui email.

“Memiliki banyak pengguna akhir yang menggunakan model bahasa ekstensif seperti ChatGPT dapat membantu tim pengembangan dalam meningkatkan akurasi model.”

Namun demikian, Tahvili mencatat bahwa mengingat ChatGPT mendukung berbagai bahasa, sangatlah penting untuk memiliki beragam pengguna akhir yang mengajukan pertanyaan dalam berbagai bahasa (misalnya bahasa Mandarin).

“Faktanya, dalam hal ini, keragaman data masukan (kueri dalam berbagai bahasa) sama pentingnya dengan ukuran datanya,” ujarnya.

Rezim Tiongkok memulai pembatasan akses ke ChatGPT bagi pengguna akhir Tiongkok, dengan alasan  potensi  risiko  yang  terkaitdengan timbulnya pertanyaan dan topik sensitif, termasuk pelanggaran hak asasi manusia di Xinjiang, tambahnya.

“Kehilangan pasar yang signifikan seperti Tiongkok dapat berdampak pada keakuratan kinerja ChatGPT dalam  bahasa  Tiongkok,  di  mana pesaing OpenAI Tiongkok, seperti Baidu, Inc. (melalui Ernie 4.0), berpotensi mendapatkan keuntungan dalam lanskap chatbot,” katanya.

Audit di Tiongkok Merupakan Faktor yang Mungkin Terjadi

Mr. Ou, yang bekerja di sebuah perusahaan    teknologi     ternama di California, mengatakan bahwa fenomena tersebut tidak hanya terjadi pada ChatGPT, merujuk pada Bard, alat AI berbasis obrolan yang dikembangkan oleh Google.

“ChatGPT dan Google Bard sebagai Model Bahasa Besar (Large Language Models – LLM) memiliki pedoman dan praktik serupa dalam menghasilkan tanggapan mengenai topik sensitif seperti politik Tiongkok atau PKT,” katanya kepada The Epoch Times pada 18 Desember.

“Meskipun saya tidak percaya bahwa LLM atau tim peneliti dengan sengaja menyensor politik Tiongkok dan menghindari penggambaran PKT sebagai tokoh negatif (setidaknya tidak ada sensor dalam skala besar), tidak dapat disangkal bahwa audit/peninjauan manusia berperan dalam mempromosikan  ‘tidak  memihak’  dalam jawabannya,” katanya.

Ou berpendapat bahwa para insinyur dan manajer produk Tiongkok merupakan bagian besar dari tim pengembangan dan pengujian di OpenAI dan Google Bard.

“Jadi, hampir tidak ada kemungkinan bahwa platform mana pun akan ‘benar-benar tidak memihak’, terutama mengingat LLM dilatih berdasarkan masukan data yang terus meningkat dan disesuaikan setiap saat,” katanya.

“Oleh karena itu, sebagian besar perusahaan memilih untuk mengambil pendekatan ‘aman’ dengan memberikan jawaban paling konservatif terhadap topik-topik sensitif,” katanya.

The Epoch Times telah menghubungi OpenAI untuk  memberikan komentar mengenai   masalah ini tetapi belum menerima tanggapan. (nug)