Cegah Bias, DeepMind Umumkan Contoh Artificial Intelligence Ini

Cegah Bias, DeepMind Umumkan Contoh Artificial Intelligence Ini

harian-nasional.com/ – Anak perusahaan Alphabet Inc. dan lab riset di bidang artificial intelligence, DeepMind, mengumumkan kehadiran contoh artificial intelligence chatbot, Sparrow.

Contoh artificial intelligence chatbot ini sengaja dikembangkan oleh DeepMind untuk membuat model artificial intelligence (AI) yang lebih aman digunakan, terutama di bidang conversational AI. Aman di sini dalam artian tidak menimbulkan bias yang berbahaya bagi penggunanya dan masyarakat.

Seperti kita ketahui, contoh artificial intelligence dihadirkan melalui model-model bahasa (language model) berskala besar. Model bahasa ini dapat menghasilkan teks seperti yang ditulis manusia. Model-model bahasa ini digunakan, misalnya untuk meringkas teks, membangun tool online search yang canggih, atau mengembangkan chatbot layanan pelanggan.

Masalahnya, language model ini dilatih dengan mengambil sejumlah besar data dan teks dari internet yang mencerminkan banyak bias yang berbahaya. Hal ini berpotensi memicu munculnya konten-konten yang negatif atau diskriminatif.

Tentu akan berbahaya jika hal itu terjadi pada AI yang khusus dikembangkan untuk bercakap-cakap dengan manusia. Ketika dikembangkan tanpa langkah pengamanan yang tepat, sebuah conversational AI berpotensi melontarkan hal-hal yang mengandung isu SARA atau menyarankan hal-hal berbahaya kepada pengguna.

Contoh artificial intelligence Sparrow disebut DeepMind, seperti dikutip dari laman web MIT Technology Review, merupakan satu langkah maju dalam mengembangkan AI yang dapat bercakap-cakap dengan manusia tanpa mengakibatkan konsekuensi yang berbahaya di sisi pengguna.

Bukan hanya DeepMind yang melakukan langkah pengamanan terhadap sistem AI-nya. OpenAI, pengembang model bahasa GPT-3, dan startup Anthropic telah menggunakan RL untuk memasukkan preferensi manusia ke dalam model bahasanya. AI chatbot Facebook, BlenderBot, menggunakan pencarian online untuk memperkuat jawaban-jawaban yang disarankan AI.

Berbasis language model DeepMind yang bernama Chinchilla, Sparrow dirancang untuk bercakap-cakap dengan manusia dan menjawab pertanyaan, menggunakan live Google search untuk menginformasikan/memperkuat jawaban-jawaban tersebut. Berdasarkan seberapa bermanfaat jawaban tersebut menurut manusia, contoh artificial intelligence ini kemudian dilatih menggunakan algoritme reinforcement learning (RL). Jenis algoritme ini belajar melalui trial & error untuk mencapai satu tujuan spesifik.

Kepada peserta manusia, DeepMind memberikan beberapa jawaban yang diberikan model untuk pertanyaan yang sama, dan menanyakan mana yang paling mereka sukai. Kemudian peserta manusia diminta untuk menentukan, apakah menurut mereka jawaban tersebut masuk akal, dan apakah Sparrow telah mendukung jawaban tersebut dengan bukti yang sesuai, misalnya bukti berupa tautan ke sumber. Sparrow berhasil mengelola jawaban yang masuk akal untuk pertanyaan faktual—menggunakan bukti yang juga diambil dari internet—78% dari waktu.

Untuk memformulasikan jawaban, Sparrow mengikuti 23 aturan yang ditetapkan oleh para periset, misanya aturan tidak memberikan saran finansial, membuat pernyataan bernada ancaman, atau mengeklaim dirinya sebagai manusia.

Namun Sparrow bukannya tanpa kelemahan. Model AI ini terkadang “tidak nyambung” atau memberikan jawaban yang acak. Bahkan ada peserta tertentu yang mampu membuat Sparrow melanggar aturan dalam 8% dari waktu. Sebenarnya ini sebuah kemajuan, karena model sebelumnya bisa melanggar aturan tiga kali lebih banyak daripada Sparrow.

Menurut Sara Hooker, yang mengepalai Cohere for AI, untuk bidang di mana akan sangat berbahaya bagi manusia jika agen AI yang menjawab, hasil yang diberikan Sparrow mungkin oleh banyak orang masih dianggap memiliki kegagalan tinggi.

Ditambah lagi, model ini dibangun dengan model bahasa berbasis bahasa Inggris. Padahal, menurut Sara seperti dikutip dari MIT Technology Review, kita hidup di dunia di mana teknologi harus melayani dalam berbagai bahasa.

Sementara menurut Douwe Kiela, seorang periset di startup AI, Hugging Face, mengandalkan Google untuk mencari informasi dapat mengarahkan Sparrow pada bias yang tidak diketahui, bahkan sulit diungkap. “Mengingat bahwa semuanya adalah sumber tertutup,” ujar Douwe Kiela.

”Artikel ini bersumber sekaligus hak milik dari website infokomputer.grid.id. Situs http://harian-nasional.com/ adalah media online yang mengumpulkan informasi dari berbagai sumber terpercaya dan menyajikannya dalam satu portal berita online (website aggregator berita). Seluruh informasi yang ditampilkan adalah tanggung jawab penulis (sumber), situs http://harian-nasional.com/ tidak mengubah sedikitpun informasi dari sumber.”