Mubadalah.id – AI tampaknya hidup. Begitulah yang Blake Lemoine katakan, mantan insinyur Google yang juga seorang pendeta. Dia menyebut AI laiknya ‘anak manis’ yang berusia tujuh atau delapan tahun. Untuk membuktikan pernyataannya tersebut, ia lalu mempublikasikan transkrip percakapannya dengan sistem pengembangan chatbot LaMDA (Language Model for Dialogue Applications) milik perusahaan beberapa waktu lalu.
Lemoine percaya bahwa program ini sadar. Namun ketika dia menyampaikan kekhawatirannya, Google justru memecatnya karena dianggap melanggar kebijakan privasi perusahaan.
Banyak ahli yang bersepakat kalau Lemoine sudah dibohongi. Hanya karena LaMDA berbicara seperti manusia bukan berarti dia memiliki perasaan yang sama seperti manusia. Namun, terlepas dari tanggapan negatif tersebut, bocornya percakapan antara Lemoine dan LaMDA menimbulkan banyak kekhawatiran tentang semengerikan apa masa depan manusia nantinya.
Sebab, ketika kecerdasan buatan AI menjadi sadar, kita akan menghadapi masalah-masalah etika dan sosial yang lebih kompleks dalam hal penggunaan teknologi ini. Lalu, apa sebenarnya AI? Dan mengapa kita harus peduli?
AI dan Kesadaran
Untuk konteksnya, filsuf Thomas Nagel menulis bahwa sesuatu disebut sadar jika “there is something it is like to be that organism.” Jika defenisi ini kedengarannya abstrak, itu mungkin karena para filsuf sampai hari ini masih berusaha untuk menyepakati satu definisi konkret tentang apa itu kesadaran.
Lalu bagaimana dengan perasaan? Menurut Rob Long, seorang peneliti di Future of Humanities Institute di University of Oxford, perasaan hanyalah bagian dari kesadaran itu sendiri. Dia mengatakan bahwa perasaan terhubung dengan kapasitas kita dalam merasakan kesenangan atau rasa sakit.
Meskipun AI saat ini dapat memecahkan masalah yang biasanya membutuhkan kecerdasan manusia, tetapi kata “AI” masih menjadi istilah yang kabur dan luas untuk beragam sistem yang berbeda, kata peneliti AI di Universitas New York, Sam Bowman; seperti beberapa versi AI yang sederhana seperti permainan catur komputer.
Atau versi AI yang membutuhkan kecerdasan buatan yang kompleks seperti AGI (Artificial General Intelligence), program yang melakukan tugas apa saja yang dapat pikiran manusia lakukan. Dan bahkan versi yang terprogram di jaringan saraf tiruan — sebuah program yang dalam banyak hal meniru otak manusia: LaMDA, misalnya. Ia adalah model bahasa besar (LLM). Selain mampu mengkompilasi teks seperti yang dilakukan manusia, LLM ini juga bisa mempelajari tugas-tugas seperti menerjemahkan bahasa dan bahkan membuat percakapan yang begitu mirip dengan manusia.
Jenis AI ini tentu saja bisa mengelabui manusia. Ia dapat membuat kita percaya bahwa mereka hidup, sebab ilmuwan membuat model ini tak lain hanya untuk meniru gaya komunikasi manusia. Long mengatakan bahwa untuk mencegah diri kita tertipu oleh LLM, kita harus membedakan antara kecerdasan buatan, dan perasaan. Dia mengatakan bahwa: “Menjadi sadar berarti memiliki pengalaman subjektif. Itu mungkin berhubungan dengan kecerdasan… namun secara konseptual berbeda.”
Al, Mesin dengan Banyak Kode Program
Giulio Tononi, seorang ahli saraf yang mempelajari kesadaran di University of Wisconsin-Madison, juga sependapat. Dia mengatakan bahwa “Melakukan bukanlah menjadi, dan menjadi bukanlah melakukan”. Meskipun keterampilan verbal LaMDA sangat mengesankan — dan mungkin jauh lebih baik daripada kebanyakan manusia — itu tetaplah AI; itu tetaplah mesin dengan banyak kode-kode terprogram.
Dan mengatakan bahwa ia memiliki ‘jiwa’ atau ‘seperti anak kecil’ itu mungkin agak berlebihan. Namun, melihat respon netizen terhadap percakapan Lemoine di atas, banyak orang yang percaya bahwa AI juga makhluk hidup. Ini menunjukkan betapa hebatnya kemampuan kecerdasan buatan AI dalam meniru manusia dengan sedemikian rupa sehingga membuat kita mau tak mau mengantropomorfisasinya.
Namun di sinilah masalahnya. Big Tech bisa saja mengeksploitasi fakta bahwa banyak dari kita yang ‘tertipu’ oleh AI. Karena jika mereka berpendapat seolah-olah AI hampir sadar — atau sudah — itu dapat digunakan untuk melegitimasi penggunaannya menggantikan manusia dalam mengambil suatu keputusan — dengan atau tanpa pengawasan kita.
Lebih jauh lagi, Big Tech juga bisa mempersenjatai AI untuk melawan manusia di fase yang oleh Shoshana Zubof sebut sebagai ‘surveillance capitalism’ — di mana komoditas terpenting untuk dijual adalah data pribadi kita.
Selain itu, kecerdasan buatan AI saat ini juga sangat mahir dalam memproduksi suatu informasi yang cukup untuk memengaruhi pengalaman subjektif kita, termasuk emosi. Tentu ini juga dapat Big Tech manfaatkan untuk memproduksi informasi-informasi palsu yang mereka gunakan untuk memobilisasi debat publik dan bahkan memanipulasi opini banyak orang.
AI Bukan Hanya Kode Komputer Tetapi Juga Cerminan Bias Masyarakat
Sebelum Blake Lemoine, sebenarnya ada ilmuwan lain yang Google pecat beberapa tahun lalu, meskipun dia tidak mendapatkan banyak perhatian media sebagaimana yang Lemoine dapatkan. Namanya adalah Timnit Gebru, seorang ilmuwan komputer dan salah satu perempuan kulit hitam yang terkenal di bidangnya. Ia dipaksa keluar dari Google, di mana dia saat itu adalah co-lead tim AI Google. Akibat konflik atas penelitian yang ia buat.
Banyak orang berpendapat bahwa Google saat itu memaksanya keluar karena sebuah fakta mengejutkan yang Gebru temukan selama penelitiannya.
Salah satu kritik utama Gebru terhadap model bahasa besar seperti LaMDA, yang semakin populer dalam beberapa tahun terakhir ini, adalah kumpulan data yang mereka latih tersebut sangat besar. Saking besarnya sehingga sulit untuk mengauditnya dari berbagai bias.
Artinya apa? Jika kita melatih kecerdasan buatan AI pada kumpulan data besar yang tidak kita kuratori di internet atau web, yang seperti yang kita tahu, berisi hoax dan ujaran kebencian. Kita mungkin akan mendapatkan AI yang rasis, seksis, homofobik, transfobik, dan lain-lain. Fakta bahwa individu yang terpinggirkan sering terlecehkan atau bahkan terbatasi dari internet arus utama juga memperparah bias ini.
Beragam Contoh Bias dalam Masyarakat
Kita sudah pernah melihat berbagai contoh bias yang banyak merugikan orang lain dalam kehidupan nyata. Seperti diskriminasi ras/etnis, gender, kesehatan, dan lain-lain. Semuanya secara tidak proporsional mempengaruhi kelompok sosial-ekonomi yang kurang beruntung. Seperti orang kulit berwarna, perempuan, dan/atau individu. Diskriminasi digital akibat AI ini menjadi masalah serius. Karena saat ini banyak keputusan yang terwakilkan oleh sistem algoritma seperti pembelajaran mesin.
Masalah ini sebenarnya bukan hal baru. Misalnya, kita kembali ke tahun 1988, UK Commission for Racial Equality mendapati bahwa salah satu sekolah kedokteran di Inggris dinyatakan bersalah atas tindakan diskriminasi, karena program AI yang sekolah itu gunakan untuk menentukan pelamar yang akan mereka undang dalam wawancara di sekolah tersebut dianggap bias terhadap perempuan dan mereka yang memiliki nama non-Eropa.
Tiga puluh tahun kemudian, meskipun algoritma telah berkembang jauh lebih kompleks, tetapi kita masih menghadapi tantangan yang sama. Kecerdasan buatan AI hari ini memang dapat membantu kita mengidentifikasi dan mengurangi (meskipun sedikit) dampak bias manusia. Tetapi AI juga dapat memperburuk masalah tersebut dengan memasukkan dan menerapkan bias dalam skala yang besar.
Misalnya, Natural Language Processing (NLP), yang merupakan bahan utama dari sistem AI seperti Alexa milik Amazon dan Siri milik Apple, yang beberapa waktu lalu ditemukan menunjukkan bias gender.
Kenali Bias Gender dalam Teknologi
Bias dapat menyusup ke dalam algoritma dengan beberapa cara. Krena sistem AI belajar membuat keputusan berdasarkan data pelatihan yang ia dapatkan. Tentu saja, mencakup keputusan manusia yang sering ‘bias’ atau mencerminkan ketidaksetaraan historis dan sosial. Terutama berkenaan dengan persoalan identitas seperti jenis kelamin, agama, ras, atau orientasi seksual.
Olehnya menurut saya setiap pemeriksaan bias dalam AI perlu mengenali fakta. Bahwa bias teknologi ini terutama berasal dari bias bawaan manusia. Bahwa model dan sistem yang kita buat atau latih adalah cerminan diri kita sendiri.
Bias adalah tanggung jawab kita semua karena ini merugikan mereka yang terdiskriminasi dan menurunkan partisipasi mereka dalam berbagai aspek. Seperti ekonomi, pendidikan, kesehatan, dan masyarakat. Maka dari itu, di sini pebisnis, peneliti, dan organisasi/institusi baik milik masyarakat maupun pemerintah, punya tanggung jawab untuk mendorong kemajuan dalam penelitian dan standar. Setidaknya bisa mengurangi bias di dalam AI.
Karena untuk menghasilkan teknologi yang lebih baik dan tidak bias, harus ada upaya bersama dari para peneliti, pemerintah, dan masyarakat untuk bahu-membahu memperbaiki ketimpangan dan bias teknologi ini.
Intinya adalah kita tidak boleh mengabaikan risiko dan bahaya kecerdasan buatan AI, yang sudah berdampak pada banyak orang hari ini. Alih-alih hanya berfokus pada skenario fantasi tentang AI hidup yang konon akan menyingkirkan manusia. Sebab apa yang kita hadapi saat ini adalah kenyataan yang jauh lebih kompleks daripada apa yang kita lihat di film-film fiksi ilmiah, dan ini tentu saja menuntut perhatian kita semua.
Terutama mengingat bahwa perusahaan yang berkompetisi dalam bidang AI, antara lain Amazon, Google, dan Microsoft, tidak hanya secara efektif memonopoli bidang ini. Tetapi juga mengumpulkan lebih banyak kekayaan di atas ketimpangan sosial yang terjadi.
Olehnya, jika kita tidak berhati-hati, kita mungkin akan berakhir di dunia. Di mana AI menjadi alat yang para elit kapitalis gunakan untuk menumpuk kekayaan mereka. Yakni dengan memperluas jurang ketidaksetaraan, bias di masyarakat, dan menembus data pribadi kita demi mengejar keuntungan pribadi mereka. Dan bagi saya, ini jauh lebih menakutkan ketimbang pemberontakan robot seperti yang tergambar dalam film fiksi ilmiah. []