Trenasia

Misteri AI Black Box, Ketakpastian dan Alasan untuk Mencemaskannya

Firman Kurniawan in kolom 06 Juni 2025 04:01 WIB 6 min read
Inilah 5 Bidang yang Akan Melibatkan Artificial Intelligence, Sudah Siap?

Siapa, juga apa ruginya, ketika dalam sebuah ajang penerimaan tenaga kerja laki-laki lebih dipilih dibanding perempuan? Perekrutan berbasis artificial intelligence (AI) yang dilakukan Amazon tahun 2018, mengalami keadaan seperti di atas. Tentu yang dirugikan, perempuan itu sendiri. Sistem yang mengandalkan AI ini, menolak perempuan sebagai tenaga kerja. Bukan lantaran kompetensinya, tapi jenis kelamin pelamarnya. Sedangkan bentuk kerugiannya, ekosistem kerja yang memerlukan keragaman pendapat yang terbentuk oleh perbedaan perspektif gender, tak terpenuhi. Pengambilan keputusan, lebih diwarnai perspektif laki-laki dibanding perempuan.

Saat Amazon melakukan promosi terhadap produk-produk yang dijualnya, tentu memerlukan pandangan laki-laki maupun perempuan. Ini termasuk soal waktu berpromosi, pengemasan pesan yang dilakukan, teknik pengiriman pesan. Juga medium berpromosinya. Keragaman pelanggan Amazon, perlu didekati pula dengan perspektif keragaman gender. Cerita kerja AI dalam perekrutan itu, termuat pada “Insight-Amazon Scraps Secret AI Recruiting Tool that Showed Bias Against Women”. Ini ditulis oleh Jeffrey Dastin, 2018.

Disebutkan, sejak tahun 2014 Amazon telah menggunakan perangkat berbasis AI untuk menyeleksi pelamar. Dengan cara ini, keputusan diperolehnya pelamar terbaik berlangsung singkat. Namun di tahun 2015, perusahaan mendapati: perangkat yang digunakan untuk menilai kandidat pekerjaan software development maupun jabatan teknis lainnya, tak bekerja netral gender. Machine learning yang digunakan, memeriksa pelamar berikut penyusunan pola riwayat hidup didasarkan data 10 tahun sebelumnya. Dan itu didominasi laki-laki. Hasilnya, saat mesin menganalisis data dari pelamar baru, perempuan terbaca sebagai kandidat yang tak sesuai dengan pekerjaan di atas.

Terhadap potensi kerugian di atas, Amazon dapat berkilah: yang dihadapi AI dengan Black box problem. Tak semua rekomendasi yang dihasilkan, dapat dipahami. Mungkin dengan intuisi menyeimbangkan komposisi gender, perbaikan dapat dilakukan. Pada penerimaan pekerja berikutnya, bias gender dapat diminimalkan bahkan dieliminasi.

Lain halnya ketika buruknya rekomendasi AI, membawa kerugian finansial, kesehatan bahkan hilangnya nyawa. Tentu jadi persoalan yang harus ditangani segera. Rekomendasi buruk yang dihasilkan AI, terjadi dalam penggunaan agentic AI di kendaraan tanpa pengemudi Tesla. The Guardian, edisi 26 April 2024, menurunkan berita berjudul “Tesla Autopilot Feature was Involved in 13 Fatal Crashes, US Regulator Says”. Disebutkan pada berita itu, Regulator Keselamatan Otomotif AS, telah mengidentifikasi kecelakaanyang melibatkan autopilot Tesla. Klaim bebas kecelakaannya pun, tak sesuai kenyataan. Autopilot yang telah diluncurkan sejak Agustus 2021, terlibat dalam 13 kecelakaan dengan satu atau lebih kematian. Banyak pula yang cedera serius.

Terhadap buruknya rekomendasi yang tak sesuai klaim ini, Ishan Jain, 2023, dalam “Ten Stories of Black Box Model Failures”, menyebut: tak mudah menentukan penyebab pasti terjadinya kegagalan autopilot. Keterbatasan interpretasi dalam proses pengambilan keputusan yang dilakukan autopilot, menyulitkan penentuan penyebab kecelakaan yang fatal. Ini menimbulkan kekhawatiran soal keselamatan dan keandalan teknologi kendaraan. Agentic AI hasil pengembangan generasi terbaru, mengalami AI black box problem.

AI black box problem, adalah ketidakmampuan perancang perangkat berbasis AI melihat cara deep learning melakukan ‘pemikiran’ dan membuat keputusan. Kerugiannya: saat terjadi peristiwa sejenis --akibat tidak dipahaminya proses berpikir dan mengambil keputusan oleh perangkat-- upaya perbaikan sulit dilakukan. Samir Rawashdeh, 2023, dalam “AI's Mysterious ‘Black Box’ Problem, Explained”, mengilustrasikan: saat kendaraan tanpa pengemudi menabrak pejalan kaki, padahal harusnya justru melakukan pengereman, memunculkan pertanyaan: mengapa keadaan itu bisa terjadi? Penelusuran pengambilan keputusan oleh autopiplot, tak terjelaskan. Pengembangnya ada dalam fenomena AI black box problem.

Maka abduksi --proses penjelasan yang paling rasional dari suatu fenomena-- para perancangnya: AI berhadapan dengan situasi baru, yang tak pernah dihadapi. Keadaan akibat tiadanya data, untuk diproses dan diambil keputusannya. Terhadap formulasi abduksi ini, perusahaan kendaraan tanpa pengemudi harus merunut data apa saja yang telah digunakan dalam proses pembelajaran. Termasuk pembelajaran mendalamnya. Perunutan yang bukan perkara mudah, lantaran data yang dilibatkan mencapai trilyunan. Rawashdeh akhirnya mengatakan, pengguna perangkat berbasis AI sulit mempercayai sistem pembelajaran mendalam. Terutama ketika dikaitkan dengan jaminan keamanan.

Dan dengan menggunakan uraian Ishan Jain, tentang 10 cerita tentang kegagalan model kotak hitam di atas, peluang sumber kegagalan spektrumya bergerak mulai: kesatu mesin yang tak dapat mengenali dengan detil citra yang mirip. Ini pernah jadi persoalan rasis, yang serius. Mesin pengenal pada Google Photo, tak bisa membedakan individu Afro-Amerika dari Gorilla. Microsoft dipermalukan oleh keadaan itu. Kedua, bias penafsiran terjadi saat AI memperoleh masukan data dengan karakter yang berulang dan massif: perempuan tidak menyukai pekerjaan di bidang teknologi. Juga perempuan berpenghasilan lebih rendah dibanding laki-laki. Akibatnya, saat dilangsungkan perekrutan --semacam yang terjadi di Amazon-- bias gender itu tak terelakkan. Juga saat Apple Card memutuskan pemberian kredit berikut jumlahnya. Pemohon perempuan diberi batas kredit yang lebih rendah dibandingkan laki-laki. Seluruhnya lantaran, data yang dirujuk menunjukkan rata-rata penghasilan perempuan lebih rendah dibanding laki-laki. Nyata tak selalu seperti itu.

Ketiga, tindakan tertentu dilakukan untuk menghasilan algoritma yang tak sebenarnya. Artinya, mendorong AI memalsukan hasil. Skandal semacam ini, saat produsen Mobil VW memasang software pendeteksi emisi berikut pemasangan perangkat pengubah kinerja mesin. Seluruhnya agar memenuhi standar regulasi. Itu merupakan cara ilegal. Kadar emisi yang senyatanya, berbeda dari keadaan yang sebenarnya.

Sedangkan keempat, machine learning diisi data yang buruk. Misalnya terjadi ketika Microsoft meluncurkan Chatbot Tay. Sejak awal peluncurannya, pengguna Twitter yang berelasi dengan Tay, melakukannya dengan cara buruk. Misoginis dan rasis. Akibatnya, hasil interaksi yang dipelajari machine learning, juga menghasilkan kecerdasan yang buruk. Tay memberi jawaban misoginis dan rasis dalam interaksinya dengan semua pengguna Twitter. Keadaan yang kembali memalukan Microsoft, dan segera menariknya.

Dan yang kelima, keterbatasan jumlah data, menyebabkan keterbatasan variasinya. Kasus ini terjadi saat IBM Watson dilibatkan membantu dokter membuat keputusan perawatan kanker. Pembuatan keputusan didasarkan pada literatur medis dan data pasien sebelumnya. Ada variasi karakter penyandang kanker tertentu, tak tersedia datanya. Literatur medis yang digunakan, juga tak cukup merepresentasikan keadaan itu. Akibatnya, rekomendasi perawatannya tak mampu menjangkau keluasan variasi yang ada. Justru berpotensi membahayakan pasien yang ditangani.

Kegagalan akibat data sebelumnya yang digunakan menyusun model, juga terjadi saat polisi menggunakan algoritma prediktif terjadinya kejahatan. Algoritma digunaan untuk pengalokasian sumberdaya di tempat yang dianggap rawan kejahatan. Seluruhnya berdasar data sebelumnya. Akibatnya, prediksi yang dihasilkan bias dan penargetan pada komunitas tertentu tak proporsional. Keadaan yang juga terjadi saat pemerintah Inggris, menerapkan algoritma dalam menentukan hasil ujian A-Level bagi siswa. Algoritmanya tak mampu mengenali dinamika keadaan terbaru

Dari seluruhnya, yang paling fatal keenam, saat AI belum mengenali keadaan baru. Ini sesuai ilustrasi, soal Tesla di atas. Saat kendaaran tanpa pengemudi itu diluncurkan, tak semua keadaan dimasukkan sebagai data. Artinya, perangkat belum mempelajarinya. Saat kendaraan harusnya melindungi pejalan kaki, malah melindasnya. Kecelakaan fatal yang merenggut nyawa, tak terelakkan.

Tipe-tipe kegagalan yang menyebabkan AI black box problem, memang spektrum kemungkinannya teridentifikasi jelas. Namun saat berhadapan dengan suatu kesalahan, tak serta merta dapat segera ditentukan penyebabnya. Bahkan ada kesalahan yang terus terjadi, tanpa disadari. Rekomendasi AI alih-alih dapat sepenuhnya diandalkan, justru berpeluang diselipi kesalahan yang tak teridentifikasi. Ini memunculkan kecemasan dan ketidakpastian. Dan keduanya memerlukan pengelolaan: Anxiety & Uncertanty Managament sesuai gagasan William B. Gudykunst.

Teori ini yang dikembangkan sejak tahun 1988 ini, lazim diterapkan saat individu mengelola kecemasan dan ketidakpastian dalam interaksinya dengan orang berbudaya lain. Namun dapat diekstrapolasi penggunaannya pada interaksi individu dengan perangkat berbasis AI. Lantaran respon yang ditunjukkan, serupa interaksi antar manusia. Dan soal beda budaya, tentu saja mesin cerdas berbudaya beda. Ini lantaran mesin bernilai dan bernorma teknis, yang seluruhnya berbeda dari budaya manusia. Jadi, jangan menerima begitu saja, rekomendasi pada perangkat berbasis AI. Kecuali telah memiliki kemampuan mengelola kecemasan dan ketakpastiannya. Atau siap tertipu?

 

More Kolom


KOLOM TERKAIT