ai-technology-brain-background-digital-transformation-concept.jpg
Kolom & Foto

Pertimbangan Etika Artificial Intelligence Berdasar Risiko Pemanfaatannya

  • Adakah keharusan menerapkan etika yang berbeda, untuk pemanfaatan artificial intelligence (AI) di area yang berbeda-beda? Perbadaan area pemanfaatan, berarti ada perbedaan risiko yang mengikutinya.

Kolom & Foto

Firman Kurniawan

Adakah keharusan menerapkan etika yang berbeda, untuk pemanfaatan artificial intelligence (AI) di area yang berbeda-beda? Perbadaan area pemanfaatan, berarti ada perbedaan risiko yang mengikutinya. 

Bayangkan keadaannya begini: seorang eksekutif pemasaran produk perawatan kulit --dengan memanfaatkan perangkat berbasis AI-- menyusun rencana pemasarannya. Pertimbangannya mengandalkan AI: selain hasilnya cepat diperoleh, rekomendasinya dapat dipercaya, juga biayanya yang jauh lebih murah. Ini jika dibanding menggunakan konsultan profesional untuk memperoleh rekomendasi serupa. Memang tak seluruh hasilnya serta merta dapat diterima. Sang Eksekutif pemasaran harus memeriksa dengan seksama, sebelum rekomendasi diterapkan.   

Cara memanfaatkan perangkat, dimulai dengan mendeskripsikan data produk yang hendak dipasarkan; data potensi segmentasi pasarnya; data diferensiasi produk dibanding produk sejenisnya; data jenama produk. Juga data situasi pasar terbaru –ini diperoleh dari lembaga statistik terpercaya—berikut undang-undang pemasaran yang berlaku di negara setempat. Sang eksekutif mengakhiri permintaan rekomendasinya, dengan 2 prompt: ‘pasar sasaran terbaik mana, yang harus dipilih perusahaan?’ dan ‘komunikasi pemasaran apa, yang harus dilakukan untuk produk?’. 

Dalam waktu sangat cepat, diperoleh respon: pasar sasaran produknya ‘perempuan berusia 18-25 tahun’ dengan komunikasi pemasarannya ‘live streaming di TikTok dan pemasangan banner, di jalan-jalan protokol’. Rekomendasi ini masuk akal. Juga ketika dibandingkan dengan yang dilakukan produk-produk sejenis, yang laku di pasar. Karenanya, Sang Eksekutif Pemasaran segera menerapkan rekomendasi itu. 

Hasilnya dalam 3 bulan penerapan, tampak meyakinkan. Indikasi kinerja penjualan meningkat tajam. Perusahaan mempercayai ketepatan langkahnya. Tapi sayangnya, semua berlangsung hanya 3 bulan. Memasuki bulan ke-4, target-target yang telah ditetapkan gagal terwujud. Juga di bulan-bulan berikutnya. Keadaan tetap tak tertolong, ketika anggaran komunikasi pemasarannya --live steaming dengan melibatkan lebih banyak orang dan pemasangan banner-- terus dinaikkan. Kinerja penjualan macet. Bahkan perusahaan mengalami kerugian serius. Apa yang salah?

Sementara itu --di area layanan kesehatan -- perangkat sejenis digunakan para dokter. Ini untuk merencanakan pengobatan pasien. Diagnosa dokter yang mengandalkan sensor, mampu mengenali berbagai gejala sakit. Dan pada suatu saat, sensor mendapati adanya benjolan di lengan kanan seorang pasien, sebagai kanker kulit. Untungnya, tingkat keparahannya masih dini: stadium 2. Untuk memastikanya, pengenalan sensor ini diujisilang. Tujuannya, gejala yang telah terbaca indikasinya ditetapkan statusnya. Berdasar prosedur itu, dokter meminta rekomendasi rencana pengobatan pada perangkat berbasis AI. Diketikkan prompt: ‘pilihan terbaik merawat pasien kanker kulit, stadium 2’. Hasilnya ‘kemoterapi 6 bulan, dengan durasi setiap siklus 1 minggu pengobatan, dan 4 minggu istirahat’. Bukan amputasi pilihannya. 

Merujuk pada pengalaman Sang Dokter --juga data riwayat pengobatan sebelumnya-- rekomendasi diterima dengan yakin. Kemoterapi dijalankan sesuai protokol. Tapi apa yang terjadi setelah bulan ke-3 pengobatan? Keadaan memburuk, keadaan kankernya makin parah. Di bulan ke-4 pengobatan, pasien meninggal. Apa pula yang salah? 

Mengandalkan perangkat berbasis AI --di area pemasaran maupun layanan kesehatan-- memang tak menjanjikan keberhasilan mutlak. Namun penyebab ketakberhasilannya, tetap perlu diungkap. Dengan melakukan penelusuran lacak balik, proses pembelajaran AI untuk pemasaran mendapati: sumber data perangkat berasal dari konsumen berbudaya maskulin. Pada budaya masyarakat seperti itu, laki-laki tak lazim menggunakan produk perawatan kulit. 

Bisa distigma sebagai pesolek yang berlebihan. Karenanya, ketika Sang Eksekutif meminta rekomendasi ‘pasar sasaran’, direspon AI: ‘perempuan berusia 18-25 tahun’. Ini lantaran data laki-laki yang memakai produk perawatan kulit yang tersimpan pada perangkat, kecil angkanya. Memilih pasar sasaran laki-laki dianggap tak menguntungkan. Padahal penerapan AI, pada budaya yang melazimkan laki-laki maupun perempuan menggunakan produk perawatan kulit. 

Hari ini tentu bukan perusahaan yang diceritakan di atas saja, yang memanfaatkan AI untuk memperoleh rekomendasi. Perusahaan sejenis lainnya, menggunakan cara serupa. Karenanya, rekomendasi yang diterima perusahaan lain tak berbeda. Memilih pasar sasaran ‘perempuan’, tak lagi jadi taktik yang istimewa. Kegagalan pemasaran terjadi akibat rekomendasi yang mengandung bias data. Ternyata bukan hanya perempuan yang lazim menggunakan produk perawatan kulit. Laki-laki juga tak tabu menggunakannya. 

Bias data juga terjadi di area layanan kesehatan. Data pengenalan penyakit disusun dari penderita berkulit putih: Amerika, Eropa, Australia. Rekomendasinya juga berdasar itu. Ketika perangkat digunakan di negara yang warganya berkulit berwarna –Afrika dan sebagian Asia-- terjadi kegagalan pengenalan gejala. Kanker yang sudah parah, terbaca masih di stadiun awal. Yang sebaliknya, juga bisa terjadi. Yang pasti, rencana pengobatannya meleset. Ini menimbulkan akibat fatal. Tapi mana yang lebih menderita kerugian?

Besarnya kerugian, tak dapat diperbandingkan. Situasinya tak benar-benar sebanding. Karenanya tak elok mengajukan pertanyaan, mana yang ruginya lebih besar: investasi gagal akibat melesetnya rencana pemasaran atau hilang nyawa akibat melesetnya rencana pengobatan? Namun terhadap keadaan yang tak terhindarkan itu, Muhammad Zulhusni, 2025, dalam “Ethics in Automation: Addressing Bias and Compliance in AI” justru memandang perlu, menyusun etika AI berdasar risiko penerapannya. 

Diilustrasikan Zulhusni, bidang hukum mulai mencermati perkembangan AI terkini. Contohnya undang-Undang di Uni Eropa --yang disahkan tahun 2024-- telah memeringkat pemanfaatan AI berdasarkan risikonya. Pada penerapan yang berisiko tinggi --termasuk yang dapat menimbulkan diskriminasi-- seperti dalam perekrutan tenaga kerja, penilaian kredit, etika AI-nya sangat ketat. Ini menyangkut transparansi: harus jelas cara AI menyusun rekomendasinya; adanya pengawasan manusia: melibatkan manusia untuk menentukan keputusan akhir; dan pemeriksaan bias: data yang digunakan dalam pembentukan algoritma harus proporsional. 

Sementara di Amerika, regulator semacam Komisi Kesempatan Kerja yang Setara --The Equal Employment Opportunity Commission (EEOC)-- memperingatkan pelaku usaha terhadap risiko dikriminasi, ketika perekrutan digerakkan perangkat berbasis AI. Demikan pula, Komisi Perdagangan Federal –Federal Trade Commision (FTC)-- juga memperingatkan adanya sistem yang bias, merupakan pelanggaran terhadap UU antidiskriminasi.  

Jika potensi kegagalan yang disebabkan AI itu diajukan sebagai pertanyaan, kurang lebih formulasinya: telah memenuhi standar etiskah perangkat AI yang digunakan untuk mendukung keputusan? Selain perusahaan harus mematuhi undang-undang negara, juga harus tunduk pada aturan di negara-negara bagian. 

Misalnya, California telah mengatur pengambilan keputusan yang didasari algoritma. Juga Illinois, yang mengharuskan perusahaan untuk memberi tahu pelamar kerja, jika AI digunakan dalam wawancara video. Dan regulator di New York City, mewajibkan audit AI yang digunakan dalam perekrutan. Audit harus memastikan: sistem yang digunakan memberikan hasil yang adil pada variasi gender maupun ras. Kegagalan mematuhinya, mengakibatkan denda atau tuntutan hukum.

Hal lain yang berlaku di Uni Eropa, penerapan etika AI dikategorikan berdasar perbedaan risikonya. Merujuk laporan penelitian yang disusun Claudio Novelli, Federico Casolari, Antonino Rotolo, Mariarosaria Taddeo dan Luciano Floridi, 2023, berjudul “Taking AI Risks Seriously: A New Assessment Model for the AI Act”, disebutkan, UUKecerdasan Buatan Uni Eropa --Artificial Intelligence Act (AIA)-- mendefinisikan empat kategori risiko: tidak dapat diterima, tinggi, terbatas, dan minimal. 

Contoh penerapan kategori itu misalnya, ketika pengenalan wajah maupun penilaian sosial berbasis AI tak dapat diterima, 2 aktivitas itu dilarang di Uni Eropa. Demikian pula pemanfaatan di area pendidikan, seleksi tenaga kerja, imigrasi, peradilan, penegakan hukum yang berisiko tinggi, mengharuskan adanya prosedur penilaian kesesuaian dan diperlukannya penilaian tambahan. AI tak boleh jadi satu-satunya penentu.

Dari seluruhnya, risiko AI itu tampak masih dipahami sebatas implikasi hukum yang merugikan. Kerugian dari pelanggaran hukum, oleh AI. Karenanya sifatnya sebatas kerugian yang dapat didefinisikan. Lalu bagaimana dengan kerugian yang timbul seperti ilustrasi di area layanan kesehatan di atas? Penilaiannya bisa salah. Artinya, aturan berdasarkan risiko pemanfaatan AI belum terdefinisi seluruhnya. Juga, risiko itu tak selalu mutlak. Tergantung konteks saat AI diterapkan. Hanya mempertimbangkan risiko yang terdefinisi, tak memenuhi keperluan melindungi penggunanya. 

Namun apa dan bagaimana etika yang menyangkut risiko ini dipertimbangkan, merupakan langkah yang diperlukan. Tanpa etika --menerapkan AI tanpa batas-- sama artinya membiarkan adanya kekuatan yang berlaku absolut. Akibat yang timbul, lepas dari pertimbangan. Tentu tak diharapkan pemanfaatan AI yang membawa kerugian. Semuanya harus disiapkan sebelum keadaan sulit dibenahi. Juga di Indonesia, bagaimana kesiapan pemanfaatan yang minim risikonya?