Peran Hukum dalam Menghadapi Algoritma yang Tidak Netral
Ketua Umum DPN PERADI PROFESIONAL dan juga Guru Besar Universitas Negeri Makassar, Prof. Dr. Harris Arthur Hedar, SH, MH, menyampaikan kekhawatiran tentang pergeseran fundamental dalam cara manusia mengonsumsi informasi. Ia menyoroti bahwa sebelumnya kurasi informasi dilakukan oleh redaktur atau mekanisme profesional lainnya, tetapi kini sepenuhnya diserahkan kepada algoritma.
Menurut Prof Harris, teknologi tidak pernah netral. Ia membawa misi, desain, dan konsekuensi. Hal ini menjadi dasar dari kekhawatiran terhadap penggunaan algoritma dalam memengaruhi perilaku manusia secara sistematis.
Tantangan Hukum yang Dihadapi
Kausalitas Hukum
Membuktikan bahwa algoritma secara langsung menyebabkan kekerasan atau bunuh diri memang sulit. Perusahaan teknologi seringkali menunjuk pada “kehendak bebas” korban atau pelaku sebagai intervening cause. Namun, dalam perspektif psikologi dan neurosains, algoritma yang dirancang dengan teknik behavioral reinforcement telah secara sistematis menghilangkan kemampuan rasionalitas pengguna secara bertahap.Status Subjek Hukum
Algoritma tidak memiliki status sebagai subjek hukum. Menurut Prof Harris, algoritma bukan badan hukum maupun manusia. Dalam ranah gugatan perdata, class action membutuhkan pihak yang digugat. Tanpa adanya konstruksi yuridis yang memandang algoritma sebagai “produk” yang cacat (product defect), maka korban hanya bisa meratapi kerugiannya tanpa keadilan restitutif.Yurisdiksi
Platform global sering kali berada di luar jangkauan hukum nasional negara berkembang. Meskipun ada niat untuk menggugat, eksekusi putusan menjadi utopia.
Perbedaan Algoritma dengan Tradisi Hukum Perdata
Prof Harris menjelaskan bahwa algoritma berbeda dengan tradisi hukum perdata yang terbiasa dengan subjek hukum jelas. Ia mencontohkan, seperti perusahaan rokok yang bisa digugat apabila menyebabkan kerugian kepada korbannya. Namun, algoritma berbeda. Ia bukan barang atau produk dalam arti klasik. Ia adalah kode, sistem, atau black box yang terus berkembang secara dinamis.
Ia pun mempertanyakan, siapa yang dimintain pertanggungjawaban bilamana sebuah algoritma di media sosial memacu seseorang untuk melakukan kekerasan dalam rumah tangga setelah terpapar konten misoginis secara masif, atau mendorong seorang remaja menuju konten pro-anorexia hingga bunuh diri.
Langkah yang Bisa Ditempuh
Prof Harris mengutarakan beberapa langkah yang bisa ditempuh untuk menghadapi algoritma. Pertama, memperluas interpretasi kealpaan berat (gross negligence) dalam hukum perdata. Jika sebuah platform mengetahui bahwa desain algoritmanya berpotensi menciptakan polarisasi ekstrem atau memicu kekerasan, namun tetap mengedepankan engagement demi keuntungan, maka platform tersebut telah melakukan kealpaan yang menimbulkan kerugian massal.
Selain itu, pentingnya merekonseptualisasi algoritma sebagai produk dalam ranah product liability. Meskipun algoritma tidak berwujud fisik, ia adalah komoditas yang didistribusikan, dijual dalam bentuk perhatian pengguna atau attention economy, dan memiliki cacat desain (design defect) yang mematikan. Gugatan class action dapat diarahkan kepada korporasi di balik algoritma tersebut dengan menggunakan teori design defect layaknya gugatan terhadap produk berbahaya.
Dengan demikian, tegas Prof Harris, menggugat algoritma bukanlah upaya untuk menghambat inovasi atau menyalahkan teknologi semata. Ia memastikan, langkah ini adalah upaya untuk mengembalikan hukum pada fungsinya yang paling hakiki: Memberikan keadilan bagi korban dan menciptakan keadilan sosial.
Saatnya hukum hadir sebagai panglima di ruang siber, memastikan bahwa inovasi teknologi selaras dengan martabat manusia dan nilai-nilai keadilan.



