SulawesiPos.com – Ketua Umum DPN PERADI Profesional, Harris Arthur Hedar, mengajak akademisi dan praktisi hukum untuk keluar dari pendekatan dogmatis dalam melihat algoritma.
Ia menilai sudah saatnya berhenti menganggap algoritma sebagai entitas netral yang kebal hukum.
Menurutnya, perubahan besar terjadi dalam cara manusia mengonsumsi informasi dari kurasi oleh redaktur menjadi sepenuhnya dikendalikan sistem algoritmik.
“Teknologi tidak pernah netral. Ia membawa misi, desain, dan konsekuensi,” kata Prof Harris, Sabtu (18/4/2026).
Prof Harris menyoroti bahwa algoritma saat ini berada dalam ruang yang sulit dijangkau hukum.
Ia memaparkan tiga tantangan utama, yakni kausalitas hukum, status subjek hukum, dan yurisdiksi.
Dalam aspek kausalitas, ia menjelaskan bahwa sulit membuktikan hubungan langsung antara algoritma dan dampak seperti kekerasan atau bunuh diri.
Perusahaan teknologi kerap berdalih bahwa tindakan tersebut merupakan hasil kehendak bebas pengguna.
Namun, ia menegaskan bahwa dalam perspektif psikologi dan neurosains, algoritma yang dirancang dengan teknik penguatan perilaku dapat secara bertahap mengikis rasionalitas pengguna.
Status Hukum Algoritma yang Abu-abu
Masalah lain muncul karena algoritma tidak memiliki status sebagai subjek hukum. Ia bukan manusia maupun badan hukum, sehingga sulit dijadikan pihak dalam gugatan.
Dalam konteks gugatan perdata seperti class action, ketiadaan entitas tergugat menjadi hambatan utama bagi korban untuk memperoleh keadilan.
“Tanpa adanya konstruksi yuridis yang memandang algoritma sebagai “produk” yang cacat, maka korban hanya bisa meratapi kerugiannya tanpa keadilan restitutif,” ungkapnya.
Tantangan Yurisdiksi Platform Global
Persoalan semakin kompleks karena sebagian besar perusahaan pengembang algoritma berada di luar yurisdiksi nasional, khususnya negara berkembang.
Akibatnya, meskipun gugatan diajukan, pelaksanaan putusan hukum sering kali sulit direalisasikan.
Ia membandingkan dengan produk konvensional seperti rokok atau kosmetik yang memiliki entitas jelas untuk dimintai pertanggungjawaban. Sementara algoritma, menurutnya, merupakan sistem dinamis yang tidak memiliki bentuk fisik dan terus berkembang.
Siapa Bertanggung Jawab atas Dampak Algoritma?
Prof Harris mempertanyakan pihak yang harus bertanggung jawab ketika algoritma mendorong perilaku berbahaya, seperti kekerasan dalam rumah tangga akibat paparan konten misoginis atau dorongan terhadap konten ekstrem seperti pro-anoreksia.
Ia menegaskan bahwa mekanisme hukum seperti class action menjadi sulit diterapkan karena mensyaratkan identitas tergugat dan hubungan sebab-akibat yang jelas.
Selain itu, perlindungan hukum seperti Section 230 di Amerika Serikat atau prinsip intermediary liability di sejumlah negara kerap menjadi tameng bagi platform digital.
“Mereka berargumen bahwa mereka hanyalah ‘saluran’, bukan penerbit konten,” jelasnya.
Solusi: Perluasan Tanggung Jawab Hukum
Sebagai solusi, Prof Harris mengusulkan sejumlah pendekatan baru dalam hukum. Salah satunya adalah memperluas interpretasi kealpaan berat (gross negligence) dalam hukum perdata.
Menurutnya, jika platform mengetahui risiko dari desain algoritma seperti memicu polarisasi atau kekerasan, namun tetap mengutamakan keuntungan, maka hal tersebut dapat dikategorikan sebagai kelalaian.
Ia juga mendorong agar algoritma dipandang sebagai produk dalam kerangka product liability, meskipun tidak berwujud fisik.
“Gugatan class action dapat diarahkan kepada korporasi di balik algoritma tersebut dengan menggunakan teori design defect layaknya gugatan terhadap produk berbahaya,” tegasnya.
Prof Harris menegaskan bahwa upaya menggugat algoritma bukan untuk menghambat inovasi, melainkan untuk mengembalikan fungsi hukum sebagai pelindung keadilan.
“Saatnya hukum hadir sebagai panglima di ruang siber, memastikan bahwa inovasi teknologi selaras dengan martabat manusia dan nilai-nilai keadilan,” tandasnya.

