Mari Memahami Tanggung Jawab Etis di Era Kecerdasan Buatan Menurut Hans Jonas

Mari Memahami Tanggung Jawab Etis di Era Kecerdasan Buatan Menurut Hans Jonas



Suara Numbei News - Munculnya teknologi canggih dalam Kecerdasan Buatan dan peluncurannya ke publik (misalnya, ChatGPT, Bard, dan sebagainya) menimbulkan pertanyaan-pertanyaan sulit mengenai implikasi etis dalam penggunaannya. Meningkatnya kekuatan manusia untuk mengubah realitas dan peradaban secara signifikan perlu diperiksa dengan hati-hati. Mengikuti filsafat Hans Jonas, kita perlu meninjau pemikirannya untuk mempertimbangkan konsekuensi negatif dari teknologi sebelum menyambutnya dengan gembira.

Hans Jonas dan Perlunya Etika Baru

Hans Jonas adalah seorang filsuf Jerman-Yahudi yang lahir pada tahun 1903. Ia belajar di bawah bimbingan para filsuf ternama seperti Martin Heidegger dan Edmund Husserl, dan menjadi teman dekat ahli teori politik Hanna Arendt. Pada tahun 1979, ia menerbitkan The Imperative of Responsibility: In Search of Ethics for the Technological Age. Di sana, Jonas berargumen untuk mendukung keharusan etis baru yang dapat menjawab tantangan yang ditimbulkan oleh teknologi baru. Dia telah melihat secara langsung bagaimana dunia berubah dengan cepat: Proyek Manhattan-yang akan mengarah pada penggunaan bom atom pertama di Hiroshima dan Nagasaki dan pendaratan Apollo 11 di bulan oleh Amerika Serikat pada tahun 1969.

Teknologi sebelumnya, meskipun kuat di mata manusia, membiarkan Alam dan elemen-elemennya tidak tersentuh dan kekuatannya tidak merusak. Pemukul, menara pengepungan, ketapel, dan trebuchet, tidak ada satupun yang dapat membahayakan Alam secara keseluruhan. Hal ini tercermin dalam sistem etika utama di masa lalu.

Bagi Jonas, Alam bukanlah objek tanggung jawab manusia. Hal ini berarti bahwa etika pada dasarnya bersifat antroposentris, artinya etika berfokus pada interaksi manusia. Terlebih lagi, dalam menilai moralitas suatu tindakan, gagasan etis sebelumnya difokuskan pada konsekuensi yang mendekati praksis. Tidak diperlukan perencanaan lebih jauh.

Menurut Jonas, fajar teknologi baru secara dramatis menantang kerangka kerja etika ini. Tenaga nuklir dan modifikasi genetik (yang saat itu masih sebatas prospek) dapat mengubah alam secara keseluruhan. “Kerentanan alam” merupakan karakteristik dari perubahan ini. Konsekuensi jangka panjang dari teknologi menimbulkan kesulitan tambahan untuk menentukan dengan jelas apa yang bisa terjadi setelah teknologi tersebut digunakan.

Hans Jonas menulis: “Kesenjangan antara kemampuan untuk meramalkan dan kekuatan untuk bertindak menciptakan masalah moral yang baru.” Belum pernah umat manusia begitu berkuasa dan, pada saat yang sama, begitu tidak menyadari dampak yang ditimbulkan oleh kekuatan tersebut. Dalam menghadapi pertanyaan-pertanyaan baru, Hans Jonas mengusulkan sebuah perspektif baru mengenai etika dan membela pentingnya sebuah keharusan baru: tanggung jawab.

Prinsip Tanggung Jawab

Sebelum merumuskan prinsip barunya, Jonas mengingat kembali rumusan pertama Kant tentang imperatif kategorisnya: “Bertindaklah hanya sesuai dengan maksim yang melaluinya Anda bisa sekaligus menghendakinya menjadi hukum universal.” Tanpa masuk ke dalam rincian ilmiah, formula ini adalah “prosedur keputusan untuk penalaran moral.”

Intuisi di baliknya adalah bahwa seseorang hanya boleh bertindak berdasarkan prinsip-prinsip yang dapat diterapkan secara universal tanpa kontradiksi. Sebelum memutuskan sebuah maksim, kita harus mempertimbangkan apakah semua orang dapat bertindak berdasarkan prinsip yang sama; jika muncul kontradiksi, tindakan tersebut secara moral tidak diperbolehkan. Contoh yang umum adalah berbohong-jika semua orang melakukannya terus-menerus, kepercayaan sosial akan runtuh. Dalam hal ini, imperatif kategoris tidak memiliki isi tertentu. Sebaliknya, ini adalah cara untuk menguji maxim yang memandu tindakan.

Sekarang, mari kita rumuskan Imperatif dari Hans Jonas: “Bertindaklah agar dampak dari tindakan Anda sesuai dengan keabadian kehidupan manusia yang sejati.” Penulis juga memberikan rumusan negatif, “Bertindaklah agar dampak dari tindakan Anda tidak merusak kemungkinan masa depan dari kehidupan tersebut.”

Sementara formulasi Kant bersifat logis, Hans Jonas berurusan dengan masa depan yang dapat diprediksi sebagai dimensi tanggung jawab. Keharusan untuk bertanggung jawab bukanlah tentang mencari kontradiksi dalam maksim, tetapi tentang menguji sejauh mana kehidupan manusia yang sejati dapat berkembang di masa depan di bawah maksim tersebut. Ini berarti bahwa para pelaku bertanggung jawab atas generasi manusia di masa depan dan lingkungan yang sekarang rentan. Dia khawatir bahwa tindakan dapat diambil tanpa mempertimbangkan jenis dunia yang ingin kita tinggalkan untuk mereka yang akan datang: apakah dunia di mana kehidupan yang sejati terancam atau tidak ada?

Aplikasi dari Imperatif

Tentu saja, sekarang kita harus bertanya, apa yang dimaksud Hans Jonas dengan keaslian? Apakah dia membela konsepsi esensialis tentang kemanusiaan? Apa yang dimaksudnya dengan menjaga kelangsungan kehidupan manusia yang asli? Yang dimaksudnya, antara lain, segala jenis kemajuan teknologi yang dapat mengubah kondisi kehidupan manusia dan martabat yang melekat padanya. Sebagai contoh, gagasan transhumanis untuk menghindari kematian bertentangan dengan gagasan manusia yang melekat pada kefanaan dan kefanaan yang memberikan makna dan struktur pada kehidupan manusia. Namun, ada contoh lain yang lebih relevan dengan perkembangan kita saat ini: haruskah kita mengizinkan orang tua untuk merekayasa keturunan mereka? Haruskah rekayasa genetik digunakan untuk menyembuhkan penyakit atau untuk menangani spesies invasif? Sekali lagi, yang terpenting bagi Jonas adalah bahwa tindakan apa pun harus melestarikan kemanusiaan yang sejati.

Jonas berpendapat bahwa meskipun beberapa hasil yang mungkin terjadi telah dibayangkan, para ilmuwan tidak memiliki hak untuk memutuskan penggunaan teknologi yang dapat mengubah kehidupan manusia untuk selamanya. Baginya, konsekuensi yang tidak diinginkan dari teknologi perlu dipertimbangkan secara hati-hati. Skenario buruk harus lazim dalam diskusi-diskusi tersebut karena ada banyak sekali cara yang dapat menyebabkan hal-hal yang tidak diinginkan terjadi.

Dia membandingkan inovasi manusia dengan mekanisme evolusi. Dalam evolusi, Alam berjalan perlahan, membuat perubahan kecil dalam rentang waktu yang sangat panjang. Sebaliknya, perubahan manusia terjadi secara tiba-tiba. Dia menulis, “Perusahaan besar teknologi modern, tidak sabar memadatkan secara keseluruhan dan dalam banyak proyek tunggalnya, banyak langkah kecil evolusi alam menjadi langkah yang sangat besar dan dengan prosedur tersebut melupakan keuntungan penting dari alam sebagai permainan yang menyelamatkan.

Ketidaksabaran manusia dapat menyebabkan mempertaruhkan segalanya demi janji kehidupan yang lebih baik. Oleh karena itu, hasil dari keharusan tanggung jawab adalah bahwa filsafat tekno-positif tidak dapat membenarkan pertaruhan total. Jika tidak, motivasi di balik penerapan teknologi tersebut lebih merupakan kesombongan daripada kebutuhan. Pertanyaannya adalah, bisakah kita menerapkan prinsip tanggung jawab pada kecerdasan buatan saat ini?

Tanggung Jawab di Era AI

Pada tanggal 22 Maret 2023, sebuah surat terbuka yang dipublikasikan di situs web The Future of Life Institute menyerukan untuk menghentikan pengembangan AI. Surat itu berbunyi, “AI tingkat lanjut dapat mewakili perubahan besar dalam sejarah kehidupan di Bumi dan harus direncanakan serta dikelola dengan perhatian dan sumber daya yang sepadan.” Kemudian, beberapa baris kemudian, muncul pertanyaan yang menggelisahkan: “Haruskah kita mengambil risiko kehilangan kendali atas peradaban kita?” Surat terbuka tersebut ditandatangani oleh banyak CEO dan cendekiawan yang kuat dan berpengaruh seperti Elon Musk, Yuval Noah Harari, Steve Wozniak, dan Max Tegmark.

Contoh lainnya adalah pernyataan Sam Altman saat memberikan kesaksian di hadapan Kongres AS tentang risiko AI; ia merekomendasikan: “Kita perlu meluangkan waktu untuk membicarakan bagaimana kita akan menghadapi tantangan tersebut.”

Memang, baik surat terbuka maupun rekomendasi Altman sejalan dengan apa yang telah dikemukakan oleh Hans Jonas-pada tahun 1978-bahwa “nubuat malapetaka harus lebih diperhatikan daripada nubuat kebahagiaan.” Ada banyak aspek di mana sistem AI (misalnya, model Large Language) dapat membantu umat manusia, dan pemikir terkenal seperti Bill Gates telah menunjukkan manfaat tersebut. Namun demikian, ada beberapa potensi jebakan yang terkait dengan penerapan AI dan kemampuan eksponensial. Beberapa mungkin terdengar dystopian dan jauh, seperti pemusnahan manusia. Sebaliknya, yang lainnya jauh lebih nyata: perpindahan pekerjaan, bias dan diskriminasi melalui sistem AI, serta masalah privasi dan keamanan.

Bagi beberapa orang, seperti Mo Gawdat (mantan kepala bisnis Google X), kita sudah terlambat, dan jin sudah keluar dari botol. Dalam sebuah wawancara dengan Steven Bartlett, Gawdat menyatakan, “Kita telah memberikan terlalu banyak kekuasaan kepada orang-orang yang tidak memikul tanggung jawab (…) kita telah memutus hubungan antara kekuasaan dan tanggung jawab.” Hal ini senada dengan pengamatan Jonas bahwa kesenjangan antara kemampuan untuk meramalkan dan kekuatan untuk bertindak adalah pusat dari masalah moral yang baru. Apakah sudah terlambat untuk bertanggung jawab?

Sebagian dari kesulitan untuk menjawabnya terletak pada penentuan siapa yang bertanggung jawab. Dalam Proyek Manhattan, beberapa ilmuwan terkemuka bertanggung jawab atas konsekuensi dari pengembangan bom tersebut: Robert Oppenheimer, Enrico Fermi, dan Leo Szilard adalah beberapa di antaranya. Namun, tanggung jawabnya lebih dari itu. Seperti yang dikatakan oleh beberapa sejarawan, ketika Leo Szilard menyusun surat pada tahun 1939 dan meminta Albert Einstein untuk menandatanganinya, tujuannya adalah untuk membujuk Presiden Franklin D. Roosevelt bahwa pengembangan senjata semacam itu oleh Nazi Jerman merupakan ancaman potensial. Apakah presiden yang bertanggung jawab? Apakah itu merupakan konsekuensi yang tak terelakkan dari perlombaan senjata pada awal perang?

Catatan Penutup

Logika yang sama dapat digunakan dalam kasus surat terbuka yang meminta untuk menghentikan pengembangan AI: akan selalu ada orang yang memiliki niat buruk yang akan terus berlanjut. Oleh karena itu, kita tidak boleh berhenti. Dalam kasus AI, menghentikan penelitiannya lebih rumit dari yang dibayangkan. Berbeda dengan pengayaan uranium, Model Large Language dapat dilatih di ruang bawah tanah rumah mana pun. Oleh karena itu, setiap orang bertanggung jawab dalam berbagai tingkatan, mulai dari pemerintah yang dapat memilih untuk mengenakan pajak atas penggunaan AI untuk mengatasi hilangnya pekerjaan hingga pengembang tunggal yang memutuskan untuk mempertimbangkan efek jangka panjang dari perangkat lunak apa pun yang dikodekan.

Terakhir, pertanyaan yang lebih menarik adalah: apakah Kecerdasan Buatan merusak masa depan kehidupan nyata? Apakah memiliki hubungan sentimental dengan AI dari seorang influencer Snapchat dapat merusak hubungan yang benar-benar manusiawi? Sulit untuk mengatakannya. Apakah ada sesuatu yang alami atau asli tentang hidup di kota, membawa ponsel ke mana pun kita pergi, dan mengadakan rapat Zoom lintas zona waktu? Seluruh keharusan tanggung jawab tampaknya bergantung pada makna “asli”.

Bagaimanapun, pelajaran yang paling penting adalah bahwa umat manusia harus menyadari konsekuensi jangka panjang yang sebenarnya dari kecerdasan buatan. Mengakhiri kata Hans Jonas, kita harus berada di “sisi moderasi dan kehati-hatian, ‘waspadalah!’ dan ‘lestarikan!”*

 


Suara Numbei

Setapak Rai Numbei adalah sebuah situs online yang berisi berita, artikel dan opini. Menciptakan perusahaan media massa yang profesional dan terpercaya untuk membangun masyarakat yang lebih cerdas dan bijaksana dalam memahami dan menyikapi segala bentuk informasi dan perkembangan teknologi.

Posting Komentar

Silahkan berkomentar hindari isu SARA

Lebih baru Lebih lama