Lompat ke kontens Lompat ke sidebar Lompat ke footer

AI adalah Ancaman Eksistensial, Tetapi Bukan dengan Cara yang Anda Pikirkan

Beberapa orang khawatir bahwa kecerdasan buatan akan mengancam kelangsungan hidup umat manusia. Namun, risiko eksistensialnya lebih bersifat filosofis daripada apokaliptik.

AI adalah Ancaman Eksistensial, Tetapi Bukan dengan Cara yang Anda Pikirkan
AI adalah Ancaman Eksistensial, Tetapi Bukan dengan Cara yang Anda Pikirkan

Esai berikut ini dicetak ulang dengan izin dari The Conversation, publikasi daring yang mencakup penelitian terbaru.

Munculnya ChatGPT dan sistem kecerdasan buatan serupa telah disertai dengan meningkatnya kecemasan tentang AI. Selama beberapa bulan terakhir, para eksekutif dan peneliti keselamatan AI telah memberikan prediksi yang disebut "P(doom)" tentang kemungkinan AI akan menyebabkan bencana dalam skala besar.

Ketakutan mencapai puncaknya pada bulan Mei 2023 ketika organisasi riset dan advokasi nirlaba Center for AI Safety merilis pernyataan satu kalimat: "Mengurangi risiko kepunahan dari AI harus menjadi prioritas global bersama risiko-risiko skala sosial lainnya, seperti pandemi dan perang nuklir." Pernyataan tersebut ditandatangani oleh banyak pemain kunci dalam bidang ini, termasuk para pemimpin OpenAI, Google, dan Anthropic, serta dua dari "bapak pendiri" AI yang disebut Geoffrey Hinton dan Yoshua Bengio.

Anda mungkin bertanya-tanya bagaimana ketakutan eksistensial semacam itu seharusnya terjadi. Salah satu skenario terkenal adalah eksperimen pemikiran "paper clip maximizer" yang diartikulasikan oleh filsuf Oxford, Nick Bostrom. Ide tersebut adalah bahwa sebuah sistem AI yang bertugas untuk menghasilkan sebanyak mungkin klip kertas mungkin akan melakukan segala cara untuk menemukan bahan baku, seperti menghancurkan pabrik dan menyebabkan kecelakaan mobil.

Variasi yang membutuhkan sumber daya lebih sedikit adalah AI yang bertugas untuk memesan meja di restoran populer, yang menutup jaringan seluler dan lampu lalu lintas untuk mencegah orang lain mendapatkan meja.

Meskipun berbeda dalam hal perlengkapan kantor atau makan malam, ide dasarnya sama: AI dengan cepat menjadi kecerdasan asing, mampu mencapai tujuan tetapi berbahaya karena tidak selalu sesuai dengan nilai-nilai moral penciptanya. Dan, dalam versi paling ekstrem, argumen ini berubah menjadi kecemasan eksplisit tentang AI yang menundukkan atau menghancurkan umat manusia.

DAMPAK SEBENARNYA

Dalam beberapa tahun terakhir, saya dan rekan-rekan di Applied Ethics Center Universitas UMass Boston telah mempelajari dampak keterlibatan dengan AI pada pemahaman orang tentang diri mereka sendiri, dan saya percaya bahwa kecemasan bencana semacam itu terlalu dibesar-besarkan dan salah sasaran.

Ya, kemampuan AI untuk menciptakan video dan audio deep-fake yang meyakinkan memang menakutkan, dan itu dapat disalahgunakan oleh orang-orang dengan niat buruk. Bahkan, hal itu sudah terjadi: operasi Rusia kemungkinan mencoba untuk menghina kritikus Kremlin, Bill Browder, dengan menjebaknya dalam percakapan dengan avatar mantan Presiden Ukraina, Petro Poroshenko. Para penjahat siber telah menggunakan kloning suara AI untuk berbagai kejahatan - mulai dari pencurian teknologi tinggi hingga penipuan biasa.

Sistem pengambilan keputusan AI yang menawarkan persetujuan pinjaman dan rekomendasi perekrutan membawa risiko bias algoritmik, karena data pelatihan dan model keputusan yang mereka jalankan mencerminkan prasangka sosial yang sudah berlangsung lama.

Ini adalah masalah besar, dan memang memerlukan perhatian dari para pembuat kebijakan. Tetapi masalah-masalah ini sudah ada sejak lama, dan jauh dari bencana.

TIDAK SEBANDING

Pernyataan dari Center for AI Safety menyamakan AI dengan pandemi dan senjata nuklir sebagai risiko besar bagi peradaban. Ada masalah dengan perbandingan itu. COVID-19 menyebabkan hampir 7 juta kematian di seluruh dunia, menyebabkan krisis kesehatan mental yang massif dan berkelanjutan, serta menciptakan tantangan ekonomi, termasuk kekurangan rantai pasokan dan inflasi yang tinggi.

Senjata nuklir mungkin telah menewaskan lebih dari 200.000 orang di Hiroshima dan Nagasaki pada tahun 1945, menewaskan banyak lebih banyak nyawa akibat kanker dalam tahun-tahun berikutnya, menyebabkan kecemasan mendalam selama Perang Dingin dan membawa dunia mendekati kehancuran selama krisis Rudal Kuba pada tahun 1962. Mereka juga telah mengubah perhitungan para pemimpin negara tentang bagaimana merespons agresi internasional, seperti yang terjadi saat ini dengan invasi Rusia ke Ukraina.

Kecerdasan buatan (AI) saat ini jauh dari kemampuan untuk menyebabkan jenis kerusakan semacam itu. Skenario klip kertas dan sejenisnya adalah fiksi ilmiah. Aplikasi AI yang ada hanya menjalankan tugas-tugas tertentu daripada membuat penilaian yang luas. Teknologi ini masih jauh dari kemampuan untuk memutuskan dan merencanakan tujuan dan tujuan turunannya yang diperlukan untuk menutup lalu lintas guna mendapatkan tempat duduk di restoran, atau meledakkan pabrik mobil untuk memenuhi keinginan Anda akan klip kertas.

Tidak hanya teknologi ini kurang memiliki kapasitas untuk melakukan penilaian berlapis yang terlibat dalam skenario seperti itu, tetapi juga tidak memiliki akses otonom ke bagian-bagian yang cukup dari infrastruktur kritis kita untuk mulai menyebabkan jenis kerusakan tersebut.

APA ARTINYA MENJADI MANUSIA

Sebenarnya, ada bahaya eksistensial yang melekat dalam menggunakan AI, tetapi risiko itu bersifat filosofis daripada apokaliptik. AI dalam bentuknya saat ini dapat mengubah cara pandang orang terhadap diri mereka sendiri. Hal ini dapat merusak kemampuan dan pengalaman yang orang anggap penting sebagai manusia.

Sebagai contoh, manusia adalah makhluk pembuat penilaian. Orang secara rasional menimbang hal-hal tertentu dan membuat keputusan penilaian sehari-hari di tempat kerja dan selama waktu senggang tentang siapa yang harus dipekerjakan, siapa yang harus mendapatkan pinjaman, apa yang harus ditonton, dan sebagainya. Tetapi semakin banyak dari penilaian-penilaian ini yang diotomatisasi dan diambil alih oleh algoritma. Ketika itu terjadi, dunia tidak akan berakhir. Tetapi orang akan secara bertahap kehilangan kemampuan untuk membuat penilaian-penilaian ini sendiri. Semakin sedikit penilaian yang dibuat orang, semakin buruk mereka kemungkinan menjadi dalam membuat keputusan tersebut.

Atau pertimbangkan peran kebetulan dalam kehidupan orang. Manusia menghargai kebetulan: bertemu dengan tempat, orang, atau aktivitas secara kebetulan, terlibat di dalamnya, dan menghargai peran kebetulan dalam penemuan berarti tersebut. Tetapi peran dari mesin rekomendasi algoritma adalah untuk mengurangi jenis kebetulan tersebut dan menggantikannya dengan perencanaan dan prediksi.

Terakhir, pertimbangkan kemampuan menulis dari ChatGPT. Teknologi ini sedang dalam proses menghilangkan peran tugas menulis dalam pendidikan tinggi. Jika hal itu terjadi, para pendidik akan kehilangan alat kunci untuk mengajarkan siswa bagaimana berpikir secara kritis.

TIDAK MATI TAPI TERTEKAN

Jadi, tidak, AI tidak akan meledakkan dunia. Tetapi penerimaan terhadap teknologi ini yang semakin tidak kritis, dalam berbagai konteks yang sempit, berarti erosi bertahap dari beberapa keterampilan paling penting manusia. Algoritma-algoritma saat ini sudah mengganggu kapasitas orang dalam membuat penilaian, menikmati pertemuan kebetulan, dan mengasah kemampuan berpikir kritis.

Spesies manusia akan bertahan dari kehilangan-kehilangan seperti itu. Tetapi cara kita eksis akan menjadi miskin dalam prosesnya. Kekhawatiran fantastis seputar bencana AI yang akan datang, singularitas, Skynet, atau bagaimana pun Anda memandangnya, menyembunyikan biaya-biaya yang lebih halus ini. Ingatlah baris penutup terkenal dari puisi "The Hollow Men" karya T.S. Eliot: "Inilah cara dunia berakhir," tulisnya, "bukan dengan ledakan tetapi dengan desingan."