Perang Masa Depan: Ketika Robot Bergabung Dalam Pertempuran Untuk Memutuskan Siapa yang Hidup Dan Mati


WW3 - Mereka akan merancang kontrak seperti yang pernah dilakukan pengacara. Mereka akan mendiagnosis penyakit seperti dokter.

Tapi seandainya mesin mengambil alih urusan menentukan siapa yang tinggal dan meninggal di medan perang? Itulah kenyataan untuk masa depan.

Seiring kemajuan kecerdasan buatan, robot bisa cepat belajar dari lingkungan sekitar, militer di seluruh dunia berinvestasi dalam sistem otonom yang mematikan.

Angkatan Pertahanan Australia meneliti kualitas yang dibutuhkan mesin untuk "membuat atau merekomendasikan keputusan hidup atau mati".

Kolaborasi dengan Angkatan Darat AS mengeksplorasi "keseimbangan optimal antara otoritas Sistem Otonomi dan Penyelenggara Manusia".

Pendukung mengatakan bahwa senjata AI kekurangan agresi buruk yang dipamerkan oleh beberapa tentara manusia dan akan menjadi lebih akurat dalam mendeteksi ancaman, menyelesaikan pekerjaan juga "kotor, kusam, atau berbahaya" bagi manusia.

Lawan termasuk 122 periset kecerdasan buatan yang menulis minggu lalu kepada Perdana Menteri Malcolm Turnbull yang ingin sistem otonomi mematikan dilarang. "Jika dikembangkan, mereka akan membiarkan konflik bersenjata diperjuangkan dalam skala yang lebih besar daripada sebelumnya, dan pada rentang waktu lebih cepat dari yang dapat dipahami manusia," para peneliti menulis.

Minggu depan, para ahli akan bertemu di Perserikatan Bangsa-Bangsa di Jenewa, Swiss, untuk pembicaraan formal pertama mengenai senjata otonom.

Penelitian tentang penyebaran mereka telah mengungkapkan wawasan tentang cara manusia memikirkan pilihan mematikan.

Apa yang dianggap 'otonom'?

Jervis Bay dikenal karena lumba-lumba bermain di perairan yang jernih sepanjang tahun. Tapi, satu akhir pekan tahun depan, tempat liburan di NSW South Coast akan disusupi makhluk lain.

Ilmuwan pertahanan dan perusahaan dari negara 5 Mata AS yaitu AS, Inggris, Kanada, Australia dan Selandia Baru akan berkumpul di sana untuk mengadili mesin bawah air, permukaan dan udara.

Bagian pertunjukan industri, sebagian latihan militer, tantangan "Autonomous Warrior" akan menguji robot yang tidak terlihat seperti manusia tapi "menilai niatnya dengan menyelidik atau berinteraksi".

Ini adalah bagian dari rencana Angkatan Pertahanan untuk menciptakan sistem "perubahan permainan" yang memungkinkan kerjasama yang efektif dan efektif antara manusia dan mesin.

Australia telah menggunakan pesawat tak berawak dan robot pembersihan tambang. ADF telah menguji coba supercomputer IBM Watson (lebih dikenal untuk mengalahkan manusia di acara kuis ASJeopardy ) untuk memilih target "operasi psikologis" yang memproyeksikan pengaruh Australia di luar negeri.

Tahun ini Menteri Perindustrian Pertahanan Christopher Pyne menjanjikan $ 50 juta untuk sebuah pusat penelitian kolaboratif tentang "sistem otonom tepercaya".

Tapi negara lain jauh lebih maju.

Northrop Grumman yang berbasis di Amerika Serikat memiliki pesawat tak berawak yang bisa lepas landas dan mengisi bahan bakar sendiri. Produsen senjata Rusia Kalashnikov mengatakan telah membangun sebuah senapan mesin yang artifisial.

Militer AS tahun lalu mengatakan bahwa ini adalah 1 dekade dari kemampuan untuk membangun mesin independen yang bisa memutuskan siapa yang harus dibunuh (walaupun tidak direncanakan).

Apa yang dianggap otonom?

Istilahnya bisa licin seperti "cerdas"; itu tidak memiliki definisi ilmiah atau matematis tunggal.

Tingkat otonomi insinyur terhadap skala dan peneliti ADF bertujuan untuk Level 4 plus: "Mungkin manusia diujicobakan tapi tidak perlu."

Sejauh ini Australia telah "sangat berhati-hati" dengan AI militer yang mungkin mencerminkan "ketakutan yang mendalam untuk kehilangan kontrol terhadap sistem", kata Malcolm Davis, seorang analis senior di Australian Strategic Policy Institute.

Davis berpendapat bahwa negara-negara termasuk Cina dan Rusia berada dalam perlombaan senjata otonom dan Australia harus mengembangkan senjata, bahkan jika tidak menyebarkannya di luar "perang untuk bertahan hidup".

"Jika kita terjebak dalam pertengkaran hukum dan etika sementara lawan kita berlomba ke depan, maka kita bisa berada pada posisi yang sangat buruk," katanya.

Untuk saat ini, hanya manusia yang bisa membedakan antara kombatan dan warga sipil, antara pejuang aktif dan mereka yang menyerah atau tidak mampu.

Tapi itu bisa segera berubah, menurut Sue Keay, chief operating officer Australian Center for Robotic Vision, yang sedang mengembangkan "peta jalan" robotik dengan Pertahanan.

Mengutip kemajuan "gila" di lapangan, Keay memprediksi robot mungkin bisa memilih pejuang "setidaknya sebaik manusia".

1 keuntungan mesin bisa berasal dari sesuatu yang tidak mereka sukai yaitu emosi.

Prajurit daging dan darah melakukan balas dendam dan melakukan kekejaman. Mereka mungkin menembak secara prematur, takut akan keselamatan mereka sendiri.

"Mengapa kita selalu menganggap bahwa penilaian manusia itu lebih baik?" tanya Ron Arkin, seorang profesor robotika di Institut Teknologi Georgia yang telah bekerja dengan Departemen Pertahanan AS.

Arkin yakin robot pada suatu hari bisa menyesuaikan diri dengan hukum humaniter internasional lebih baik daripada manusia, membersihkan bangunan zona pertempuran dengan lebih menahan diri dan lebih sedikit korban tewas.

"Saya yakin dengan tegas bahwa teknologi dapat membantu dalam membantu melindungi kehidupan non-kombatan lebih baik daripada yang sedang kita lakukan."

Siapa yang membuat keputusan untuk menembak?

Salah satu perusahaan Australia mendorong otonomi dari perspektif yang membalik daripada memberdayakan mesin untuk memilih dan menembak sasaran, DefendTex bekerja untuk membuat mereka cukup cerdas untuk memutuskan kapan mereka seharusnya tidak menarik pelatuknya meskipun target telah ditetapkan.

Pada sebuah "hari inovasi" tentara di Canberra minggu ini, DefendTex memamerkan salah satu kreasi terbarunya: Tempest, sebuah pesawat tak berawak menakutkan yang dapat membawa 80 granat berpeluncur roket atau jumlah pesawat tak berawak yang juga dibuat oleh perusahaan itu.

Pesawat tak berawak itu bisa bertindak sebagai mata-mata di langit atau sebagai amunisi penggunaan sekali pakai sendiri, berubah menjadi gerombolan yang bisa menguasai musuh. 4 Tempest yang bekerja sama dan meluncurkan pesawat tak berawak mereka akan menghadirkan pemandangan yang begitu hebat sehingga mereka bahkan mungkin tidak menggunakan amunisi mereka, kata insinyur sistem tempur elektronik Damien Cahill.

"Apa reaksi Anda jika ada 320 dari hal-hal ini yang datang pada Anda? Pelestarian diri menjadi sangat penting dan saat Anda berkonsentrasi untuk bertahan dan menghindari pesawat tak berawak, Anda tidak menembaki pasukan kami dan karena itu secara efektif diambil dari pertempuran tanpa menembakkan tembakan. "

Pada saat yang sama firma tersebut menggunakan pembelajaran mesin dan telah mengajukan permohonan dana ke pusat penelitian otonomi terpercaya pemerintah untuk mengembangkan kemampuan otonom untuk melucuti senjata.

CEO Travis Reddy mengatakan sebuah mesin otonom akan mengikuti hukum dan aturan pertunangan yang sama persis seperti seseorang. Mereka tidak akan menyerang sekolah atau rumah sakit misalnya, katanya.

Tujuan otonomi adalah memastikan mesin bisa melakukan niat komandan militer di medan perang yang bergeser. Itu berarti mesin harus bisa membuat keputusan sendiri saat berada di luar sana.

"Jika mesin menjalankan jalur yang sepenuhnya diprogram, itu akan mengakibatkan kegagalan misi karena medan perangnya dinamis dan situasinya berubah," kata Reddy. "Ini tentang bagaimana kita mengambil parameter yang mengubah dan mengeksekusi komandan tanpa melanggar peraturan pertunangan?"

Tapi seberapa jauh kita membiarkan pengambilan keputusan independen itu berjalan? Apakah termasuk pembunuhan tanpa keterlibatan manusia? Tidak pernah, kata Reddy.

"Kami tidak pernah meramalkan situasi di mana mesin harus dapat mengidentifikasi target dan memulai kontak tanpa melibatkan orang lain. Ini adalah pandangan DefendTex," katanya.

Tapi ada cara mesin otonom bisa lebih terlibat dalam mencari target.Reddy menjelaskan bahwa ada penyesuaian terhadap "manusia dalam loop" yang sering digunakan frase - variasi yang dikenal sebagai "manusia pada loop".

Ini berarti bahwa alih-alih memiliki pesawat tak berawak seperti Predator yang sepenuhnya dikendalikan manusia dan membawa sekelompok kecil orang, Anda mungkin memiliki dahan yang sangat independen yang hanya boleh diserahkan kepada manusia untuk izin sebelum menembaki. Ini dapat memilih targetnya sendiri, sekali lagi berdasarkan peraturan pertunangan dan semua undang-undang yang relevan. Itu berarti satu orang bisa mengawasi beberapa pesawat tak berawak daripada membutuhkan beberapa orang per pesawat tak berawak.

DefendTex saat ini tidak melakukan pekerjaan seperti ini. Reddy mengakui bahwa "tidak dapat disangkal bahwa penggunaan otonomi, jika dilakukan dengan buruk, memiliki kemampuan untuk mengemukakan kekhawatiran", oleh karena itulah perusahaan tersebut "melakukan flipside".

"Mari kita lihat keuntungan dari otonomi untuk mengurangi dan meniadakan kerusakan jaminan daripada menemukan target baru. Kita dapat membuat platform ini lebih etis."

Yang paling jelas itu berarti senjata otonom seperti pesawat tak berawak mini yang memutuskan pada saat terakhir untuk tidak mogok.

Bahkan amunisi dengan presisi dipandu, begitu dipecat, umumnya akan meledak sesuai target mereka. Tapi bagaimana jika seorang anak masuk ke dalam bingkai pada saat terakhir atau, pada pemeriksaan ketat, target yang tampaknya benar ternyata menjadi sesuatu yang sama sekali tidak bersalah?

Gagasan tentang "otonomi tepercaya" berjalan 2 arah, tambahnya. Komandan medan perang yang kelelahan yang sudah terjaga selama 36 jam dapat secara tidak sengaja melakukan pemogokan dengan sasaran yang salah. Mesin otonom bisa memutuskan untuk tidak mempercayai manusia dan bisa mengabaikan, atau setidaknya mempertanyakan, perintah.

Apakah itu semua lereng yang licin? Reddy mengatakan bahwa pada akhirnya sampai ke militer bagaimana menggunakan otonomi, namun jika dapat menggunakan kekuatan lebih diskriminatif dan tepat, perlu mengambil langkah untuk menyerahkan tanggung jawab lebih besar kepada mesin.

"Kami pastikan hanya kombatan yang bertunangan," katanya."Kehidupan dan kebebasan dilindungi. Menurut pandangan kami, kelebihan tersebut jauh lebih besar daripada kerugiannya."

'Tidak ada keraguan moral terhadap pembunuhan manusia'

Banyak peneliti lebih pesimistis. Ratusan dari Kanada dan Australia menulis surat kepada perdana menteri Justin Trudeau dan Malcolm Turnbull minggu lalu, menyerukan larangan internasional untuk "AI yang digerakkan senjata".

"Sistem senjata otonom akan menjadi senjata teror yang sempurna karena mereka tidak memiliki keraguan moral untuk membunuh manusia," kata profesor UNSW Toby Walsh kepada Fairfax Media.

Walsh khawatir kemajuan teknologi swarm robot bisa menyebabkan senjata pemusnah massal."Mereka akan mengizinkan kita untuk melakukan perang skala besar dengan cara yang tidak pernah bisa kita lakukan," katanya.

Petisi tersebut, menjelang perundingan resmi PBB pertama mengenai kemungkinan larangan, menentang mesin yang melakukan "kontrol manusia yang berarti".

Inggris telah menetapkan "operasi sistem senjata akan selalu berada di bawah kendali manusia".AS telah mengatakan bahwa manusia akan selalu "dalam lingkaran" untuk membuat keputusan akhir.

Mayor Jenderal Kathryn Toohey, kapten kapabilitas tentara, mengatakan bahwa setiap sistem otonom yang digunakan oleh ADF akan mengikuti peraturan konflik bersenjata dan menambahkan bahwa "pemerintah sudah cukup jelas bahwa kita akan selalu memiliki manusia dalam lingkaran ketika datang untuk bersenjata UAV [kendaraan udara tak berawak] ".

Dia mengatakan tentara sedang mengembangkan strategi sistem robotika dan otonom selama 12 bulan ke depan.

Ed Husic, juru bicara Buruh federal mengenai ekonomi digital dan masa depan pekerjaan, mengatakan beberapa pemerintah di seluruh dunia cukup memikirkan dampak AI atau tentang "pengaturan batas" dan di mana zona "tidak-pergi" seharusnya.

"Penginjil AI akan membenci pembicaraan semacam ini tapi kenyataannya adalah ini: kita perlu memastikan teknolog tetap menjadi alat untuk kebaikan dan alat yang selalu kita kendalikan."

Dengan tidak adanya kepemimpinan global, Australia harus mempromosikan lebih banyak pemikiran mengenai hal tersebut, katanya.

Sementara riset Pertahanan Australia lainnya mengeksplorasi skenario dimana mesin bisa membentuk "pikiran" mereka sendiri.

Satu studi 2017, "Integrasi Mesin Manusia, Dukungan Hukum & amp; Etika", memiliki tujuan untuk "mengidentifikasi kualitas yang dibutuhkan untuk sistem yang sepenuhnya atau sebagian otonom untuk dipercaya oleh para pemangku kepentingan untuk membuat atau merekomendasikan keputusan hidup / mati" .

Masalah Kereta

Dengan kata lain, carilah serangkaian aturan moral yang bisa diprogram menjadi robot yang mematikan.

Untuk melakukannya, militer memutar eksperimen pemikiran filosofis berusia 50 tahun.

Colin Wastell, seorang peneliti Macquarie University yang mengkhususkan diri dalam pengambilan keputusan, telah mendekati proyek ADF dengan mengutak-atik Masalah Trolley klasik.

Orang asli bertanya kepada orang-orang apakah mereka akan menarik tuas, mengalihkan troli, atau trem, dari satu jalur yang bisa menghancurkan lima orang sampai mati ke kematian orang lain, di mana hanya satu orang yang akan meninggal.Versi lain bertanya apakah akan diizinkan untuk mendorong ke trek seorang pria gemuk yang tubuhnya akan macet roda dan cadangan yang lain.

Dalam versi Wastell, kereta otonom dapat membawa bantuan dalam misi berbahaya ke kota yang dilanda bencana alam. Tapi kereta api kemungkinan akan membunuh orang-orang terlantar yang melintasi jalur. Jika 10 orang diperkirakan akan dibunuh, berapa banyak nyawa yang dibutuhkan bantuan untuk membenarkan misi tersebut?

Sebelum mengajukan skenario kepada personil militer, Wastell mengajukan pertanyaan ini kepada 80 sampai 100 mahasiswa dari berbagai usia dan dari berbagai bidang studi.

"Itu mengejutkan," katanya tentang data tanggapan.

Jawaban berkisar dari satu kehidupan yang disimpan sampai 20 juta. Tidak ada bedanya apakah orang-orang yang terbunuh di jalur adalah wanita atau anak-anak.

"Kami benar-benar tidak mendapat panduan mengenai jumlah apa yang harus kami tetapkan untuk membuat keputusan," kata Wastell.

Bahkan jika sebuah konsensus muncul dari eksperimen dengan anggota pasukan pertahanan, apakah itu cukup?

Rob Sparrow, seorang profesor filsafat di Monash University, mengatakan bahwa tidak ada cara untuk mendekati etika. "Jika Anda menghadapi dilema moral, Anda tidak dapat melarikan diri dengan hanya bertanya-tanya, mengambil sedikit jajak pendapat di antara teman Anda," katanya.

Sparrow berpendapat bahwa bahkan jika mesin menyebabkan kematian lebih sedikit secara keseluruhan, penggunaannya tetap tidak dapat dibenarkan, karena hanya melawan perang melampaui jumlah korban.

"Mengirim robot untuk membunuh seseorang mengungkapkan rasa tidak hormat yang mendalam terhadap mereka," kata Sparrow.

Dengan teknologi militer reguler, instruksi untuk menembak dapat ditelusuri kembali ke individu. Dengan mesin pintar, menjadi sulit untuk membagi kesalahan saat terjadi kesalahan.

Jika sebuah mesin menjadi bajingan atau hanya membuat kesalahan dan membunuh orang yang tidak bersalah, salah siapa itu?Komandan medan perang, programmer perangkat lunak, pabrikan? Ini adalah pertanyaan hukum yang berduri bagi pemerintah yang berlaku untuk mobil pengemudi sendiri sama seperti pesawat tak berawak militer.

Yang lainnya khawatir para pemimpin akan lebih cenderung berperang jika mereka tidak perlu mengirim pasukan dan kemudian melihat peti mati dibongkar di pangkalan udara.

Atau mesin bisa jatuh ke tangan yang salah. Greg Rowlands, seorang letnan kolonel dan manajer proyek di tentara, yakin bahwa hacking mungkin merupakan "mimpi buruk keamanan".

"Pesawat tak berawak ADF yang dilengkapi dengan rudal bisa 'dipaksa' untuk menggunakan senjata tersebut melawan elemen kekuatan ADF yang mewujudkan suatu bentuk pembunuhan saudara yang otonom," tulis Rowlands di blog Pertahanan.

Dari drone ke Skynet

Istilah "robot pembunuh" membawa ke pikiran humanoid hellbent dengan mata merah, seperti teknologi Skynet dari film Terminator .

Tapi banyak peneliti mengatakan bahwa kecerdasan mirip manusia sudah beberapa dekade berlalu, setidaknya.

"Untuk kredit militer, mereka memiliki pandangan yang sangat realistis tentang apa yang dapat dicapai," kata Jai ​​Galliott, seorang analis pertahanan dan ahli etika di UNSW.

Galliott percaya lebih mengkhawatirkan adalah mobil tanpa sopir, sudah mengajukan masalah troli versi mereka sendiri. Dan salah satu suara paling menonjol melawan "robot pembunuh", Elon Musk, juga merupakan kepala pelopor mobil tanpa sopir Tesla.

'Penjahat pembunuh AI', pakar robotika memberitahu Malcolm Turnbull

Galliott mengemukakan bahwa hype seputar senjata otonom mungkin "sangat seluk beluk pada korporasi bernilai miliaran dolar" seperti Tesla.

"Keyakinan saya adalah bahwa AI Elon Musk yang memasukkan mobil Tesla-nya saat ini mungkin akan membunuh lebih banyak orang daripada robot tipe 'pembunuh robot' masa depan."



Comments

Popular Posts