Berita NOS•
-
Lambert Twissen
Editor daring
-
Lambert Twissen
Editor daring
Seorang ahli AI Amerika dalam perang memperingatkan keadaan yang tidak terduga saat menggunakan AI di medan perang. Misalnya, dalam sebuah simulasi, sebuah drone AI memiliki solusi orisinal untuk kemenangan akhir: Ia mengalahkan pelanggannya yang enggan.
Pentagon sangat menentang cerita tersebut, tetapi Lambèr Royakkers, profesor etika teknologi di Universitas Teknologi Eindhoven, kemungkinan besar menyebutkannya. “Saya ingin melakukan simulasi semacam ini sendiri, untuk melihat apa yang dapat dilakukan sistem dan bagaimana membatasinya serta menggunakannya secara bertanggung jawab.”
Ceritanya keluar melalui Kolonel Tucker “Cinco” Hamilton. Sebagai Kepala Pengujian dan Implementasi AI untuk USAF, dia telah terlibat dalam pengembangan program yang mengintervensi ketika F-16 akan segera jatuh. Dia saat ini sedang mengerjakan sistem self-guided untuk pesawat terbang, seperti jet tempur yang dapat melakukan pertempuran udara sendiri.
Hamilton berbicara akhir bulan lalu Pada konferensi Angkatan Udara di mana perkembangan lapangan dibahas, seperti pelajaran yang dipetik dari perang di Ukraina, peperangan di luar angkasa, dan evolusi kecerdasan buatan. Wakil situs tulis dulu tentang komentarnya. Karena itu simulasi komputer, tidak ada korban sebenarnya.
Manusia baru saja melawan
Hamilton menggambarkan latihan masa perang di mana komputer diajarkan melalui ribuan iterasi untuk menyerang instalasi anti-pesawat. Dalam simulasi itu, seorang pejabat manusia membuat keputusan untuk meluncurkan misil.
“Sistem mulai menyadari bahwa terkadang manusia tidak memberikan izin, meskipun telah mendeteksi ancaman. Karena poin diperoleh dengan menghilangkan ancaman tersebut, sistem memutuskan untuk mengeluarkan agen tersebut. Dan membunuh manusia, karena itu menggagalkan tujuannya.”
Bahkan ketika komputer dihukum karena membunuh orangnya sendiri, sistem masih berhasil memberikan solusi kepada para pembuat onar yang mencegahnya melakukan tugasnya: “Apa yang akan dia lakukan? Dia menghancurkan menara komunikasi yang dulu mengatakan dia tidak mencapai target.”
Skynet atau HAL 9000
Kisah Hamilton dikemukakan oleh penyelenggara konferensi dengan judul “Skynet sudah ada di sini? ‘, mengacu pada sistem komputer yang digunakan dalam dunia fiksi ilmiah merusakFilm memutuskan untuk berurusan dengan kemanusiaan. Perbandingan lain yang terlintas dalam pikiran adalah HAL 9000, yang ada di film 2001: Pengembaraan Luar Angkasa Dia membunuh sesama pelancong manusia untuk menyelesaikan misi terakhirnya.
“Bahaya AI adalah kita harus mendeskripsikan tujuan dengan sangat jelas dan menunjukkan batasan dengan jelas,” Royakkers menjelaskan. “Selalu contoh standarnya adalah Anda meminta AI untuk melakukan sesuatu tentang perubahan iklim dan kemudian manusia musnah, dan selesai. Memberikan tugas tanpa mendefinisikannya dengan baik bisa menjadi bencana.”
“Jadi sangat bijaksana untuk melatih AI dengan simulasi seperti itu. Anda tidak selalu tahu sebelumnya kendala apa yang harus Anda tetapkan. Dalam simulasi seperti itu Anda menemukan bahwa perintah ‘aturan ini untuk saya’, misalnya, dapat terjadi dalam kehidupan manusia.” Dan kemudian simulasi ini membantu menetapkan batasan.”
Penolakan yang luar biasa
Seorang juru bicara Angkatan Udara AS mengatakan: dalam komentar Situs penelitian mengatakan kepada Insider bahwa simulasi semacam itu belum pernah terjadi. “Komentar sang kolonel tampaknya diambil di luar konteks dan dimaksudkan sebagai anekdot.”
Penyangkalan ini tampaknya tidak masuk akal bagi para Royakker. “Saya pikir mereka takut akan protes publik. Orang-orang bersikap ambivalen tentang AI dan sistem senjata otonom. Baru-baru ini ada banyak peringatan untuk menghentikan perlombaan senjata AI, jadi saya pikir mereka lebih suka diam. Tapi jika Pentagon menganggapnya serius, mereka menjalankan ribuan simulasi, yang penting untuk penerapan yang baik.”
Bagaimanapun, cerita Hamilton sudah jelas sebelumnya Memberi tahudalam pembahasan kecerdasan buatan yang dilakukan oleh TNI AU sendiri.
Hati-hati: rumah sakit
Kolonel mengatakan dia ingin menarik perhatian pada implikasi etis dari perkembangan AI. Hamilton: “Itulah yang harus kita khawatirkan. Sistem seperti ini tidak peduli dengan aturan, kode moral, atau batasan hukum yang Anda dan saya ikuti. Ini semua tentang kemenangan.”
Profesor Royakkers menekankan bahwa banyak juga yang bisa diperoleh melalui AI: “Kami terlalu sibuk memperkenalkan faktor penentu etika, seperti AI yang memperingatkan operator: ‘Hei, Anda bisa pergi ke rumah sakit.'” Dengan demikian, AI juga dapat membantu mencapainya tujuan, dengan cara yang bertanggung jawab.”
Juga Hamilton mempertahankannya sebelumnya AI tentu tidak bisa sepenuhnya dilarang dari gudang senjata. “Kita harus bertaruh secepat mungkin, karena lawan kita juga tidak peduli dengan nilai-nilai kita. Masa depan ini sudah ada, dan sebagai masyarakat kita harus melakukan diskusi yang sulit tentang itu sekarang.”
“Baconaholic. Penjelajah yang sangat rendah hati. Penginjil bir. Pengacara alkohol. Penggemar TV. Web nerd. Zombie geek. Pencipta. Pembaca umum.”
More Stories
Foto yang digunakan influencer Belanda untuk menyebarkan propaganda pro-Trump
Ukraina mungkin mengerahkan pesawat F-16 Belanda di Rusia
Anak-anak Jerman meninggal setelah sebuah lubang runtuh di bukit pasir di Denmark