這種武器還沒有被開發,但聯合國、技術公司都有擔憂。
馬斯克又出來表達對人工智慧的擔憂,這次還有其它 115 位科技公司的創始人。
《衛報》周日報道稱,來自 26 個國家、116 位機器人和人工智慧公司的創始人遞交了一封給聯合國的建議信,希望後者可以禁止所謂“致命性自動化武器(LAWS)”的部署。其中包括特斯拉創始人馬斯克,DeepMind 聯合創始人 Mustafa Suleyman。
這裏的“致命性自動化武器(LAWS)”不是指具體某一種武器。按照其定義,是機器人在沒有人為操作下,自動篩選和攻擊目標。
相比之下,目前軍用無人機很多雖然可以搭載導彈殺人,但它攻擊什麽目標,是否攻擊都由電腦前的人類操控。
在更通俗的說法中,這種武器還會被稱作是殺人機器(killer robot)。
把這封信刊登出來的,是一家被名為“未來人生協會(Future of Life Institute)”的網站。
這封信表達的是這些科技領袖對聯合國發出的預警,本質上是希望能推動聯合國的討論,以便在這種武器尚未被發明創造前就杜絕其使用。
他們認為,這種致命性自動化武器(LAWS)很可能會給人類帶來預估以外的威脅。
致命自動武器有可能成為第三次武器革命。一旦開發成功,它們將把衝突的規模帶到前從未有的大,也會超過人類能認知的速度。它們將成為恐怖的武器,將成為暴君和恐怖分子殘害無辜民眾的武器,或者被黑客挾持用於預期之外的功用。我們沒有足夠的時間行動。一旦潘多拉的盒子被打開,就很難被關上。
116 位機器人、人工智慧公司的創始人提交給聯合國的“預警”信
聯合國從 2014 年 5 月開始討論這種武器,也是在做預防的工作。前聯合國秘書長潘基文稱:“雖然自動武器系統尚未被部署,並且作為軍用技術而言,它們的開發程度尚不清楚,這些問題的討論必須立刻開始,不能等到這種技術被開發和擴散後再討論。”
但有不少人認為,這種武器的誕生已經不遠了。加州大學伯克利分校的機器科學和工程教授 Stuart Russell 認為,所需要的技術基礎現在都已經具備,不需要另外的技術突破,問題在於會有多少資源被投入進去開發。
這次的預警信是針對於聯合國從去年開始籌備的討論,進一步討論對這種武器的禁止。
總的來說,致命性自動化武器(LAWS)被認為可以分為 3 種,一種是需要人類授權射擊開火,也就是說人是攻擊的一環;另一種是機器人可以自己執行攻擊任務,但人類可以否決;最後一種是完全沒有人為的干預,機器自動完成攻擊任務。
不難理解軍隊對殺手機器人的期待:它不會累不會困不會受道德譴責,打完仗也不會因為戰後創傷自殺造成負面影響。
聯合國從去年開始籌備、討論的是,哪幾種武器應該被禁止。他們為此設立了一個政府專家組(GGE),專門用於討論這項武器相關的話題,最終可能是起草一份應對計劃。其中還涉及到一個問題是,不少國家的防禦系統本質上接近於這種自動武器,這也加大了聯合國討論的難度。事實上,聯合國比較成功的一次武器禁令還是在 1995 年。
資料來源:Source
|