剛剛!澳洲宣佈砸9千萬,發明AI“殺人”機器,全世界為之驚恐...

綠葉青草2019-03-09 02:43:59

綠葉青草



當人工智出現時,人們對它懷有巨大的期望,


最初的夢想不過是碗筷不用自己洗、家務不用自己做,


甚至可以讓其幫忙寫作業。


人工智能頓時成為了人們的夢想完成機,


然而,人們常為夢想而鬥爭,往往噩夢經常破壞好夢,


這便是夢想照進現實的真實寫照。



逐漸地,人們在人工智能上的噩夢呈現了出來,


就在這幾天,它離我們的生活越來越近,


那些不安的夢想被影射到了人工智能上,那便是——


戰爭。



澳大利亞開啟智能軍火大門


“功夫再高,也怕菜刀”,


這是人們心知肚明的常識,


即便“菜刀”是維護世界和平的中堅力量。


但倘若人工智能扛起了菜刀,


人類還能撐多久呢?


一向看起來熱愛和平從不惹事的澳大利亞,


最近,開始搞事情了…


Dailymail:澳大利亞國防軍投資900萬美元用於研究“殺手機器人”。為確保人工智能武器具有道德標準,它不會對兒童開火。


就在剛剛,《DailyMail(每日郵報)》揭露了澳洲一項“蓄謀已久”的投資研究,


這個被海水圍繞的溫暖島國,


終於展示出了自己的野心。


據報道,


澳大利亞軍方及國防部正在投資900萬美元用於


研究機器人武器及道德系統


圖片:一架無人機在美國接受測試


這項計劃為期六年的項目,


就在2月28日(昨天)與昆士蘭大學和新南威爾士大學開始,


無人駕駛飛機和自動炮等自主武器是這次研究的重點,


另外,澳洲方面表示,


會在武器上安排“道德底線”,


使武器不會攻擊兒童。


是的,據澳洲方面的意思,機器人會有自己的思想且


”僅僅“不會攻擊兒童。


圖片來源:網絡


人工智能軍備已在澳洲打響第一槍,


許多人心知肚明,這一個”武器盲區“一旦被打開後,


隨之而來的,是源源不斷的效仿與更深入的研究。


誰也不能肯定,在人工智能武器真正成熟的那一天,


人類自己將會遭遇怎樣的命運。


無人機掛炮模型


人工智能+“菜刀”究竟能恐怖到什麼地步呢?


我們來看一次專為人工智能打造的軍火演習。


據新南威爾士大學的首席研究員Jai Galliott博士表示,


本次澳洲投入大手筆研究人工智能軍火,


主要是效仿俄羅斯的軍火裝備。


此前研究出的人工智能“殺人武器”


而此前,俄羅斯軍方便針對人工智能軍火進行了一次實戰演習,


它的威力,甚至讓久經風霜的老兵都歎為觀止…


首先出場的,是一臺人工智能炮車。


人們在之前輸入了程序,好讓智能炮車能完美找到堡壘的爆破突破口,


好完成一擊必殺。



智能炮車的表現非常搶眼,


“一桿進洞”,非但精準地找到了突破口,還完美地控制了發射距離,


堅實的堡壘在它的面前顯得不堪一擊。


接下來看看真正的“全自動”機槍,


它在本次演習中的角色是“清道夫”,


負責殲滅堡壘中的所有敵人。


人工智能機槍


找準敵人走位、精確射擊範圍、控制射擊距離,


都是它需要”考慮“的重點。


而讓人毛骨悚然的是,


如果站在堡壘內的是人類部隊,


那麼,這將是一次徹頭徹尾的慘敗。



即便在高空,人工智能對移動目標的定位也令人稱絕,


它可以死死鎖定住目標,一分一毫都不放過,


當你進入它的捕捉範圍後,


便插翅難逃。



再來看看“智能陸戰隊”的表現,


顯示在夜視鏡中鎖定了敵方目標,


在敵人毫無察覺的情況下,


一擊必殺!



Dailymail表示,


目前對自主智能武器的呼籲方向並不樂觀,


聯合國呼籲禁止自主智能武器,


擔心在不久的將來,它們會導致大規模殺傷,


並可能被恐怖分子所利用。



然而,對於這些憂慮,


新南威爾士大學的首席研究員Jai Galliott博士明顯不這麼認為,


他居然告訴我們,


上面那些隨時可以要你命的玩意,


是為了“保護”,而不是“傷害”。



專家:智能軍火不會失控


首先,我們需要明確一個名詞——


機器人武器革命。


什麼是機器人武器革命呢?


它又被稱為熱武器第三次革命,


這意味著人工智能能夠在沒有人類輸入指令的情況下,


自主選擇和攻擊目標並實施擊殺。



這意味著什麼呢?


這意味著如果它突然有了個性,直視無辜人群為“不爽”,


災難就降臨了。



然而,據Jai Galliott博士表示,


他們研究智能軍火的目的是讓軍火更加“完美”,


而並非有目的的“傷害”,


人工智能,將在最大範圍內被控制,


不會失控。


圖:美國軍艦USS Idaho上的槍支

澳大利亞海軍也已經在驅逐艦上使用自動武器和槍支,自動探測敵人和火力。


Jai Galliott博士表示,他最擔心的是人們的“負面炒作”,


此次新南威爾士大學和昆士蘭大學“聯名”的智能軍火,


其實是“挽救生命的技術”。


WTF?你管這種保不齊向自己人開火的炮管叫“挽救生命的技術”?


圖片:俄羅斯人工智能導彈


Galliott說,


“有些人害怕智能武器,因為他們設想了在城市環境中部署機器人的終結者類型的場景,但事實遠非如此。” 


他表示,


實際上,我們目前所見到的智能系統,比如無人機和自動槍械,


都是在非常有限的情況下才會採取行動,


他們目前對人們而言,是安全的。



“他們沒有部署在城市地區,決定何時何地殺人。”


但正如圖片中所示,若人工智能真的成熟起來,


他們也是有自己的輪子的,


人們應該害怕它們會“離家出走”。


對於智能武器的“道德倫理”問題,


Galliott則表示,研究人員已經對它們進行了一系列教育,


保證把它們訓練地比寵物還乖…



此次研究中,智能武器將會被冠以人類士兵們的“思想”,


遵循人類士兵面對開火的道德決策,


採取人類可能採取的行動。


譬如,


當它識別出“紅十字”標誌時便不會發動攻擊,


確保自己不會誤傷醫院和紅十字會。


同時,也包括不會傷害兒童、老人和無辜的人民。



正因如此,Galliot博士說,


這次研究智能軍火的目的是儘可能拯救無辜的生命,


用人工智能機器人來避免

不必要的事故和死亡。


這波論述老編是服的,


不得不說這是一波教科書版的“避重就輕”的操作。



據報道,


五年來,Galliot博士一直在說服聯邦政府為智能武器提供資金,


而今年,他終於圓夢,


得到了政府900萬美元資助研究武器系統。


Galliot博士認為這是西方“機器人道德系統”設計中投入最多的一次,


這個為期六年的設計項目將花費國防部供7.3億美元的資金,


用於開發未來的智能,空間和自動化技術。 



目前,不止是澳大利亞,全世界似乎都在利用人工智能技術製造“殺人武器”,


就在去年8月,


委內瑞拉總統馬杜羅就曾在人工智能武器下死裡逃生,


這一幕至今讓人冷汗直流。


“你所創造的最終將殺死你”


2018年8月,


委內瑞拉總統馬杜羅在某會場進行演講之時,


一架載著C4炸藥無人機掩人耳目地潛入會場,


並引發了令人驚恐的爆炸。



現場的人們,包括後排的人類軍隊都倉皇而逃,


現場似乎還發現了兩隻落單的鞋子。


現場視頻


這架小型的無人飛機刺客讓人不得不聯想起


在2017年11月份日內瓦舉辦的聯合國特定常規武器公約會議上,


那架將子彈精準攝入模特“頭骨”中的


“蜜蜂殺手”。



這架無人飛機傳說是由資深AI研究者Stuart Russell研發的,


同時,他還在Youtube公開了一段“成果展”。


視頻中,多架殺人飛機潛入了一所大學的課堂,


將在座的師生殺了個片甲不留。



在11月份的會議上,


他親自將這個“小玩意”帶至現場,


向人們展示人工智能武器的威力。



它的大小宛如一隻馬蜂,


但是,在它嬌小的體內,卻暗藏著一款新型人工智能處理器,


它的處理速度是人腦的100倍,


甚至可以毫無壓力地躲避人類的各種追蹤。



在它的身上,裝有廣角攝像頭、傳感器、面部識別,應有盡有。


只要把目標圖像信息輸入它身上,它就能精準找到攻擊目標,


比iphone臉部識別還準!


戴口罩、偽裝統統沒用,它的識別率高達99.99!



每一款這種“殺人機器人”上都配有3克濃縮炸藥,


在鎖定目標之後,它會直衝向人類的大腦,巨大的破壞力足 以讓人的大腦整個被摧毀,


沒有一絲剩餘…


而且它還能穿透建築物、汽車、火車,躲避人類子彈,


應對幾乎所有防禦手段。



在實驗模特頭部被精準擊中的那一刻,


人們鴉雀無聲,說不清心中升起的究竟是震驚還是恐懼,


要知道,


這種殺人機器都是成群出沒的,有如一個殺人蜂群,全體出動、鎖定目標、殺死目標…


試想,如果人工智能殺手這種技術一旦廣泛運用,就會把戰爭衝突升級至前所未有的規模,


而且人類將很難控制住局面。



試想,


如果有科學家因為私心在代碼裡面加了一行毀滅人類的指令,


或者人工智能突然變異成反人類的品種,整個人類或將被機器人橫掃,


甚至滅亡!



正因如此,澳大利亞此次所研發“人工智能武器”的爭議性


毫不亞於之前的”轉基因嬰兒“,


許多國際大型科技企業也表示,


自己不會觸碰人工智能武器的雷池,


從而堅守人工智能的底線。


人工智能武器研發引業界爭論


據《環球時報》報道,


人工智能武器已經成為人工智能領域最具爭議性的話題。



據報道,


近日以馬斯克和DeepMind的三位聯合創始人為首的科技界高層組成的聯盟


近期簽署了一份承諾書,


內容是他們所屬的公司在未來將不會研發擁有AI的智能武器。


簽署者主要擔心若開發致命型的殺人武器,會對人類產生威脅,


因此互相共同承諾既不參與創造,


也不支持致命性自主武器技術的開發。


此前韓國軍用AI展示


承諾中警告:在人類使用人工智能武器“選擇和接觸”目標時,


如果決定射擊目標前沒有人為干預,那麼最終結果將會導致道德淪喪,


更嚴重的結果將會對現實生活產生危害。


“從道義上講,不應該把結束人類生命的決定委託給機器。而實際來看,如果此類武器在未來得到擴散,那麼最終的結果將危及每個國家甚至牽連到每個人的生命安全”。


這是所有簽署人對人工智能的懼怕。



有專家表示,如果研發成功,自主武器會加速戰爭開打,規模也會比過去更大,


成為恐攻武器。


麻省理工學院物理學教授泰格馬克在一份聲明中說,


“AI武器就像生化武器一樣令人厭惡和讓人感到不安,AI武器應該像對待生化武器一樣處理。”


他認為,人命不應該交由機器決定,同時呼籲各國政府和領導人,


應建立國際法規予以控管。



然而,據《環球時報》報道,


現在已經沒有了足夠的“能力”來推動國際間的自動化武器管制,


也沒有任何一個西方國家的核心集團願意參與進來,


故“國際法律予以控管”的影響力微乎其微,


人類目前無法約束人工智能武器的大力發展。




在戰場上早期採用類似於AI的策略,投入此類技術的國家數量之多,


以及展示其潛力的現有武器系統,所有這些似乎都表明人工智能武器將是


非常有效的戰爭工具。



目前,澳洲也斥資鉅款用於研究人工智能武器的侵略性和道德性,


可能在5~6年後,


屬於澳洲的人工智能武器


也將在人們的不安中誕生。



如今,對於人工智能的不安從“就業”過渡到了“武器”,


人工智能從“搶飯碗”過渡到了“要命”,


人類將怎樣把控這個被人類自己設計出來的“福音”呢?


在法律還尚未完備的階段,


只有依靠道德、判斷力和自我制約了。


來源:DailyMail 環球時報 科普中國


點擊閱讀:一場聲勢浩大的永別——讀完我淚流滿面


順手放入朋友圈,沒準您的朋友就需要!


長按 識別圖中二維碼

打賞 鼓勵

https://weiwenku.net/d/110007019