“一年之內不禁止“殺手機器人”就來不及了”
本篇文章1783字,讀完約4分鐘
tong ibet888【科技在線】隨著人工智能的迅速發展,能夠自主選擇目標進行攻擊的機器人正在迅速實現。 根據新技術,人類有可能放棄決定如何采用致命武力的控制權。 完全自主的武器也被稱為殺手機器人,從科幻作品迅速走向現實世界。
研究者們擔心將來生死攸關的決策會由機器做出,超出人類的控制之外。 除了造成過度傷害、錯誤地將平民作為攻擊目標的風險增加之外,誰也無法承擔說明責任。
機器人缺乏真正的感情,特別是同情心,很多決策都是在這種情況下做出的。 人類可以根據至今為止的經驗和道德想法,對每一種模式進行評價,并做出相應的決策。 但是,這種評估方法幾乎不可能復制到完全自主的武器上,編程的機器無法應對所有場景。
如果把技術放在外交之上,會帶來可怕的、空前的人道主義災難。
自主武器可以在陸地、空中或海上發生行動,可能會天翻地覆地出現在武裝沖突和執法行動的方法上。 支持者說有必要開發殺手機器人。 因為現代軍事行動非常迅速,機器人戰斗可以防止士兵和警察受害。 但是,對人類的威脅可能會越來越多地超過軍事和執法方面的利益。
禁止開發殺手機器人
有人指出,如果人類不再做出攻擊目標的決策,世界將變得非常危險。 考慮到完全自主武器的道德、法律和責任風險,它們的開發、生產和采用現在就需要阻止,不能等待。 解決這一威脅的好方法是對無人駕駛的武器實施國際禁令。
一點國家已經采用類似reaper的無人機在戰區開展任務。 如果在激烈的戰斗中發生了機器人非法殺人的話,那誰應該負責呢? 人權注意組織今年早些時候發表了報告,給出了非常令人不安的回答。 沒有人。
該報告被稱為“殺手機器人缺乏問責機制”。 該組織表示,我們必須改變這種無說明責任的狀況,禁止殺手機器人的開發和采用。
不承擔解釋責任,意味著對今后的犯罪行為沒有威懾,對受害者沒有進行補償,對加害者沒有進行社會譴責,該報告的第一作者、人權注意組織兵種部研究員波尼·斯圖爾特寫道。
包括同情心在內,機器人缺乏真正的感情。 另外,對于他們殺害的人來說,生命有什么價值,沒有生命的機器是無法真正知道的。 讓機器人決定什么時候采用武力,是剝奪人的尊嚴。 國際法主張保護平民和士兵,只有機器在人類控制之下,國際法才能得到執行。
聯合國在日內瓦召開了一周的會議,討論了殺手機器人的問題。 至少20個國家在會議上表示,攻擊目標的選擇應由人類負責。 哈佛大學法學院在此期間發表了相關報告,得到許多人的支持,已經有兩個組織以禁止完全自主的武器為目標。
哈佛大學的報告呼吁人類在科學技術迅速發展的時代也要維護對所有武器系統的控制權,包括選擇攻擊目標、拯救生命和確保遵守國際法的控制權。
機器早就開始作為戰爭的工具了,但在這之前,它們的采用方法是由人類控制的,博尼斯蒂。 如果現在人類放棄這個控制權,把生死攸關的決策交給機器,風險就太大了。
軍備競賽的威脅
有人支持讓機器人去打仗,以免人類在戰場上喪命。 但是去年,1,000多名技術和機器人技術專家包括科學家霍金,特斯拉首席執行官埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克警告說,這種武器可以在幾十年、甚至幾年內開發成功。
在一封公開信中,他們指出,任何軍事強國如果推動自主武器的迅速發展,全球軍備競賽幾乎是不可能的,這一技術軌跡的終點是顯而易見的。 自主武器將是明天的卡拉什尼科夫沖鋒槍。
總部設在倫敦的禁止殺手機器人組織表示,美國、中國、以色列、韓國、俄羅斯、英國等一些國家賦予了戰斗武器更大的自主權。
今年3月,五角大樓高級官員透露了幾個不久前屬于科幻作品的項目,包括可以避開導彈的衛星、自主飛行的f-16戰斗機和機器人海軍艦隊等。
五角大樓無意開發無需人類指揮就能展開殺戮行動的武器,但國防部副部長羅伯特·奧克含蓄地表示,如果在敵人身上開發這樣的武器,情況可能會有所改變。
他說,如果我們的同行競爭對手更愿意將生死大權移交給機器,隨著競爭的展開,我們必須做出有利于我們競爭地位的決定。
奧克在五角大樓的工作之一是確保美軍的技術特點。 在他查明的項目中,空軍隊將f-16戰斗機改造成半自主的無人戰斗機,與載人的f-35噴氣戰斗機一起飛行。
五角大樓的研究人員正在開發裝有照相機和傳感器的小型炸彈,可以提高瞄準能力。 其他項目還包括機器人艦隊和炮彈時速7250公里的電磁軌道炮等。
標題:“一年之內不禁止“殺手機器人”就來不及了”
地址:http://www.cheranmahadevi.com/qdxw/35690.html
免責聲明:青島新聞網是一家綜合的新聞資訊門戶網站,部分內容來自于網絡,不為其真實性負責,只為傳播網絡信息為目的,非商業用途,如有異議請及時聯系btr2031@163.com,青島新聞網將予以刪除。