在美國有線電視新聞網 (CNN) 最近的一次有趣采訪中,前總統(tǒng)巴拉克·奧巴馬被問及人工智能的未來,以及隨著人工智能技術的爆炸式增長以及許多人考慮其影響而主導討論的各種哲學、技術和倫理變量。在明確強調人工智能繼續(xù)為世界帶來顛覆性創(chuàng)新的同時,他用簡潔的語言總結了人工智能應用中可能最重要的復雜性或挑戰(zhàn)……“機器可以”我感到高興,”他告訴美國有線電視新聞網。
奧巴馬在描述人工智能新應用的出現和迅速到來如何繼續(xù)迅速改變事物時說這番話,帶來了看似無限的新希望,同時也帶來了挑戰(zhàn)和復雜性。他在與 CNN 的討論中很快贊揚了人工智能的優(yōu)點,但也提到了人工智能的挑戰(zhàn)或局限性,因為人類獨特的屬性,如情感、奉獻和其他更主觀的現象無法用機器來近似。確實如此,雖然國防工業(yè)創(chuàng)新者和空軍研究實驗室等五角大樓重要機構正在探索人工智能以某種方式估計、計算或分析更主觀現象的方法,但顯然存在許多人類認知、直覺、心理細微差別所獨有的變量、道德、意識和情感似乎是數學生成的算法根本無法復制,甚至無法開始真正準確地近似。這就是為什么領先的武器開發(fā)商很快解釋說,任何最佳的前進道路都涉及混合或組合,涉及五角大樓最喜歡的術語……“有人與無人協(xié)作”。
然而,這并不意味著人工智能的優(yōu)點和可能性應該被低估,正如陸軍研究實驗室的高級研究人員解釋的那樣,就人工智能真正能夠實現的目標而言,“我們正處于冰山一角”。這就是為什么五角大樓正在衡量人工智能在非致命防御力量背景下的快速成功和前景。人類決策能力與高速人工智能生成計算的速度和分析能力相結合,已經創(chuàng)造了改變范式的創(chuàng)新。想象一下防御人工智能武器系統(tǒng)可以挽救多少生命?在陸軍融合項目等關鍵的現代戰(zhàn)爭實驗中,人工智能也已經大大縮短了從傳感器到射手的曲線。
這些復雜性是為什么我們繼續(xù)做出如此多的技術努力來提高人工智能生成的分析的“可靠性”,以便通過機器學習和實時分析,機器可以確定上下文并準確地處理可能會出現的新材料。不成為其數據庫的一部分。正如前空軍研究實驗室指揮官希瑟·普林格爾少將向 Warrior 描述的那樣,這是人工智能的前沿新領域。
“當今的人工智能是數據庫密集型的。但未來可以而且應該是什么?我們如何才能將它從僅僅作為一個數據庫升級為可以利用概念和關系、或情感和預測分析的東西?那么,我們人類能做的事情還有很多是人工智能做不到的嗎?我們如何實現這一目標?”空軍研究實驗室前司令希瑟·普林格爾少將在今年早些時候的一次采訪中告訴《勇士》。
“循環(huán)之外的人工智能”可以拯救生命
如果像一群微型無人機爆炸物接近進行攻擊或一波來襲高超音速導彈以五倍音速的速度接近,人類決策者可能無法足夠快地做出反應。事實上,軍事指揮官可能沒有任何機會反擊或確定最佳的防御行動方案。
人類決策者不僅沒有時間權衡威脅變量,而且武器操作員本身也可能不堪重負,無法在收到命令時檢測、跟蹤、交戰(zhàn)或對高速同時攻擊進行開火。只是根本沒有時間。
人在循環(huán)中
人工智能在軍事技術、武器和高速計算領域的出現和迅速成熟,讓許多人提出了一個緊迫且相關的問題……到底多久才能出現能夠自主發(fā)現、跟蹤、瞄準和識別目標的“終結者”型武裝機器人?無需任何人為干預即可摧毀目標?
答案是,在某些方面,技術已經存在……然而,還有許多復雜的概念、技術、哲學和政策變量需要考慮。遠程操作的武裝機器人已經存在,甚至被投入戰(zhàn)爭多年,這意味著武器系統(tǒng)由人類遠程控制,而無需機器對致命武力做出任何決定或決定。這完全符合五角大樓現行和長期的原則,即在做出有關使用致命武力的決定時,必須始終有人參與其中。那么非致命武力呢?鑒于人工智能決策能力、分析和數據組織的快速成熟,這個前沿問題現在受到五角大樓的關注。
從本質上講,一個人工智能系統(tǒng),可以聚合和分析不同的傳入傳感器數據池,是否應該能夠準確辨別致命和非致命力量之間的區(qū)別?人工智能攔截器能否用于無人機防御或立即消滅敵方火箭、無人機、火炮或迫擊炮的方法?
聯合反無人機系統(tǒng)辦公室負責能力和需求的部門主管馬克·E·佩里尼上校在 2021 年的一次電話會議上表示:“目前我們無權讓人員介入。”根據五角大樓去年發(fā)布的一份報告。“根據國防部現有的政策,在決策周期內的某個時刻必須有一個人來授權參與。”
然而,高速、支持人工智能的計算機和傳感器到射擊者的連接,再加上新興威脅的速度和范圍,是否會開始影響這一方程式?也許確實存在一些戰(zhàn)術情況,其中部署能夠在幾秒(甚至幾毫秒)內跟蹤和攔截逼近威脅的自主系統(tǒng)既符合道德又極其有利。
佩里尼在五角大樓的報告中解釋說,現在有一個新興的討論領域,涉及人工智能在多大程度上可以實現“環(huán)內”或“環(huán)外”人類決策,特別是在考慮到無人機群等威脅。
人工智能現在所實現的精確度和分析保真度水平至少在某種程度上激勵五角大樓考慮這個問題。先進的算法,如果加載了必要的數據,并通過機器學習和進行識別所需的分析來支持,現在就能夠處理、解釋和成功分析大量不同的數據。
復雜的算法可以同時分析許多原本互不相關的變量,例如敵方物體的形狀、速度、輪廓及其熱和聲特征。此外,算法現在還可以評估這些與周圍環(huán)境、地理條件、天氣、地形和有關特定威脅與特定射手、攔截器或對抗措施交戰(zhàn)的歷史實例的數據相關的交織變量。支持人工智能的機器越來越能夠以集體方式進行分析,哪種響應可能是最佳的或最適合特定的威脅場景?
支持人工智能的機器能否在幾毫秒內做出這些決定,從而在戰(zhàn)爭中大量挽救生命?一群思想家、武器開發(fā)商和未來學家正在從概念和技術意義上評估這種可能性,探索所謂的武器和自主的“循環(huán)外”可能性。這非常有趣,因為它提出了一個問題:人工智能或自主武器系統(tǒng)是否應該能夠在“非致命”情況下開火、射擊或使用武力。
當然,目前的努力并不是“改變”五角大樓的學說,而是一種探索,因為防御部隊和部署反措施的時間窗口可能會呈指數級縮短,從而在美軍受到攻擊時可以在戰(zhàn)爭中挽救生命。從技術上來說,這種能力至少在某種程度上是存在的,但這并不能解決伴隨這種意外事件而來的某些倫理、戰(zhàn)術和理論問題。
美國人工智能和網絡安全領域的頂尖專家之一、前五角大樓高級專家表示,這些都是復雜、微妙且極其困難的問題。
“我認為這既是一個哲學問題,也是一個技術問題。從技術角度來看,我們絕對可以實現這一目標。從哲學的角度來看,我們對底層機器的信任程度,我認為這仍然可以是一個公開的討論。因此,攔截無人機的防御系統(tǒng),如果它有地對空導彈組件,那么它的失火或錯誤識別仍然是致命的。我認為,如果防御系統(tǒng)有可能失火,我們必須非常謹慎地將其視為非致命系統(tǒng),因為防御系統(tǒng)仍然可能導致死亡。當談到防御應用時,有一個強有力的理由……但我認為我們確實需要看看在我們太過出格之前對這些防御系統(tǒng)采取了哪些行動,”Ross Rustici,
魯斯蒂奇進一步闡述說,在“干擾”或某種非動能對抗措施(如果失火或發(fā)生故障,不會傷害或傷害人)的情況下,使用人工智能和計算機自動化確實要高效得多。然而,在致命武力的情況下,要完全“信任”人工智能機器做出決定,仍然存在許多可靠性問題。
“我希望看到的未來是有更多內置的錯誤處理功能,這樣當傳感器性能下降時,當存在信息可靠性問題時,您就可以作為人類做出決定?,F在存在將被損壞、破壞或不完整的數據提供給習慣于過度依賴這些系統(tǒng)的人的風險。錯誤仍然可以通過這種方式引入到系統(tǒng)中。我認為嘗試這樣做是非常正確的保持人機界面分離,讓人們對技術持懷疑態(tài)度,以確保我們盡最大努力不會發(fā)生錯誤。”Rustic 解釋道。