[圖文]美國科學家研製會騙人的機器人 | 陽光歷史

 

A-A+

[圖文]美國科學家研製會騙人的機器人

2015年09月28日 科學探秘-短篇 暫無評論 閱讀 149 次

美科學家研製會騙人的機器人(圖)
 

  佐治亞州理工學院攝政董事教授艾金(左)和研究工程師瓦格納(右)旁觀兩個機器人的「躲貓貓」實驗。黑色機器人成功騙倒紅色機器人,誤認為自己藏在左手側,而實際上,它卻躲藏在右手側。


  據國外媒體報道,美國科學家研製出「會騙人」的機器人,不僅懂得如何欺騙人類同時還能夠將自己隱藏起來躲避敵人,如此厲害的高智商不免讓人聯想到斯坦利·庫布裡克拍攝的熱門影片《2001太空漫遊》中的機器人。


  美國佐治亞州理工學院研究人員進行的一項實驗據信是世界上第一項有關機器人「騙術」的詳細測試。這支研究小組創建的算法能夠讓機器人決定是否欺騙人類或者另一個機器人,同時還能讓機器人找到在最大程度上讓自己不被發現的策略。


  這項「進步」可能讓一些原本就對機器人持不信任態度的人更為擔憂,在他們看來,機器人在實際生活和工作中可能也會變成騙子,與人類公事時無法保證安全性。但研究人員表示,具有欺騙能力的機器人擁有很大的未來發展前景,尤其是在軍事領域。在戰場上,成功將自己隱藏並誤導敵人的這種欺騙能力能夠確保自身以及重要信息的安全性。


  研究論文聯合執筆人、佐治亞州技術研究院研究工程師艾倫·瓦格納表示:「絕大多數社交機器人將極少使用欺騙手段,但在機器人的互動『軍火庫』中,這仍舊是一個重要工具,原因就在於認識到有欺騙必要的機器人與其他機器人相比擁有優勢,這種優勢就體現在結果上。」此外,搜救機器人可能也需要欺騙人類,以便讓搜救對像平靜下來或者取得恐慌的被搜救者的合作。研究發現刊登在《國際社交機器人技術雜誌》上。


  為了讓機器人懂得將自己隱藏起來以躲避其他同類,佐治亞州理工學院的研究人員開發了一系列程序,最終讓機器人成功上演欺騙行為。首先,他們教會騙人機器人如何辨別眼前的形勢以決定是否採用欺騙手段。瓦格納和同事羅納德·艾金利用相互依存理論和博弈論開發算法,以測試特殊情況下實施騙術的價值。


  允許實施騙術的情形必須滿足兩大條件:首先,騙人機器人與搜尋者之間必須存在衝突。其次,騙人機器人必須能夠從欺騙行為中獲益。一旦確定眼前形勢可以實施騙術,機器人便會製造出一個假的運動軌跡進行欺騙。令人感到吃驚的是,騙人機器人甚至能夠根據對它們設法欺騙的機器人的瞭解程度,調整自己的騙術以達到最佳欺騙效果。


  為了測試他們的算法,研究人員在兩個自治機器人之間進行了20次「捉迷藏」實驗。他們在通向機器人躲藏位置的3條潛在線路上放置彩色直立標記。躲藏機器人隨機從3個躲藏位置中挑選一個並且移動到這個位置,沿途撞倒彩色標記。一旦穿過一個標記,機器人便會改變線路並躲藏在另外兩個位置中的一個。直立標記的存在與否暗示搜尋機器人躲藏機器人的位置。


  瓦格納解釋說:「躲藏機器人通過撞倒標記製造假的移動軌跡,進而將搜尋機器人引向假躲藏位置。例如,從標記的指示來看,它去了右邊,而實際上卻去了左邊。」在「捉迷藏」實驗中,躲藏機器人成功騙到搜尋機器人的概率高達75%,在失敗的實驗中,躲藏機器人因未能撞倒為騙過搜尋機器人而必須撞倒的標記,最終被後者逮到。


  瓦格納說:「雖然並不完美,但實驗結果仍舊證明機器人能夠在嘈雜環境下學會並利用騙術。這些結果初步表明論文中描述的技術與算法能夠讓機器人成功實施欺騙。」研究人員表示,他們也意識到教會機器人如何欺騙同類和人類將引發「倫理問題」。


  科幻影片中的騙人機器人


  最著名的騙人機器人可能當屬《2001太空漫遊》中的Hal。這部影片改編自亞瑟·克拉克的暢銷科幻小說,故事圍繞一艘由高智能電腦Hal操控的太空飛船上的船員展開。由於Hal出現故障,船員們試圖將其關閉。隨後,陷入故障的Hal開始殺害船員並控制整艘飛船。由於倖存的船員成功將其關閉,Hal最終放下屠刀。隨著逐漸喪失「意識」,Hal將有關他們神秘任務的真相告訴了船員。


  《機械公敵》是另一部有關機器人造反的影片,改編自艾薩克·阿西莫夫的短篇小說集。片中,一個機器人首次有了「自我意識」並造成災難性後果。





給我留言