傳動網 > 新聞頻道 > 技術前沿 > 資訊詳情

人工智能的“虛假式繁榮”;表面繁榮之下,人工智能的發展已陷入困境

時間:2018-12-13

來源:網絡轉載

導語:過去幾年,人工智能(AI)的火爆似乎掀起了新一波的互聯網技術浪潮,無數技術人轉移陣地、投身其中。但是隨之而來的,是各種有關人工智能和機器學習技術的夸夸其談。可以說,在計算機科學領域中,從來沒有出現過如此眾多且毫不專業的人對某一技術領域如此趨之若鶩——即便對于二十世紀八十年代從事尖端硬件的人來說,這也是匪夷所思的事情。

過去幾年,人工智能(AI)的火爆似乎掀起了新一波的互聯網技術浪潮,無數技術人轉移陣地、投身其中。但是隨之而來的,是各種有關人工智能和機器學習技術的夸夸其談。可以說,在計算機科學領域中,從來沒有出現過如此眾多且毫不專業的人對某一技術領域如此趨之若鶩——即便對于二十世紀八十年代從事尖端硬件的人來說,這也是匪夷所思的事情。

近期,備受矚目的暢銷書作家、《人類簡史》和《未來簡史》的作者尤瓦爾?赫拉利就講述了人工智能將對民主產生的影響。他的言論中充斥著對當前人工智能技術能力的極大信心,他說與Google同宗的DeepMind所開發的國際象棋軟件具有“創造性”、“富有想象力”,甚至擁有“天才本能”。

此外,在英國廣播公司BBC的人工智能紀錄片中,吉姆·阿爾哈利利(JimAl-Khalili)和DeepMind的創始人丹米斯·哈薩比斯(DemisHassabis)講述了人工智能系統如何取得了“真正的發現”,而且還“真的提出了一個新的想法”,然后“憑自己的直覺”開發出了策略。

......

各種層出不窮的言論在使用夸張和擬人的手法來描述蠢笨機械化的系統,不一枚舉。現在,則是時候回頭仔細看看基礎硬件的現實了。

過去30多年,人工智能沒有任何重大進步

人們喜歡通過神話、比喻和借助計算機屏幕等人為形式來討論有關計算機技術,比如“直覺”、“創造力”和神奇的“策略”。AI專家從AI的行為中找出特定的模式并將其稱為“戰略”,但神經網絡并不知道“戰略”是什么。如果真的有“創造力”,那也是DeepMind研究人員的創造力,他們設計、管理和訓練了AI。

今天的AI系統是用大量的自動化試錯訓練出來的,每個階段都需要通過一項稱為反向傳播的技術來反饋錯誤并調整系統,以減少將來的錯誤,從而逐步提高AI在特定任務(如國際象棋)上的表現。

目前可以大幅提升AI(“機器學習”和所謂的“深度學習”)系統效率的方法主要以這種反向傳播技術為基礎,而這項技術發明于二十世紀六十年代,并于二十世紀八十年代中期由GeoffreyHinton應用到神經網絡。

換句話說,在過去30多年中人工智能并沒有任何重大的概念進步——目前我們在人工智能研究和媒體上看到的大部分內容都是通過大量昂貴的計算硬件和復雜的公關活動渲染的一個古老的想法。

這并不是說DeepMind的工作沒有價值。協助開發者生成新策略和想法的機器非常有趣,特別是由于巨大的復雜性導致人們難以理解該機器的操作。在世俗文化中,技術的魔力和神秘非常誘人,而且在枯燥的工程領域出現一些非常神秘的東西是非常受歡迎的。

但遺憾的是,DeepMind的機器里并沒有靈魂。

一位上世紀九十年代的年輕程序員打破了傳統

所有圍繞DeepMind機器大做文章的行為都會讓人想起二十年前,一個非比尋常且意義深厚的“機器學習”系統給技術界所帶來的那種興奮感。

1997年11月,蘇塞克斯大學計算神經科學與機器人中心的研究員阿德里安·湯普森登上了那一期“新科學家”的封面,其題目是:“原始硅打造的生物——讓達爾文主義迷失在電子試驗室,一睹新的造物主。高效精干的機器,無人能理解。”而湯普森能登上封面的原因是他的作品引起了很大的轟動。

湯普森打破了傳統,在電子硬件上發展了機器學習系統——而不是使用傳統的軟件方法。他選擇這樣做是因為他意識到所有數字計算機軟件的功能都會受到計算機二進制開關的限制。相比之下,人類大腦的神經元得到了很好的進化,可以思考各種微妙且不可思議的復雜物理和生化過程。湯普森假設,通過自然選擇的自動化過程讓計算機硬件進化,就可以模擬出硅介質的所有實際物理屬性,而計算機的數字開關正是由這些硅介質構成,因此可能會產生某種東西有效模擬人類大腦的組成。

后來的事實也證明了他是正確的。

湯普森在他的實驗室中對FPGA(一種數字硅芯片,其數字開關之間的連接可以反復重新配置)的配置進行了改進,以便區分兩種不同的音頻音調。然后當湯普森在查看FPGA芯片內部開關之間的連接是如何通過改進過程配置的時候,他注意到一種令人印象深刻的高效電路設計——僅使用了37個元件。

不僅如此,該改進電路已經超出了數字工程師的理解范圍。37個組件中的一些沒有與其他組件電連接,但是一旦從設計中移除這些組件,整個系統就會停止工作。對于這種奇怪情況,唯一的解釋就是該系統在它所謂的數字組件之間利用了某種神秘的電磁連接。換句話說,該改進過程為了執行“計算”,已經卷入了系統組件和材料模擬的真實世界的特征。

作為一位二十世紀九十年代的年輕研究員來說,湯普森的工作發現確實令人驚嘆。計算機不僅設法發明了一種全新的電子電路,而且超越了人類電子工程師的能力,更重要的是它還指向了開發計算機系統和AI的方法。

人工智能

獅頭工作室(現已解散)的經典游戲Black&White,DeepMind創始人丹米斯·哈薩比斯最初擔任該工作室AI組組長

所以究竟是什么情況?為什么湯普森幾乎無人知曉,而后來的哈薩比斯卻為Google的母公司Alphabet贏得了滿堂彩,而且BBC還為之制作了謳歌的紀錄片?答案就在于時機。

人工智能還“時髦”嗎?

早在二十世紀九十年代,人工智能就已經十分時髦了。

現在三十多年過來了,AI不僅承擔起了引發“第四次工業革命”的重任,還是行業重點投資的下一個方向。雖然DeepMind的數字AI系統不是很擅長針對復雜的真實世界(如天氣或人腦)進行建模,但它們還是非常適合處理在線二進制世界的鏈接、點擊、點贊、共享、播放列表和像素等問題。

除了市場契機已至,DeepMind還深諳吸引觀眾的技巧。DeepMind通過培養技術的神秘性來推銷技術和高級人員,但它的演示始終只是玩簡單的、有計算規則的游戲,因為游戲具有媒體和公眾的高度關注以及視覺趣味性的優勢。實際上,該技術的大多數商業應用都將是相當平庸的后臺業務應用程序,例如優化Google數據中心(Google保存服務器的地方)的電源效率。

湯普森和哈薩比斯有一個共同點(除了他倆都是英國人以外),他們都擁有必要的技術和創造力,從而能夠有效地訓練和改進他們的系統,但是這種對人類的技術和創造力的依賴性很顯然是所有“人工智能”或機器學習系統的弱點,它們各自的技術也非常脆弱。

例如,湯普森的系統不能在與訓練環境不同的溫度條件下工作。同樣地,DeepMind擅長的一個視頻游戲(雅達利的Breakout)中,僅僅是改變擋板的大小就能讓AI的成績一落千丈。這種脆弱性是由于DeepMind的AI軟件不知道什么是擋板,甚至不知道什么是視頻游戲;它的開關只能處理二進制數。

不可否認,近年來機器學習系統取得了很大的進步,但這一進步主要是通過大量投入傳統計算硬件來實現的,而不是通過激進創新。在不久的將來,芯片集成技術將觸及極限,設計效率(即用更少的硬件進行更多處理)將在商業上更加重要,也許在那一刻可進化形式的硬件將流行起來。

人工智能會是下一個技術浪潮嗎?

技術是一個升級創新的過程,而不是通過“包裝”渲染的“虛假”式繁榮。而回顧每一次的技術浪潮,從最初的Web時代,到移動、云計算時代,然后是現在的人工智能、區塊鏈、物聯網浪潮,也并不是每一步都走得正確,也是經過了反復的迭代和推陳出新。

Web和操作系統的年代

自從第一個RFC(RequestForComments)于1969年發布以來,互聯網協議就有了一個分散的開發過程,并且形成了獨特的標準。雖然定義協議是分散的,但使用這些協議的核心平臺(例如思科路由器)仍然是專有的并且是封閉的。而思科1990年的首次公開募股開啟了不可思議的Web時代。

由于主要的網絡供應商都有自己的硬件,所以雖然局外人可以為協議規范做出貢獻,但只有網絡公司的開發人員才能將這些協議添加到他們的平臺。思科創建了各種公司,然后經歷各種收購或合并,直至互聯網泡沫破滅。

這之后的操作系統、桌面應用程序也都經歷了類似的戰斗。無論是20世紀90年代的Netscape和IE,還是今天的Chrome、IE和Firefox,瀏覽器一直是令人垂涎的應用程序,因為它是網絡的前端。

移動開發導致消費升級,云端混戰開啟統治時代

當蘋果公司推出AppStore后,與網頁類似但功能更豐富的移動應用程序迎來了消費者能力升級的新時代。但是對于開發人員來說,有些人可能認為移動開發進入的門檻太低,這個對所有人開放的領地注定難以形成創新,才會導致現在的應用商店遍布垃圾、充斥著復刻和模仿。不過事實證明,仍有一小部分人成功創建了出色的應用程序,但絕大多數的人卻仍是無所作為。

而“得云者得天下”的云計算時代,在2006年開啟。彼時,谷歌推出了“Google101計劃”,并正式提出“云”的概念和理論。此后,亞馬遜、微軟、惠普、雅虎、英特爾、IBM等公司紛紛入局,云端混戰。其中亞馬遜在采用AWS的云計算功能和新時代的定價方面做得非常出色,Google和微軟緊隨其后。

在云計算模式下,用戶借助云服務提供商的計算資源、存儲空間和各種應用軟件,就可以把連接“顯示器”和“主機”的電線變成網絡,把“主機”變成云服務提供商的服務器集群。也因此,近年來一大批的企業為了追求低成本和高性能而借助云計算實現數字化轉型。

區塊鏈、物聯網、人工智能主導下一波技術浪潮

區塊鏈、物聯網和人工智能則最有望成為下一個技術浪潮。

區塊鏈以其獨特的技術計算方式獲得了企業和用戶的熱烈追捧,而2016年印發的《“十三五”國家信息化規劃》中提出的“加強區塊鏈等新技術的創新、試驗和應用”更是為其加了一把火,在技術圈炒得火熱。2017年世界經濟論壇發布的白皮書《實現區塊鏈的潛力》,則提到了區塊鏈技術能夠使信息互聯網向價值互聯網的新時代轉變,開創更具顛覆性和變革性的互聯網時代。從目前來看,區塊鏈的技術應用雖不夠完善,但發展前景卻很值得期待。

物聯網(IoT)在過去的十年中經歷了幾次起伏。就進入門檻而言,構建物聯網設備的大多數軟件(甚至硬件)構建模塊都是常用的,但將商用物聯網設備推向市場是一項重大任務。物聯網已從一些標準化中受益,但它也是一個非常分散的空間,僅僅因為有“標準”并不意味著公司必須使用它們。因此,雖然未來的物聯網發展將會涉及到生活的各個領域,但是如何將其潛力發揮極致也是開發者和市場重要的一大命題。

而人工智能領域,正如前文所述,它是一個有著完備生態和豐富工具的技術,但是現階段的人工智能還不成熟,仍是基于以往研究的“美化”和“包裝”。不過正如各大科技巨頭們爭相涌入的勢頭一般,也正像Gartner2017年成熟度曲線所呈現的那樣,有了創新和突破,“真正的”人工智能很快就會到來。

人工智能

Gartner公布的2017全球新興技術成熟度曲線

未來已來,但是會以何種姿勢呈現,取決于技術市場和開發者們。

表面繁榮之下,人工智能的發展已陷入困境

來源:36氪

編輯:郝鵬程

編者按:《連線》雜志在其最近發布的12月刊上,以封面故事的形式報道了人工智能的發展狀況。現在,深度學習面臨著無法進行推理的困境,這也就意味著,它無法讓機器具備像人一樣的智能。但是真正的推理在機器中是什么樣子的呢?如果深度學習不能幫助我們達到目的,那什么可以呢?文章作者為克萊夫·湯普森(@pomeranian99),原標題為“HowtoTeachArtificialIntelligenceSomeCommonSense”。

五年前,總部位于倫敦的人工智能公司DeepMind的程序員,興奮地看著人工智能自學玩一款經典的街機游戲。他們在一項看似“異想天開”的任務上使用了當今最熱門的技術——深度學習——掌握了Breakout。

這是一款雅達利(Atari)開發的游戲,在游戲中,你需要用移動下方的平板,把球彈起,然后把上方的所有磚塊都打消失。

深度學習,是機器進行自我教育的一種方式;你給人工智能提供大量的數據,它會自己識別模式。在這個游戲中,數據就是屏幕上的活動——代表磚塊、球和玩家平板的塊狀像素。

DeepMind的人工智能,一個由分層算法組成的神經網絡,并不知道任何關于Breakout的工作原理、規則、目標,甚至如何發揮它都不清楚。編碼器只是讓神經網絡檢查每個動作的結果,每次球的彈起軌跡。這會導致什么?

事實證明,它會掌握一些令人印象深刻的技能。在最初的幾場游戲中,人工智能只是控制下方的平板四處亂晃。但是玩了幾百次之后,它已經開始準確地將球彈起了。到了第600場比賽時,神經網絡使用了一種專業的人類Breakout游戲玩家使用的動作,鑿穿整排磚塊,讓球沿著墻頂不停跳躍。

“這對我們來說,是一個很大的驚喜,”DeepMind的首席執行官德米斯·哈薩比斯(DemisHassabis)當時說道。“這一策略完全來自底層系統。”

人工智能,已經顯示出它能夠像人類一樣進行異常微妙的思考,掌握Breakout背后的內在概念。因為神經網絡松散地反映了人腦的結構,所以從理論上說,它們應該在某些方面模仿我們自己的認知方式。這一刻似乎證明了這個理論是正確的。

去年,位于舊金山的一家人工智能公司Vicorance的計算機科學家,提供了一個有趣的現實檢驗。他們采用了一種類似DeepMind所用的人工智能,并在Breakout上進行了訓練。

結果很棒。但隨后,他們稍微調整了游戲的布局。在一次迭代中,他們將平板提得更高了;另一次迭代中,他們在上方增加了一個牢不可破的區域。

人類玩家可以快速適應這些變化,但神經網絡卻不能。這個看起來很聰明的人工智能,只能打出它花了數百場比賽掌握的Breakout的方法。它不能應對新變化。

“我們人類不僅僅是模式識別器,”Vicarious的共同創始人之一、計算機科學家迪利普·喬治(DileepGeorge)告訴我。“我們也在為我們看到的東西建立模型。這些是因果模型——有我們對因果關系的理解。”

人類能夠推理,也會對我們周圍的世界進行邏輯推理,我們有大量的常識知識來幫助我們發現新的情況。當我們看到一款與我們剛剛玩的游戲略有不同的Breakout游戲時,我們會意識到,它可能有著大致相同的規則和目標。

但另一方面,神經網絡對Breakout一無所知。它所能做的就是遵循這個模式。當模式改變時,它無能為力。

深度學習是人工智能的主宰。在它成為主流以來的六年里,它已經成為幫助機器感知和識別周圍世界的主要方式。

它為Alexa的語音識別、Waymo的自動駕駛汽車和谷歌的即時翻譯提供了動力。從某些方面來說,Uber的網絡也是一個巨大的優化問題,它利用機器學習來找出乘客需要汽車的地方。中國科技巨頭百度,有2000多名工程師在神經網絡人工智能上努力工作。

多年來,深度學習看上去越來越好,不可阻擋地讓機器擁有像人一樣流暢、靈活的智力。

但是一些人認為,深度學習正在面臨困境。他們說,單憑這一點,它永遠不會產生廣義上的智能,因為真正像人類一樣的智能,不僅僅是模式識別。

我們需要開始弄清楚如何讓人工智能具備常識。他們警告說,如果我們不這樣做,我們將會不斷地觸及深度學習的極限,就像視覺識別系統,只要改變一些輸入,就會很容易被愚弄,比如,讓深度學習模型認為烏龜就是一桿槍。

但他們說,如果我們成功了,我們將見證更安全、更有用的設備爆炸式增長——比如在雜亂的家中自由行動的醫療機器人、不會誤報的欺詐檢測系統等等。

但是,真正的推理在機器中是什么樣子的呢?如果深度學習不能幫助我們達到目的,那什么可以呢?

加里·馬庫斯(GaryMarcus)是紐約大學的心理學和神經科學教授,現年48歲,戴著眼鏡,憂心忡忡。他可能是最著名的深度學習反對者。

馬庫斯第一次對人工智能感興趣,是在20世紀80年代和90年代,當時神經網絡還處于實驗階段,從那以后,他就一直在做同樣的論證。

“我不只是來晚了,而且還想在派對上撒尿,”當我在紐約大學附近的公寓遇見他時,馬庫斯告訴我。(我們也是私人朋友。)“深度學習剛開始爆發的時候,我就說‘方向錯了,伙計們!’”

那時,深度學習背后的策略和現在是一樣的。比方說,你想要一臺機器來自己學習識別雛菊。首先,你需要編寫一些算法“神經元”,像三明治一樣,將它們層層連接起來(當你使用多層時,三明治會變得更厚或更深——因此是“深度”學習)。

你在第一層輸入一個雛菊的圖像,它的神經元會根據圖像是否像它以前看到的雛菊的例子而進行判斷。然后,信號將移動到下一層,在那里循環這個過程。最終,這些層會得出一個結論。

起初,神經網絡只是盲目猜測;它或多或少地讓生活從一張白紙開始。關鍵是建立一個有用的反饋回路。每當人工智能沒有識別出雛菊時,那組神經連接就會削弱導致錯誤猜測的鏈接;如果它成功了,它會加強。

給定足夠的時間和足夠多的雛菊樣本,神經網絡會變得更加精確。它學會了通過直覺來識別一些雛菊的模式,讓它每次都能識別出雛菊(而不是向日葵或菊花)。

隨著時間的推移,這一核心理念——從一個簡單的網絡開始,通過重復訓練——得到了改進,似乎可以應用到幾乎任何地方。

但是馬庫斯從未被說服。對他來說,問題就在于一張白紙:它假設人類純粹通過觀察周圍的世界來建立他們的智力,機器也可以。

但是馬庫斯不認為人類就是這樣工作的。他認可諾姆·喬姆斯基(NoamChomsky)的智力發展理論,他認為人類天生就有學習的天賦,能夠掌握語言和解釋物質世界,而不是一張白紙。

他指出,盡管有很多人認為神經網絡是智能的,但它似乎不像人類大腦那樣工作。首先,它們太需要數據了。

在大多數情況下,每個神經網絡都需要數千或數百萬個樣本來學習。更糟糕的是,每次你想讓神經網絡識別一種新的項目,你都必須從頭開始訓練。一個識別金絲雀的神經網絡在識別鳥鳴或人類語言方面沒有任絲毫用處。

“我們不需要大量的數據來學習,”馬庫斯說。他的孩子不需要看一百萬輛車就能認出車輛來。更好的是,他們可以“抽象化”,當他們第一次看到拖拉機時,他們會知道它有點像汽車。他們也可以進行反事實的工作。

谷歌翻譯可以將法語翻譯成英語。但是它不知道這些話是什么意思。馬庫斯指出,人類不僅掌握語法模式,還掌握語法背后的邏輯。你可以給一個小孩一個假動詞,比如pilk,她很可能會推斷過去式是pilked。當然,她以前沒見過這個詞。她沒有接受過這方面的“訓練”。她只是憑直覺知道了語言運作的一些邏輯,并能將其應用到一個新的情況中。

“這些深度學習系統不知道如何整合抽象知識,”馬庫斯說,他創立了一家公司,創造了用更少的數據進行學習的人工智能(并在2016年將公司賣給了Uber)。

今年早些時候,馬庫斯發表了一份關于arXiv的白皮書,認為如果沒有一些新的方法,深度學習可能永遠不會突破目前的局限。它需要的是一種推動力——補充或內置的規則,以幫助它對世界進行推理。

奧倫·埃齊奧尼(OrenEtzioni)經常面帶微笑。他是一位計算機科學家,在西雅圖經營著艾倫人工智能研究所(AllenInstituteforArtificialIntelligence)。

在他明亮的辦公室里向我打招呼,領我走過一塊白板,上面潦草地寫著對機器智能的思考。(“定義成功”,“任務是什么?”)在外面,年輕的人工智能研究員戴著耳機,敲擊著鍵盤。

埃茨奧尼和他的團隊正在研究常識問題。他將此定義為兩個傳奇的人工智能時刻——1997年IBM的深藍(DeepBlue)擊敗象棋大師加里·卡斯帕羅夫(GarryKasparov),以及去年DeepMind的AlphaGo擊敗世界頂尖圍棋選手李世石。(谷歌在2014年收購了DeepMind。)

“有了深藍,當房間著火的時候,我們的程序可以做出超人一般的象棋棋步。”埃茨奧尼開玩笑說。“對吧?完全缺乏背景。快進20年,當房間著火的時候,我們有了一臺電腦,可以下出超人一般的圍棋棋步。”

當然,人類沒有這個限制。如果發生火災,人們會拉響警報,奔向大門。

換句話說,人類擁有關于這個世界的基本知識(火會燒東西),同時還有推理的能力(你應該試著遠離失控的火)。

為了讓人工智能真正像人類一樣思考,我們需要教它所有人都知道的東西,比如物理學(拋向空中的球會落下)或相對大小的東西(大象無法被放進浴缸)。在人工智能擁有這些基本概念之前,埃茨奧尼認為人工智能無法進行推理。

隨著保羅·艾倫(PaulAllen)投入了數億美元,埃茨奧尼和他的團隊正在努力開發一個常識推理層,以適應現有的神經網絡。(艾倫研究所是一個非營利組織,所以他們發現的一切都將被公開,任何人都可以使用。)

他們面臨的第一個問題,就是回答一個問題:什么是常識?

埃茨奧尼把它描述為我們認為理所當然,但很少大聲說出的關于世界的所有知識。他和他的同事創造了一系列基準問題,一個真正理性的人工智能應該能夠回答:如果我把襪子放在抽屜里,它們明天會在那里嗎?如果我踩了別人的腳趾,他們會生氣嗎?

獲取這種知識的一種方法,是從人類那里提取。埃茨奧尼的實驗室正在付費給亞馬遜土耳其機器人上的眾包人員,以幫助他們制作常識性的陳述。

然后,研究團隊會使用各種機器學習技術——一些老式的統計分析,一些深度學習的神經網絡——基于這些陳述進行訓練。如果他們做得對,埃茨奧尼相信他們可以生產出可重復使用的計算機推理“樂高積木”:一套能夠理解文字,一套能夠掌握物理知識,等等。

崔葉金(YejinChoi)是埃茨奧尼團隊研究常識的科學家之一,她負責了幾次眾包工作。在一個項目中,她想開發一種人工智能,能夠理解一個人的行為,或陳述出來其隱含的意圖或情感。

她首先研究了成千上萬個Wiktionary中的在線故事、博客和習語條目,提取出“短語事件”,比如“杰夫(Jeff)把羅杰(Roger)打昏了”。然后,她會匿名記錄每個短語——“X把Y打昏”——并要求土耳其機器人平臺上的眾包人員描述X的意圖:他們為什么這樣做?

當她收集了25000個這樣的標記句子后,她用它們訓練一個機器學習系統,來分析它從未見過的句子,并推斷出句子的情緒或意圖。

充其量,新系統運行的時候,只有一半時間是正常的。但是當它正式運行的時候,它展示了一些非常人性化的感知:給它一句像“奧倫(Oren)做了感恩節晚餐”這樣的話,它預測奧倫試圖給家人留下深刻印象。

“我們也可以對其他人的反應進行推理,即使他們沒有被提及,”崔說。“所以X的家人可能會感到印象深刻和被愛。”

她的團隊建立的另一個系統使用土耳其機器人平臺上的眾包人員在故事中標記人們的心理狀態;當給定一個新的情況時,由此產生的系統也可以得出一些“尖銳”的推論。

例如,有人告訴我,一名音樂教練對他的樂隊糟糕的表演感到憤怒,并說“教練很生氣,把他的椅子扔了。人工智能會預測他們會“事后感到恐懼”,盡管這個故事沒有明確說明這一點。

崔葉金、埃茨奧尼和他們的同事并沒有放棄深度學習。事實上,他們認為這是一個非常有用的工具。但是,他們不認為有捷徑,可以說服人們明確陳述我們所有人都擁有的怪異、無形、隱含的知識。

深度學習是垃圾輸入,垃圾輸出。僅僅給一個神經網絡提供大量新聞文章是不夠的,因為它不會吸取未陳述的知識,這是作家們不愿提及的顯而易見的事情。

正如崔葉金所說,“人們不會說‘我的房子比我大’。”為了幫助解決這個問題,她讓土耳其機器人平臺上的眾包人員分析了1100個常見動詞所隱含的物理關系,例如“X扔了Y”。這反過來又提供了一個簡單的統計模型,可以用“奧倫扔了一個球”這個句子來推斷球一定比奧倫小。

另一個挑戰是視覺推理。阿尼魯達·凱姆巴維(AniruddhaKembhavi)是埃茨奧尼團隊中的另一位人工智能科學家,他向我展示了一個在屏幕上漫步的虛擬機器人。艾倫研究所的其他科學家建造了類似模擬人生的房子,里面裝滿了日常用品——廚房櫥柜里裝滿了碗碟,沙發可以隨意擺放,并符合現實世界中的物理定律。

然后他們設計了這個機器人,它看起來像是一個有手臂的深灰色垃圾筒,研究人員告訴它,讓它搜尋某些物品。在完成數千項任務后,這個神經網絡獲得了在現實生活中生活的基礎。

“當你問它‘我有西紅柿嗎?它不會打開所有的櫥柜。它更傾向去打開冰箱,”凱姆巴韋說。“或者,如果你說‘給我找我的鑰匙’,它不會試圖拿起電視。它會去看電視機后面。它已經知道,電視機通常不會被拿走。”

埃茨奧尼和他的同事希望這些不同的組成部分——崔葉金的語言推理、視覺思維,以及他們正在做的讓人工智能掌握教科書科學信息的其他工作——最終能夠結合在一起。

但是需要多長時間,最終的產品會是什么樣子?他們不知道。他們正在建立的常識系統仍然會出錯,有時甚至超過一半的概率。

崔葉金估計,她將需要大約一百萬人工語言來訓練她的各種語言解析器。建立常識似乎異乎尋常地困難。

制造機器還有其他合理的方式,但它們的勞動密集程度更高。例如,你可以坐下來,用手寫出所有要告訴機器世界如何運作的規則。這就是道格·萊納特(DougLenat)的Cyc項目的工作原理。

34年來,萊納特雇傭了一個工程師和哲學家團隊,來編寫2500萬條常識性規則,比如"“水是濕的”或者“大多數人都知道他們朋友的名字”。這讓Cyc能夠推斷:“如果你的襯衫濕了,所以你可能是在雨中。”優勢在于,萊納特能夠精確地控制輸入Cyc數據庫的內容;而眾包知識并非如此。

這種由粗暴的手動行為做出來的人工智能,在深度學習的世界中已經變得不流行。這在一定程度上是因為它可能“脆弱”:如果沒有正確的世界規則,人工智能可能會陷入困境。這就是程式化的聊天機器人如此“智障”的原因;如果如果沒有明確告訴它們如何回答一個問題,它們沒有辦法推理出來。

Cyc的能力比聊天機器人更強,并且已經經過批準,可以用于醫療保健系統、金融服務和軍事項目。但是這項工作進展非常緩慢,而且耗資巨大。萊納特說開發Cyc花費了大約2億美元。

但是,一點一點地進行手工編程可能只是復制一些固有的知識,根據喬姆斯基(Chomskyite)的觀點,這是人類大腦擁有的知識。

這就是迪利普·喬治和研究人員對Breakout所做的事情。為了創造一個不會面對游戲布局變化而變“智障”的人工智能,他們放棄了深入學習,建立了一個包含硬編碼基本假設的系統。

喬治告訴我,他們的人工智能不費吹灰之力就學會了“物體是存在的,物體之間有相互作用,一個物體的運動與其和其他物體之間的碰撞有因果關系。”

在Breakout中,這套系統發展出了衡量不同行動過程及其可能結果的能力。但這也起到了相反的作用。如果人工智能想要打破屏幕最左上角的一個磚塊,它會理性地將平板放在最右邊的角落。

這意味著,當Vicarious改變游戲的規則時——添加新磚塊或提升平板——系統會得到補償。它似乎抓住了一些關于Breakout本身的通用性理解。

顯然,這種人工智能在工程中存在權衡。可以說,精心設計和仔細規劃,以精確找出將什么預先設定的邏輯輸入到系統中,是一個更艱苦的工作。在設計一個新系統時,很難在速度和精度之間取得恰當的平衡。

喬治說,他尋找最小的數據集“放入模型,以便它能夠快速學習。”你需要的假設越少,機器做決策的效率就越高。

一旦你訓練了一個深度學習模型來識別貓,你就可以給它看一只它從未見過的俄羅斯藍貓,然后它就會立刻給出結論——這是一只貓。在處理了數百萬張照片之后,它不僅知道是什么讓一只貓變成了貓,還知道識別一只貓的最快方法。

相比之下,Vicarious的人工智能速度較慢,因為隨著時間的推移,它會主動地做出邏輯推論。

當Vicarious的人工智能運行良好時,它可以從更少的數據中學習。喬治的團隊通過識別扭曲的字體形象,創造一種人工智能來突破神經網絡上“我不是機器人”的障礙。

就像Breakout系統一樣,他們預先給人工智能賦予了一些能力,比如幫助它識別字符的知識。隨著引導就位,他們只需要在人工智能學會以90.4%的準確率破解驗證碼之前,在260張圖像上訓練人工智能。相比之下,神經網絡需要在超過230萬張圖像上訓練,才能破解驗證碼。

其他人,正在以不同的方式將常識般的結構構建到神經網絡中。例如,DeepMind的兩名研究人員最近創建了一個混合系統:部分是深度學習,部分是更傳統的技術。他們將這個系統稱為歸納邏輯編程。目標是創造出能夠進行數學推理的東西。

他們用兒童游戲“fizz-buzz”來訓練它,在這個游戲中,你從1開始向上數,如果一個數字可以被3整除,就說“fizz”,如果它可以被5整除,就說“buzz”。一個普通的神經網絡,只能處理它以前見過的數字;如果把它訓練到100分鐘,它就會知道99時該“fizz”,100時“buzz”。

但它不知道如何處理105。相比之下,DeepMind的混合深度思維系統似乎理解了這個規則,并在數字超過100時沒有出現任何問題。愛德華·格雷芬斯特(EdwardGrefenstette)是開發這種混合系統的DeepMind程序員之一,他說,“你可以訓練出一些系統,這些系統會以一種深度學習網絡無法獨自完成的方式進行推理。”

深度學習的先驅、Facebook人工智能研究部門的現任負責人楊立昆(Yann?LeCun)對許多針對這個領域的批評表示贊同。他承認,它需要太多的訓練數據,不能推理,也不具備常識。

“在過去的四年里,我基本上在一遍又一遍地重復這句話,”他提醒我。但是他仍然堅信,進行正確的深入學習,可以獲取答案。他不同意喬姆斯基對人類智力的看法。他認為,人類大腦是通過互動而不是內在的規則來發展出推理能力的。

“如果你思考一下動物和嬰兒是如何學習的,在生命的最初幾分鐘、幾小時、幾天里,學很多東西都學得很快,以至于看起來像是天生的,”他指出。“但事實上,他們不需要硬編碼,因為它們可以很快學會一些東西。”

從這個角度來看,為了了解世界的物理規律,一個嬰兒只需要四處移動它的頭,對傳入的圖像進行數據處理,并得出結論,景深就是這么一回事。

盡管如此,楊立昆承認,目前還不清楚哪些途徑可以幫助深度學習走出低谷。有可能是“對抗性”神經網絡,一種相對新的技術,其中一個神經網絡試圖用虛假數據欺騙另一個神經網絡,迫使第二個神經網絡發展出極其微妙的圖像、聲音和其他輸入的內部表征。

它的優勢是沒有“數據缺乏”的問題。你不需要收集數百萬個數據來訓練神經網絡,因為它們是通過相互學習來學習的。(作者注:一種類似的方法正在被用來制作那些讓人深感不安的“深度偽造”(deepfake)視頻,在這些視頻中,有些人似乎在說或做一些他們沒有說或做的事情。)

我在Facebook位于紐約的人工智能實驗室的辦公室里遇見了楊立昆。馬克·扎克伯格(MarkZuckerberg)在2013年招募了他,承諾實驗室的目標將是推動人工智能突破極限,而不僅僅是對Facebook的產品進行微小的調整。像學術實驗室一樣,楊立昆和他的研究人員可以將他們的研究成果發表出來,供其他人參閱。

楊立昆仍然保留了他的法國本土口音,他站在白板前,精力充沛地勾畫出可能推動深入學習進步的理論。對面的墻上掛著一套斯坦利·庫布里克(StanleyKubrick)《2001:太空漫游》(2001:ASpaceOdyssey)中的華麗畫作——漂浮在太空深處的主宇宙飛船,一艘繞地球運行的輪式飛船。“哦,是的,”當我指出他們時,楊立昆說,他們重印了庫布里克為這部電影制作的藝術品。

借著周圍的圖片來討論類人人工智能,讓人感到莫名的不安,因為2001年的HAL9000,一個類人人工智能,是一個高效的殺手。

這指向了一個更深層次的哲學問題,超越了人工智能發展方向的爭論:制造更聰明的人工智能是一個好主意嗎?Vicarious的系統破解了驗證碼,但驗證碼的意義在于防止機器人模仿人類。

一些人工智能研究者擔心,與人類交談并理解人類心理的能力可能會使惡人工智能變得極其危險。牛津大學的尼克·博斯特龍(NickBostrom)敲響了創造"超級智能"(superintelligence)的警鐘。超級智能是一種自我改進并快速超越人類的人工智能,能夠在各個方面超越我們。(他認為積聚控制力的一種方式是通過操縱人們——擁有"心智理論"對此會非常有用。)

埃隆·馬斯克(ElonMusk)對這種危險深信不疑,他資助了致力于安全人工智能理念的組織OpenAI。

這樣的未來不會讓埃齊奧尼晚上失眠。他不擔心人工智能會變成惡意的超級智能。“我們擔心會有什么東西會接管這個世界,”他嘲笑道,“那甚至不能自已決定再下一盤棋。”目前,還不清楚人工智能會如何發展出這些意愿,也不清楚這種意愿軟件中會是什么樣子。深度學習可以征服國際象棋,但它沒有天生的下棋意愿。

令他擔憂的是,是目前的人工智能非常無能。因此,雖然我們可能不會創造出具有自我保護智能的HAL,但他說,“致命武器+無能的人工智能很容易殺人。”這也是為什么埃齊奧尼如此堅決地要給人工智能灌輸一些常識的部分原因。他認為,最終,這將使人工智能更加安全;不應該大規模屠殺人類,也是一種常識。(艾倫研究所的一部分任務是使人工智能更加合理化,從而使其更加安全。)

埃齊奧尼指出,對人工智能的反烏托邦式的科幻愿景,其風險要小于短期的經濟轉移。如果人工智能在常識方面做得更好,它就能更快地完成那些目前僅僅是模式匹配深度學習所難以完成的工作:司機、出納員、經理、各行各業的分析師,甚至是記者。

但真正有理性的人工智能造成的破壞甚至可能會超出經濟范圍。想象一下,如果散布虛假政治信息的機器人能夠運用常識,在Twitter、Facebook或大量電話中顯得與人類毫無區別,那該會是什么樣子。

馬庫斯同意人工智能具備推理能力會有危險。但是,他說,這樣帶來的好處是巨大的。人工智能可以像人類一樣推理和感知,但卻能以計算機的速度運算,它可以徹底改變科學,以我們人類不可能的速度找出因果關系。

除了擁有大量的機器人知識之外,它可以像人類一樣進行心理實驗,可以遵循“if-then”鏈條,思考反事實。“例如,最終我們可能能夠治愈精神疾病,”馬庫斯補充道。“人工智能或許能夠理解這些復雜的蛋白質生物級聯,這些蛋白質參與到了大腦的構建中,會讓它們正常工作或不正常工作。”

坐在《2001:太空漫游》的照片下面,楊立昆自己提出了一個“異端”觀點。當然,讓人工智能更加人性化有助于人工智能給我們的世界提供幫助。但是直接復制人類的思維方式呢?沒有人清楚這是否有用。我們已經有了像人類一樣思考的人;也許智能機器的價值在于它們與我們完全不同。

“如果他們有我們沒有的能力,他們會更有用,”他告訴我。“那么他們將成為智力的放大器。所以在某種程度上,你希望他們擁有非人類形式的智力......你希望他們比人類更理性。”換句話說,也許讓人工智能有點人工是值得的。

中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.siyutn.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0