1950年圖靈提出的“圖靈測試”就嚴肅地提出了具有人類特性的機器人的可能性,而1956年約翰·麥卡錫就定義了“人工智能”作為這個領(lǐng)域的專有名詞。可是,我們這一代的人重新認識AI,卻是在2016年Alpha GO第一次在圍棋上戰(zhàn)勝了人類頂級選手之后。
在此之后,AI突然重新成為了一個炙手可熱的話題,而最近的人工智能發(fā)展速度越來越快,除了變身語音助手,自動駕駛汽車,會下圍棋,還能在圖像識別和聲音識別上超越人類,還可以在某些疾病診斷方面超越人類醫(yī)生,甚至能自己作曲、自己寫書——很多曾經(jīng)看似不可能完成的任務(wù)都在逐漸被完成。
那么,人工智能是為什么在沉寂已久之后又迅速崛起了?
事實上,人工智能的發(fā)展依賴三個元素:優(yōu)秀的算法、強大的計算能力、足夠的訓(xùn)練數(shù)據(jù)。人工智能依仗“機器學(xué)習(xí)“算法,所謂機器學(xué)習(xí),舉其中一類“有監(jiān)督式學(xué)習(xí)”的例子來說:我需要培訓(xùn)電腦識別某個人的臉,那么我就給電腦大量的這個人的圖片,通過不斷的識別運算,我只告訴電腦識別正確還是失敗,電腦能逐漸自主調(diào)整自己算法中的參數(shù),從而自主提高識別率。
雖然在1920年-1990年期間提出了大量的淺層機器學(xué)習(xí)模型,但模型本身有效性是有限的,識別率并不高。而同時雖然也有試圖探索深層機器學(xué)習(xí)的模型,可是電腦的運算能力卻跟不上。同時,由于互聯(lián)網(wǎng)尚未普及,獲取數(shù)據(jù)本身也并非容易的事情。
而到了2000年以后,這一切都逐漸得到了改變。2006年的三篇論文:Hinton的Deep Belief Nets,Bengio團隊的Greedy Layer-Wise Training of Deep Networks,LeCun團隊的Efficient Learning of Sparse Representations with an Energy-based Model開啟了深度神經(jīng)網(wǎng)絡(luò)即深度學(xué)習(xí)在學(xué)術(shù)界和工業(yè)界的浪潮,而同時GPU被證明比CPU要更加適合運行深度學(xué)習(xí)模型。
再者,因為2000年以后搜索引擎的發(fā)展,互聯(lián)網(wǎng)的成熟,使得整個互聯(lián)網(wǎng)積累了曾經(jīng)無法想象的數(shù)據(jù)量(也即現(xiàn)在很火的“大數(shù)據(jù)”概念)?,F(xiàn)在能夠把“大數(shù)據(jù)”交給GPU,用非常復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)算法進行“機器學(xué)習(xí)”,這才點燃了AI的迅猛發(fā)展。