第239章 適當的風險是有益的
字數:6319 加入書籤
聽著尹芙·卡莉的表述,林灰沒想到就先前的那篇論文內容上在他看來的一些已經相當常識內容的補充。
1200ksw.net
居然能被尹芙·卡莉賦予那麽多的期許。
尹芙·卡莉一臉期待的小表情,不知為什麽總讓林灰想到在渴盼著肉吃的小狐狸。
不過,林灰這次恐怕是要讓尹芙·卡莉失望了。
在論文補充的一些內容雖然是領先這個時空的。
但為了避免出現領先一步是先師領先兩步仙逝的情況發生。
即便是進行搬運,林灰實際搬出來的東西也是很克製的。
就拿尹芙·卡莉給予高度評價的預訓練機製吧。
雖然將預訓練機製引入到自然語言處理的機器學習方麵確實在這個時空具有相當意義的開創性。
但林灰心中是清楚的,他所搬運的預訓練機製隻能稱作為萌新水平。
林灰搬運的“預訓練”是基於普通的神經網絡語言模型進行的預訓練。
距離真正穩妥的基於transformer的預訓練模型在應用效率方麵要差得多。
至於林灰為什麽不直接搬運更成熟的基於transformer的預訓練機製呢?
原因很簡單,畢竟眼下還沒有transforer模型豈不是滑天下之大稽。
而至於說尹芙·卡莉同樣抱有很大期待的“深度學習”。
雖然林灰確實是能鼓搗出真正意義的深度學習的。
但暫時似乎沒啥必要,涉及到深度學習這個方麵林灰並不打算將其放在自然語言處理這個方向推出。
至於林灰不打算將真正意義上的深度學習在自然語言處理這個方向推出,為什麽在現在論文中還提到深度學習?
那是因為這個時空的幾乎所有神經網絡學習方麵的科研人員幾乎都迷之自信地將他們搞得神經網絡學習冠以深度學習之名。
這樣的話林灰搞得神經網絡學習應用縱然實際上沒那麽深,不冠以深度學習之名豈不是顯得低人一等?
至於說尹芙·卡莉所看中的遷移思想。
雖然長久時間線來看,遷移學習確實能做到尹芙·卡莉所期待的那樣跳脫出自然語言處理的小圈子遷移到全部ml領域。
但短時間內實際上還是比較難的。
盡管有這樣那樣的困難,但林灰並沒有打擊尹芙·卡莉的積極性。
反而給尹芙·卡莉描繪出一副更加恢弘的場景。
這畫餅的樣子甚至讓林灰想起了前世自己的領導。
不過林灰對此絲毫不愧疚,前世部門領導畫的大餅隻是虛無縹緲而已。
而林灰所勾勒的藍圖卻一定會實現,畢竟這在前世已經驗證過了。
路再長長不過腳,終有一天林灰會將其所描繪的統統實現。
而且林灰已經在朝著他所勾勒的藍圖邁進了。
林灰在此前論文中進行補充的內容雖然並沒有尹芙·卡莉期許地那麽強,但至少也在進步。
甚至有些進步相對於這個時空的科研現狀來說很多是從0到1的。
至於尹芙·卡莉關於人工智能在社會層麵的擔憂。
這個林灰倒是略知一二,前世很多大牛確實都表示過這方麵的憂慮。
前世斯蒂芬·霍金、比爾·蓋茨、馬斯克都曾表示了對人工智能會具有自我覺知和意識的憂慮。
尤其是前世霍金,更是誇張地認為人工智能可能是人類最大的災難,如果管理不當,會思考的機器可能終結人類文明。
至於今生這些人是否發表過同樣的言論,林灰沒具體關注過。
反正在林灰看來,這方麵的擔憂或許在理論上有片麵的道理,但實際上深究起來其實很離譜。
能夠真正威脅人類文明的,肯定是強人工智能,不可能是弱人工智能。
隻有具有自主意識、自主學習、自主決策的人工智能才可能真正意義上威脅人類。
而強人工智能就是擁有自我意識、自主學習、自主決策能力的人工智能。
正因為強人工智能如此強大,強人工智能也是人工智能發展的終極目標。
理想很遠大,可是強人工智能哪有那麽容易實現呢?
強人工智能想達到的技術原理倒是不複雜,相應的技術指標也容易說清。
無非就是自主意識、自主學習、自主決策。
或者更加通俗地說,就是要機器去學人。
學人認識世界的方式並再基礎上嚐試利用機器學習進行邏輯層麵的彷生從而複現人們認識世界的方式。
道理誰都懂,可是具體實行的時候卻有著各種各樣的難度。
前世人工智能鼓吹的很牛逼。
反正直到林灰重生前夕,那會人們也沒鼓搗出強人工智能。
話說回來既然強人工智能有風險且實現起來很困難。
為什麽還要追求強人工智能呢?
首先是強人工智能相比於弱人工智能會大幅度減少訓練成本。
前世人工智能方麵的應用普遍都是依靠大數據進行訓練的。
聽起來帶著“大數據”三個字很高大上的樣子。
但實際上操作起來就很苦逼嗬嗬了,而且借助於大數據很多情況下實際是不得已為之。
都知道人工智能是追求機器能夠像人那樣去處理問題。
可是要知道人學東西可是是從小樣本進行學習。
就拿圖像分類這個小領域來說吧,人對圖像進行分類,實際上根本不需要大數據。
隻需要很少幾個樣本就可以做到準確分類。
兩三歲小孩開始認識世界的時候。
父母為了讓孩子認識動物也不是給孩子看成千上萬的照片,而是隻給孩子看些動物圖集就可以了。
這些圖集可能依舊十幾頁幾十頁這樣,這個樣本規模實際是很小的。
再具體一點,如果想讓孩童知道什麽樣的動物是貓。
頂多再給他看幾張貓的圖片,並且告訴他貓有什麽特征,和其他動物像狗或者豬有什麽區別的話。
很快,小孩可以很快很準確的識別狗。
這些都是小樣本的訓練。
可是前世的人工智能想要實現同樣的功能。
卻需要相當大規模的數據去訓練。
也就是通常意義所說的要靠大數據去喂。
同樣拿剛才舉得例子來說,同樣是識別動物,要神經網絡學習做到兒童識別動物的水平。
就不說現在這個時空十分拉跨的神經網絡應用了。
就是依托於前世比較先進的深度殘差神經網絡。
想達到人類孩童對動物圖像的區分的話。
也需要成千上萬張圖片才能進行比較充分的訓練,才能再實際應用時得到比較準確的結果。
之所以神經網絡學習“學得慢”“學得費勁”原因在於深度殘差神經網絡還沒有邏輯思考、聯想和推理的能力。
這不光是這一單一神經網絡的局限性,事實上也正是弱人工神經網絡的局限性之所在。
借助於強人工智能則完全沒必要有這方麵的擔憂。
不光是傳統的神經網絡學習訓練更加容易。
甚至於借助於強人工智能還可能助力於基礎學科方麵研究的突破。
這些都是人們追求強人工神經網絡的原因。
除此之外科研人員追求強人工網絡還有很多原因。
比較值得一提的是。
部分科研人員認為生物學上的人類是有劣根性。
人類渴求更加完美的自己。
很多時候對強人工智能甚至是超人工智能的渴求同樣也是人類在追求更加完美的自身而已。
理想很豐滿,現實很骨感。
前世人們都沒搞出強人工智能,更不要說在神經網絡學習方麵各個方麵都略有滯後的今生了。
現在的科研情況不要說是強人工智能的實現,事實是就連弱人工智能都玩明白。
時下科研人員鼓搗出的神經網絡學習算法仍然缺乏人類這樣的聯想、記憶、學習、推理等高級功能。
想依靠這樣的算法搞弱人工智能都費勁。
真不知道為什麽這種情況下居然還有人操心什麽人工智能倫理和機器倫理所帶來的風險。
事實上就算林灰借助於現有的信息優勢做文章也隻能對弱人工智能做文章。
而對強人工智能同樣手足無措。
這種情況下林灰倒是覺得時下的人們與其操心這些風險之類的不著邊際的事情,還不如真正搞搞具體實在的研究。
退一步講,縱然是有風險就望而卻步嗎?
世界上有什麽事情是完全沒風險的?
林灰倒是覺得,人工智能有適當的風險反而有助於人工智能正確的發展。
舉這樣一個例子,神廟逃亡遊戲內容和大多數跑酷遊戲都非常相似,越過重重障礙和陷阱,不斷向前飛奔。
不過在神廟逃亡裏玩家控製的是一個印第安納瓊斯似的人物,在熱帶雨林的某個古老神廟中逃出,被神廟中一群猴子模樣的惡魔守衛追趕。
人物是自動不斷向前飛奔的,而玩家則需要控製他避開逃亡路上遇到的各種危險。
一路上各種危險,反而讓人更加專注於跑酷本身。
同樣的道理,當某項技術有招致一定風險的可能的時候。
適當的已知風險反而可能有助於研究。
因為科研人員或許反而會自覺的遠離相應的風險。
從而更加專注於算法邏輯和應用場景。