如今業(yè)內(nèi)談起Open AI,語氣和一年前截然不同。
距離它上一次技驚四座,還是今年8月其戰(zhàn)隊Open AI Five在《Dota2》中血虐人類半職業(yè)選手。當(dāng)時甚至掀起了一片比AlphaG更猛烈的“AI恐怖論”,一度成為Open AI腳踢DeepMind、拳打Facebook的實力證明。
但是最近情況卻出現(xiàn)了變化。下半年,Open AI不是致力于打出游戲新記錄(在《蒙特祖瑪?shù)膹?fù)仇》超越了DeepMind),就是分享自己的游戲攻略(發(fā)布Spinning Up in Deep RL課程教人打游戲),要不就是研究更適合打游戲的新環(huán)境(推出訓(xùn)練平臺CoinRun)。
雖然這些游戲一條龍技術(shù)也吸引了媒體關(guān)注,但顯然都沒能掀起什么大水花。
反觀DeepMind,不是承包頂會論文的半壁江山,就是憑Alphafold等重大突破收獲一片口頭諾貝爾獎,時不時就有神仙成果刷屏。
種種跡象都表明,Open AI似乎已經(jīng)不再是科技巨頭里最能打的那個,而且越來越專注電競比賽的節(jié)奏。
天才極客為何沉迷游戲?科技巨頭為何頻頻失手?究竟是人性的扭曲還是道德的淪喪,今天咱們《走近科學(xué)》(劃掉)就來抽絲剝繭,看看Open AI究竟是什么地方出了問題。
少年維特之煩惱:Open AI的青春期綜合癥
公開處刑之前,先簡單普及一下Open AI的運(yùn)營方式:
2015年成立的Open AI,一直是以第三極的方式存在于AI世界的。由特斯拉的創(chuàng)始人埃隆·馬斯克(Elon Musk)聯(lián)合其他科技巨頭們共同出資成立,旨在以非盈利的方式進(jìn)行人工智能研究。
Open AI采用開源項目的形式,將所有的研究結(jié)果對外開放,以達(dá)到“防止企業(yè)和政府依靠超級AI過度榨取利潤或謀取權(quán)力”的目的。
這種“為人類未來而搞AI”的技術(shù)理想主義,很投一些研究人員的胃口。因此,盡管薪水并沒有太大競爭力,Open AI一成立依然吸引了不少頂級天才加入。像是Stripe的前CTO格雷格·布洛克曼(Greg Brockman),前谷歌研究員伊利亞·蘇特斯科瓦(Ilya Sutskever),天才的計算機(jī)大師艾倫·凱伊(Alan Kay),以及眾多曾在學(xué)術(shù)機(jī)構(gòu)、Facebook AI或DeepMind里工作過的青年才俊。
如今,Open AI已經(jīng)擁有40多個技術(shù)人員,在一個投資人提供的辦公空間里工作,而其工作所用到的一些基礎(chǔ)設(shè)施,比如AWS服務(wù)等,則由亞馬遜合作提供。
左:Y Combinator的Sam Altman右:特斯拉、Space X的Elon Musk
作為一個非營利機(jī)構(gòu),Open AI成立以來的貢獻(xiàn),主要體現(xiàn)在三各方面:
1. 引領(lǐng)深度學(xué)習(xí)技術(shù)突破。比如舉辦了首屆針對AI 的強(qiáng)化學(xué)習(xí)競賽,發(fā)布了深度強(qiáng)化學(xué)習(xí)教育資源Spinning Up,最近還推出了一個解決AI模型通用難題的訓(xùn)練環(huán)境CoinRun。
2. 推動AI安全和持續(xù)發(fā)展問題。由于自身的公益性,Open AI非常關(guān)心人工智能的安全問題,在發(fā)布的分析報告中,多次提醒注意計算量增長可能引發(fā)的安全風(fēng)險和惡意使用問題。
3. 推進(jìn)技術(shù)普惠和民主化。Open AI是“AI民主化”的主要推動者之一,它的一切發(fā)展成果都會開放給所有人,與合作方自由分享信息。比如與谷歌(GoogleBrain)和加州大學(xué)伯克利分校(UC Berkeley)合作研發(fā)現(xiàn)代機(jī)器學(xué)習(xí)系統(tǒng)。
看起來,Open AI就是一個由技術(shù)精英們組織起來的“正義聯(lián)盟”。但最近這半年,Open AI,似乎經(jīng)歷了一場狂野而迷茫的叛逆青春期。
最明顯的,就是正在喪失在AI界的領(lǐng)航能力,變成一個專注打游戲的組織。因此,它對媒體的吸引力也開始減弱,以至于這大半年,人們對它的印象大多數(shù)還停留在峽谷里血虐人類玩家的游戲戰(zhàn)績。
從叱咤風(fēng)云到刷不出存在感,究竟是Open AI太飄,還是谷歌們提不動刀了?
同樣愛打游戲,為什么一個成了學(xué)霸,一個成了網(wǎng)癮少年?
AI和游戲玩家的對抗,似乎成了Open AI的核心發(fā)力點。原因也比較簡單:
一是符合Open AI的AI研發(fā)邏輯:先開發(fā)新的強(qiáng)化學(xué)習(xí)算法,再在模擬環(huán)境中訓(xùn)練解決困難的問題,最后再把得到的系統(tǒng)應(yīng)用在真實世界中。而游戲在訓(xùn)練AI上有天然優(yōu)勢,比如清晰的數(shù)據(jù)支撐啦,訓(xùn)練結(jié)果好壞一目了然啦,而且還有大量的人類訓(xùn)練數(shù)據(jù)充當(dāng)參照系。顯然,Open AI正是將工作重心放在了游戲模擬上。
二是比較容易搞出大新聞。電競賽事的復(fù)雜性和難預(yù)測性,導(dǎo)致圍觀群眾常常會把完爆人類選手、游戲跑分等作為衡量算法價值的標(biāo)尺,進(jìn)而成為評價一個公司技術(shù)能力的標(biāo)準(zhǔn)。與玩家對抗容易吸引關(guān)注,也成了Open AI刷存在感的主要方式。
不過,曾經(jīng)將Open AI捧上神壇的游戲,也正讓它深陷泥沼。最為明顯的一點,就是日復(fù)一日地玩游戲,而忘記了主業(yè)是為了催化變革而生的。導(dǎo)致不少人開始質(zhì)疑Open AI的公益模式。
Open AI 的團(tuán)隊
有人說Open AI最初的夢想是不現(xiàn)實的,也有人說公益項目研究過多但力度不夠,往往難逃無疾而終的命運(yùn)。
反觀隔壁谷歌家的DeepMind,還與暴雪聯(lián)手在星際爭霸Ⅱ中與人類玩家對抗,但回頭就承包了NIPS一半的論文指標(biāo)。同樣是玩游戲,耽誤人當(dāng)學(xué)霸了嗎?沒有!
不過,簡單粗暴地給公益型AI判死刑,顯然不太合適。想要把Open AI從被邊緣化的趨勢中拉回來,恐怕還要經(jīng)歷一場“刮骨療毒”。
AI公益的路真的走不通?只是Open AI先天不足罷了
AI公益的路真的走不通嗎?顯然不是。
除了都通過開源眾包的方式發(fā)布數(shù)據(jù)集和訓(xùn)練平臺之外,谷歌也開始在“AI民主化”的公益道理上試水。
去年的谷歌云計算大會上,就提出了利用谷歌云計算的力量實現(xiàn)AI技術(shù)民主化的目標(biāo),甚至推出了可自動生成機(jī)器學(xué)習(xí)模型的AutoML。
同樣高舉“AGI”(引導(dǎo)AI走向通用智能)大旗,谷歌和Open AI,正在被逐漸擠到越來越狹窄的跑道上。為什么在公益領(lǐng)域,根正苗紅的Open AI,居然比企業(yè)還后勁不足呢?這恐怕還要從“非營利機(jī)構(gòu)”經(jīng)營模式的先天不足說起:
1. 自由與迷茫:公益的雙刃劍。
不以盈利為目的的理想主義,是Open AI的優(yōu)點,也正在成為Open AI的弱點。
宏大的使命和愿景,讓Open AI可以吸引人才、贏得注意力并保持競爭力。但沒有商業(yè)目標(biāo)驅(qū)動,也讓Open AI缺乏目標(biāo)意識,最終展現(xiàn)出的就是對自己未來幾年內(nèi)想做什么沒有明確的想法。
工作重點和主題,行動路線是什么,如何滿足受眾的需求和期待?都是云山霧罩,只能靠打游戲“混日子”。
2. 過分松散的管理體制和缺位的監(jiān)督機(jī)制。
Open AI給予了員工很大的自由度和開放度,因此即便是薪酬低于企業(yè)主也能找來不少頂級人才。但這也帶來了兩個難題:
一是缺乏清晰有效的監(jiān)督機(jī)制,產(chǎn)出效率只能建立在投資人一般性觀察的基礎(chǔ)上,這就使得工作成果很難被有效評估,也很容易因為惰性、人員變動、政治因素等讓組織行動流于形式;
二是留住人才的不確定性大大增強(qiáng)?!坝脨郯l(fā)電”固然高尚,但因此而來的高級人才一旦在工作中難以滿足自我實現(xiàn),就會面臨人才流失的問題。顯然,Open AI還沒有相應(yīng)的激勵機(jī)制去讓員工始終如一地保持最初的熱情和斗志。
問題已經(jīng)開始顯現(xiàn),最近 Open AI 的研究員不斷流失。著名研究員、GAN提出者Ian Goodfellow 在今年2月底離開Open AI,重新回到了谷歌大腦。
3. 薄弱的公共關(guān)系與可持續(xù)性。
與企業(yè)動輒投入不菲的營銷與公關(guān)策略不同,Open AI這樣的非營利性組織要保持良好的公共關(guān)系和知名度顯然更為不易。
而人工智能項目想要順利進(jìn)行下去必須投入大量的人力和硬件。目前Open AI還停留在吃老本的階段(2015年拿到的10億美元投資),未來如何募集資金是必然會面臨的問題。
當(dāng)電競策略開始引發(fā)認(rèn)知疲勞、特斯拉這棵大樹“自身難?!钡漠?dāng)下,Open AI必須主動打破營銷乏力的組織慣性。
一句話,Open AI起于公益,也困于公益。當(dāng)外界在譴責(zé)Open AI“小時了了,大未必佳”的時候,可能一直都忽略了一個問題,就是非營利性組織的先天弱點。
它并不是孤例。前微軟創(chuàng)始人Paul Allen曾投資1億美元到先進(jìn)技術(shù)智囊團(tuán),也和很多技術(shù)公益項目一樣無疾而終。這也提醒我們:一個弱中心組織在將人類的未來捆綁在自己身上之前,首先要克服自身的諸多困境。
走出青春期:Open AI的未來向何處去?
與越來越封閉的企業(yè)AI和日趨商業(yè)化的學(xué)術(shù)AI相比,Open AI這樣思想覺悟和業(yè)務(wù)水平都在線的稀有物種,真是讓人舍不得求全責(zé)備。
所以,我們不妨以更全面的視角,來考量下一個問題——以社會責(zé)任為己任的Open AI,應(yīng)該如何走出迷茫期?
這里有三個小建議:
1. 構(gòu)建長期性策略。在組織共識的基礎(chǔ)上,將“實現(xiàn)AI民主”這樣寬泛而模糊的使命,轉(zhuǎn)化成實質(zhì)性、可量度的行動目標(biāo),推動Open AI自身成長演化,即便是游戲打怪也更加有的放矢。
2. 有力的領(lǐng)導(dǎo)核心。即便有了清晰的使命,缺乏有力的領(lǐng)導(dǎo)人,就像一條船有航行圖卻沒有稱職的船長一樣。建立初期,Open AI是靠埃隆·馬斯克和山姆·奧爾特曼來支撐,如今馬斯克已經(jīng)離開了Open AI的董事會,建立一個強(qiáng)有力的領(lǐng)導(dǎo)核心,對Open AI至關(guān)重要。
3. 健全的財務(wù)體系。目前大家對Open AI打游戲已經(jīng)有點疲了,“在游戲中打贏xxx”已經(jīng)很難吸引媒體加以報道,想要改變這種印象,Open AI還需要拿點新東西出來才行。機(jī)構(gòu)名聲越好,越容易爭取到第三方的資金援助。正如馬斯克所說,一般非盈利機(jī)構(gòu)的任務(wù)都是不緊急的,但Open AI不是,它要做的事情迫在眉睫。
總而言之,一旦大眾和媒體與非營利組織的蜜月期過去,失去了濾鏡的Open AI就不得不面對青春期的迷茫和成長陣痛。能不能完成自我進(jìn)化,完全取決于自身的適應(yīng)能力。
德魯克有句名言,營利組織向非營利組織學(xué)使命,非營利組織向營利組織學(xué)效率。連酷愛霸權(quán)的谷歌都不得不踏上了“AI民主化”的康莊大道,Open AI也是時候開始描繪更清晰的演化路線圖了。
免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。