安檢機 | X光安檢機 |
新聞資訊
人工智能被塑造成既拯救世界又終結(jié)世界的矛盾技術(shù)。
為了打破圍繞人工智能的爭論和炒作,VentureBeat與該領(lǐng)域杰出人士交談,由于多年來與世界上一些最大的科技和工業(yè)公司合作,讓他們對人工智能的正確做法有了自己的看法。
以下是Google Brain聯(lián)合創(chuàng)始人吳文達,ML和Fast Forward Labs創(chuàng)始人希拉里·梅森(Hilary Mason),F(xiàn)acebook AI Research創(chuàng)始人Yann LeCun和埃森哲工智全球能負責(zé)人Rumman Chowdhury博士的見解。我們可以了解他們眼中2018年的關(guān)鍵里程碑,以及他們認為2019年將會發(fā)生什么。
在對今年的回顧和對未來的預(yù)測中,一些人表示,隨著越來越多的人了解人工智能能做什么和不能做什么,他們很少聽到終結(jié)者般人工智能末日的場景。但這些專家也強調(diào),在推進人工智能的同時,該領(lǐng)域的計算機和數(shù)據(jù)科學(xué)家仍需要采取負責(zé)任的道德規(guī)范。
圖片來源:圖蟲創(chuàng)意
Rumman Chowdhury博士
Rumman Chowdhury博士是埃森哲應(yīng)用智能部門的常務(wù)董事,也是其負責(zé)任的人工智能計劃的全球負責(zé)人,并于2017年入選BBC的100名女性名單。去年,她在波士頓與Affectiva會議圍繞人工智能討論信任問題。她經(jīng)常就這個話題向世界各地的觀眾發(fā)表講話。
為了節(jié)省時間,她通過電子郵件回答了有關(guān)2019年人工智能預(yù)測的問題。本文中其他人的所有回復(fù)都在電話采訪中分享。
Chowdhury在2018年表示,她很高興看到公眾對人工智能的能力和限制有了更多的了解,并且聽到了對人工智能帶來的威脅的更均衡的討論,除了擔(dān)心像“終結(jié)者”這樣的智能機器全球接管。 “隨之而來的是關(guān)于隱私和安全的意識和問題的增加,以及人工智能在塑造我們和后代方面可能發(fā)揮的作用。”她說。
然而,公眾對人工智能的認識仍然不是她認為需要的地方。在未來的一年里,Chowdhury希望看到更多的人利用教育資源來理解人工智能系統(tǒng),并能夠機智地質(zhì)疑人工智能決策。
她對AI生態(tài)系統(tǒng)中的技術(shù)公司和人們開始考慮其工作的倫理影響的速度感到驚喜。但她希望看到人工智能社區(qū)做得更多,“不止是發(fā)出道德信號,要轉(zhuǎn)向?qū)嶋H行動”。
“至于道德和人工智能領(lǐng)域 – 不止是電車難題 - 我希望看到我們深入研究AI將提出的難題,那些沒有明確答案的問題。支持AI和物聯(lián)網(wǎng)的監(jiān)控的“正確”平衡是什么,既能保證安全,又能抵制懲罰性監(jiān)控狀態(tài),卻深化現(xiàn)有的種族歧視?我們應(yīng)該如何塑造先進技術(shù)收益的再分配,以便我們不會進一步擴大富人和窮人之間的鴻溝?對兒童的接觸水平允許他們成為“AI本地人”,但不會被操縱或同質(zhì)化?我們?nèi)绾问褂萌斯ぶ悄軄頂U展和自動化教育,但仍然能夠使創(chuàng)造力和獨立思想得以蓬勃發(fā)展?”她問道。
在未來一年,Chowdhury預(yù)計將在全球范圍內(nèi)看到更多的政府審查和技術(shù)監(jiān)管。
“人工智能和全球科技巨頭所掌握的權(quán)力,引發(fā)了很多關(guān)于如何規(guī)范行業(yè)和技術(shù)的問題,”她說,“在2019年,我們將不得不開始找到這些問題的答案,當(dāng)一項技術(shù)是一種多用途工具,具有特定背景下的結(jié)果時,你如何規(guī)范技術(shù)?你如何制定既不扼殺創(chuàng)新、也不偏袒大公司(誰來承擔(dān)合規(guī)成本)、又不偏袒小公司的監(jiān)管規(guī)定?我們在什么層面上進行監(jiān)管?國際嗎?國家嗎?當(dāng)?shù)氐?”
她還希望看到人工智能在地緣政治問題上的作用不斷演變。
“這不僅僅是一項技術(shù),而是一種經(jīng)濟和社會的塑造。我們在這項技術(shù)中反思、擴大和鞏固我們的價值觀,我們的行業(yè)需要對我們構(gòu)建的內(nèi)容以及我們?nèi)绾螛?gòu)建它的影響少點天真。”她說。為了實現(xiàn)這一目標(biāo),她認為人們需要摒棄人工智能行業(yè)中常見的想法,即如果我們不構(gòu)建它,中國就會超越我們,仿佛只有這種創(chuàng)造才是力量所在。
“我希望監(jiān)管機構(gòu),技術(shù)專家和研究人員意識到,我們的AI競賽不僅僅是計算能力和技術(shù)敏銳性,就像冷戰(zhàn)不只是核能力一樣。”她說, “我們有責(zé)任以更公正,更公平,更公開的方式重建世界,同時我們有難得的機會。這個時刻是短暫的;我們不要浪費它。”
在消費者層面,她認為2019年將會在家中更多地使用人工智能。許多人已經(jīng)習(xí)慣于使用Google Home和Amazon Echo等智能揚聲器,以及一系列智能設(shè)備。在這方面,她很想知道消費電子展是否會在1月的第二周在拉斯維加斯拉開序幕,這可能會進一步將人工智能整合到人們的日常生活中。
“我想我們都在期待一個機器人管家的到來。”她說。
吳恩達
當(dāng)我們聽到吳恩達在會議或在線課程中講話時,我們總是笑得比想象中的要多,也許是因為很容易和一個充滿激情并且玩得開心的人一起大笑。
吳恩達是斯坦福大學(xué)計算機科學(xué)副教授,由于種種原因,他的名字在AI圈子中無人不知。
吳恩達是Google Brain的聯(lián)合創(chuàng)始人,該公司致力于將人工智能推廣到谷歌的許多產(chǎn)品中,,也是Landing AI的創(chuàng)始人,該公司幫助企業(yè)將AI整合到他們的運營中。
吳恩達還是YouTube和Coursera上一些最受歡迎的機器學(xué)習(xí)課程的講師,Coursera是他創(chuàng)立的一家在線學(xué)習(xí)公司,他還創(chuàng)立了deeplearning.ai,并撰寫了《深度學(xué)習(xí)渴望》一書。
在谷歌工作了三年多,2017年,他離開了他的職位,擔(dān)任百度的首席人工智能科學(xué)家,百度是另一家技術(shù)巨頭,他幫助其轉(zhuǎn)型為人工智能公司。
最后,他還是1.75億美元人工智能基金和無人駕駛汽車公司Fast.ai的董事會成員。
本月早些時候,吳恩達在發(fā)布《人工智能轉(zhuǎn)型指南》時與VentureBeat進行了交談,這是一本關(guān)于起亞如何釋放人工智能對其公司積極影響的簡短讀物。
他希望在2019年看到的一個主要進展或變化領(lǐng)域是AI被用于科技或軟件公司以外的應(yīng)用程序。他說,人工智能領(lǐng)域最大的未開發(fā)機會超出了軟件行業(yè)的范疇,他援引麥肯錫一份報告中的用例稱,到2030年,人工智能將創(chuàng)造13萬億美元的GDP。
“我認為明年(2019年)要講的很多故事都將出現(xiàn)在軟件行業(yè)以外的人工智能包裝設(shè)計應(yīng)用中。作為一個行業(yè),我們在幫助谷歌和百度以及Facebook和微軟等公司(我和它們沒有任何關(guān)系)方面做得不錯,但即使像Square和Airbnb,Pinterest這樣的公司也開始使用一些人工智能功能。我認為,下一次巨大的價值創(chuàng)造浪潮將是你可以讓制造公司或農(nóng)業(yè)設(shè)備公司或醫(yī)療保健公司開發(fā)數(shù)十種人工智能解決方案來幫助他們的業(yè)務(wù)。”
和Chowdhury一樣,吳恩達對2018年AI能做什么和不能做什么的理解的增長感到驚訝,并且很高興能夠在不關(guān)注殺手機器人場景或害怕人工智能的情況下進行對話。
吳恩達說,他故有意回答我們提出的問題,并給出了很多他沒想別人也這么想的答案。
“我試圖有意地引用幾個我認為對實際應(yīng)用非常重要的領(lǐng)域。我認為人工智能的實際應(yīng)用存在障礙,我認為在這些問題上,一些領(lǐng)域取得了有希望的進展。”他說。
在未來的一年里,吳恩達很高興看到AI / ML研究中兩個特定領(lǐng)域的進展有助于推動整個領(lǐng)域的發(fā)展。一個是人工智能,可以用較少的數(shù)據(jù)得出準(zhǔn)確的結(jié)論,一些人在該領(lǐng)域稱為“少樣本學(xué)習(xí)”。
“我認為第一波深度學(xué)習(xí)進展主要在于大公司,它們擁有大量的數(shù)據(jù),可以訓(xùn)練非常大的神經(jīng)網(wǎng)絡(luò),是吧?因此,如果你想構(gòu)建語音識別系統(tǒng),請使用100,000小時的數(shù)據(jù)進行訓(xùn)練。想訓(xùn)練機器翻譯系統(tǒng)?用平行語料庫的數(shù)量對句子進行訓(xùn)練,這會產(chǎn)生很多突破性的結(jié)果。”吳恩達說,“我越來越多地看到在小數(shù)據(jù)上的結(jié)果,即使你有1000張照片,你也想在這些小數(shù)據(jù)上獲取結(jié)果。”
另一個是計算機視覺的進步,稱為“通用可見性”。“如果用斯坦福大學(xué)高端x光機拍攝的原始圖像訓(xùn)練電腦視覺系統(tǒng),效果可能會很好。”許多先進的公司和該領(lǐng)域的研究人員已經(jīng)創(chuàng)造出了比人類放射學(xué)家更出色的系統(tǒng),但它們并不是很靈活。
“但是,如果你采用訓(xùn)練有素的模型,并將其應(yīng)用于從低端X光機拍攝的X射線或從不同的醫(yī)院拍攝,其中圖像有點模糊,也許X射線技術(shù)人員有意讓患者略微向右轉(zhuǎn),所以角度有點偏離,事實證明,人類放射科醫(yī)師在推廣這一新環(huán)境方面比今天的學(xué)習(xí)算法要好得多。因此,我認為有趣的研究正在嘗試提高新領(lǐng)域?qū)W習(xí)算法的普遍性。”他說。
Yann LeCun
Yann LeCun是??紐約大學(xué)的教授,F(xiàn)acebook首席人工智能科學(xué)家,F(xiàn)acebook AI Research(FAIR)的創(chuàng)始董事,該公司創(chuàng)建了PyTorch 1.0和Caffe2,以及許多人工智能系統(tǒng) - 就像文本翻譯人工智能工具,F(xiàn)acebook每天使用數(shù)十億次或使用高級強化學(xué)習(xí)系統(tǒng)。
LeCun認為,F(xiàn)AIR在其研究和工具中采用的開源政策,有助于推動其他大型科技公司做同樣的事情,他認為這已經(jīng)將AI領(lǐng)域作為一個整體推進。 LeCun上個月在NeurIPS會議和FAIR五周年之際與VentureBeat進行了交談,他描述FAIR是一個組織,對機器學(xué)習(xí)的技術(shù)、數(shù)學(xué)感興趣,使其全部起作用。
“當(dāng)更多人就研究進行溝通時,整個領(lǐng)域的進展更快,這實際上會產(chǎn)生非常大的影響。”他說,“你今天在人工智能中看到的進步速度很大程度上是因為更多的人比以往更快、更有效率地進行更開放的研究。”
在倫理方面,LeCun很高興看到在簡單考慮工作的倫理影響和偏見決策的危險方面取得的進展。
“這些人們本應(yīng)該注意的問題現(xiàn)在終于開始得到關(guān)注了。但在兩三年前情況并非如此。”他說。
LeCun表示他不相信人工智能中的道德和偏見已經(jīng)成為一個需要立即采取行動的主要問題,但他認為人們應(yīng)該做好準(zhǔn)備。
他說:“我認為還有......重大的生死問題需要緊急解決,但問題會出現(xiàn),我們需要......了解這些問題,并在這些問題發(fā)生之前加以預(yù)防。”
與吳恩達一樣,LeCun希望看到更多的AI系統(tǒng)具有靈活性,可以產(chǎn)生強大的AI系統(tǒng),不需要原始輸入數(shù)據(jù)或精確條件來實現(xiàn)精確輸出。
LeCun表示,研究人員已經(jīng)可以通過深度學(xué)習(xí)很好地管理感知,但缺少的部分是對完整AI系統(tǒng)整體架構(gòu)的理解。
他說,通過觀察世界訓(xùn)練機器來學(xué)習(xí)將需要自我監(jiān)督學(xué)習(xí)或基于模型的強化學(xué)習(xí)。
“不同的人給它起了不同的名字,但從本質(zhì)上說,人類嬰兒和動物通過觀察了解世界是如何運轉(zhuǎn)的,并弄清楚關(guān)于它的大量背景信息,而我們還不知道如何用機器做到這一點,但這就是一個巨大的挑戰(zhàn)。”他說,“這實質(zhì)上是在人工智能和機器方面取得真正進展,讓人們擁有一些常識和虛擬助理,與之交談不會令人沮喪,話題和討論范圍也會更廣。”
對于將在Facebook內(nèi)部提供幫助的應(yīng)用程序,LeCun表示在自我監(jiān)督學(xué)習(xí)方面取得的重大進展將非常重要,同時人工智能需要更少的數(shù)據(jù)來反饋準(zhǔn)確的結(jié)果。
“在解決這個問題的過程中,我們希望找到減少任何特定任務(wù)所需的數(shù)據(jù)量的方法,如機器翻譯或圖像識別或類似的事情,我們已經(jīng)在這方面取得了進展;我們已經(jīng)通過弱監(jiān)督或自我監(jiān)督學(xué)習(xí)翻譯和圖像識別,對Facebook使用的服務(wù)產(chǎn)生了影響。因此,這些事情不僅僅是長期的,它們也會產(chǎn)生非常短期的后果。”他說。
在未來,LeCun希望看到在人工智能方面取得的進展,能夠在事件之間建立因果關(guān)系。這不僅是通過觀察來學(xué)習(xí)的能力,也是通過實際的理解來學(xué)習(xí)的能力,例如,如果人們帶雨傘,可能會下雨。
“那將是非常重要的,因為如果你想讓一臺機器通過觀察來學(xué)習(xí)世界的模型,它必須能夠知道它可以影響什么,從而改變世界的狀態(tài),還有一些事情是你做不了的。” 他說,“你知道,如果你在一個房間里,桌子就在你面前,它上面有一個物體,比如一個水瓶,你知道你推動水瓶,它會移動,但你不能移動桌子,因為它很大很重,這樣的事情與因果關(guān)系有關(guān)。”
希拉里·梅森
在Cloudera于2017年收購Fast Forward Labs之后,希拉里·梅森成為了Cloudera的機器學(xué)習(xí)負責(zé)人。Fast Forward Labs雖然吸收了Cloudera,但仍在運作中,提供應(yīng)用機器學(xué)習(xí)報告,并幫助客戶預(yù)測未來六個月到兩年的情況。
人工智能在2018年讓梅森感到驚訝的一個進步與多任務(wù)學(xué)習(xí)有關(guān),它可以訓(xùn)練單個神經(jīng)網(wǎng)絡(luò),在推斷例如圖像中看到的物體時應(yīng)用多種標(biāo)簽。
Fast Forward Labs也一直在為客戶提供有關(guān)AI系統(tǒng)倫理影響的建議。梅森認為有必要建立某種道德框架。
“這是自從我們創(chuàng)建Fast Forward以來的事情,所以,五年前就開始了,我們一直在撰寫關(guān)于道德規(guī)范的報告,但是今年[2018]人們已經(jīng)真正開始接受并關(guān)注,我想明年我們“會開始看到公司和那些不關(guān)注這個問題的人們在這個領(lǐng)域嘗到的后果或承擔(dān)的責(zé)任。”梅森說,“我沒有說清楚的是,我希望數(shù)據(jù)科學(xué)和人工智能的實踐發(fā)展成為默認的期望,技術(shù)人員和商業(yè)領(lǐng)袖創(chuàng)建AI產(chǎn)品將考慮道德和偏見問題,而今天并不是任何人都想到這些問題,把它們當(dāng)做一種默認。”
隨著更多AI系統(tǒng)成為未來一年業(yè)務(wù)運營的一部分,梅森預(yù)計產(chǎn)品經(jīng)理和產(chǎn)品負責(zé)人將開始在AI方面做出更多貢獻,因為他們處于最佳狀態(tài)。
“我認為很明顯是那些了解整個產(chǎn)品的人,并且理解企業(yè)了解什么是有價值的,什么是沒價值的,他們處于最佳位置,能夠決定他們應(yīng)該在哪里投資。”她說,“所以,如果你想要我預(yù)測,我想,就像我們希望所有這些人都能使用電子表格這樣簡單建模,我們很快就會期望他們在認識到自己產(chǎn)品中的人工智能機會時,也能有這家的簡單能力。
人工智能的民主化,或者擴張到數(shù)據(jù)科學(xué)團隊以外的公司的角落,是幾家公司所強調(diào)的,包括Kubeflow Pipelines和AI Hub等Google Cloud AI產(chǎn)品,以及CI&T咨詢公司的建議,以確保AI系統(tǒng)實際上是在公司內(nèi)使用。
梅森還認為,越來越多的企業(yè)需要形成結(jié)構(gòu)來管理多個人工智能系統(tǒng)。
就像有時用于描述在DevOps中工作的人所面臨的挑戰(zhàn)的類比,梅森說,管理單個系統(tǒng)可以使用手動部署的自定義腳本完成,而cron作業(yè)可以管理幾十個。但是,當(dāng)你管理數(shù)十個或數(shù)百個系統(tǒng)時,在具有安全性、治理和風(fēng)險要求的企業(yè)中,你需要專業(yè)、強大的工具。
她說,企業(yè)正在從擁有一定能力甚至是聰明才智轉(zhuǎn)變?yōu)橛邢到y(tǒng)地追求機器學(xué)習(xí)和人工智能機會。
由于Cloudera最近推出了自己的基于容器的機器學(xué)習(xí)平臺,因此強調(diào)部署AI的容器對梅森來說很有意義。 她相信這種趨勢將在未來幾年繼續(xù),因此公司可以選擇在云中部署和內(nèi)部部署AI作出選擇。
最后,梅森認為,人工智能的業(yè)務(wù)將繼續(xù)發(fā)展,在整個行業(yè)內(nèi),而不僅僅是在單個公司內(nèi),會有共同的實踐。
“我認為我們將看到人工智能專業(yè)實踐的不斷發(fā)展。”她說, “現(xiàn)在,如果你是一家公司的數(shù)據(jù)科學(xué)家或ML工程師,而你跳槽到另一家公司,你的工作將完全不同:不同的工具,不同的期望,不同的報告結(jié)構(gòu)。我想我們會看到這種一致性。”她說。