online gambling singapore online gambling singapore online slot malaysia online slot malaysia mega888 malaysia slot gacor live casino malaysia online betting malaysia mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 【2018 AI 發展總整理】AI開放原始碼 的 5 大領域進展

摘要: AI 領域蓬勃發展,今年深度學習、強化學習、自然語言學習等皆有所成長與突破。本文整理了 2018 年 AI 領域的重大進展,同時也給出了相關的資源位址,以便大家使用、查詢。

 


2018 ,仍是 AI 領域激動人心的一年。

這一年成為 NLP(Natural Language Processing,自然語言處理)研究的分水嶺,各種突破接連不斷; CV(Computer Vision,電腦視覺)領域同樣精采紛呈,與四年前相比 GAN(Generative Adversarial Network,生成對抗網路)生成的假臉逼真到讓人不敢相信;新工具、新框架的出現,也讓這個領域的明天特別讓人期待。

近日, Analytics Vidhya 發佈了一份 2018 人工智慧技術總結與 2019 趨勢預測報告,原文作者 PRANAV DAR 。量子位在保留這個報告架構的基礎上,對內容進行了重新編輯和補充。

這份報告總結和整理了全年主要 AI 技術領域的重大進展,同時也給出了相關的資源位址,以便大家更好的使用、查詢。

報告共涉及了五個主要部分:
自然語言處理(NLP)
電腦視覺(CV)
工具和庫 
強化學習(RL)
AI 道德

下面,我們就逐一來盤點和展望。

自然語言處理(NLP)

2018 年在 NLP 歷史上的特殊地位,已經毋庸置疑。

這份報告認為,這一年正是 NLP 的分水嶺。 2018 年裡, NLP 領域的突破接連不斷: ULMFiT 、 ELMo 、最近大熱的 BERT。

遷移學習成了 NLP 進展的重要推動力。從一個預訓練模型開始,不斷去適應新的數據,帶來了無盡的潛力,甚至有「NLP 領域的 ImageNet 時代已經到來」一說。

■ ULMFiT
這個縮寫,代表「通用語言模型的微調」,出自 ACL 2018 論文: Universal Language Model Fine-tuning for Text Classification。

正是這篇論文,打響了今年 NLP 遷移學習狂歡的第一槍。

論文兩名作者一是 Fast.ai 創始人 Jeremy Howard ,在遷移學習上經驗豐富;一是自然語言處理方向的博士生 Sebastian Ruder ,他的 NLP 博客幾乎所有同行都在讀。

兩個人的專長綜合起來,就有了 ULMFiT 。想要搞定一項 NLP 任務,不再需要從 0 開始訓練模型,拿來 ULMFiT ,用少量數據微調一下,它就可以在新任務上實現更好的性能。

他們的方法,在六項文本分類任務上超越了之前最先進的模型。

詳細的說明可以讀他們的 論文 
Fast.ai 網站 上放出了訓練腳本、模型

■ ELMo
這個名字,當然不是指《芝麻街》裡那個角色,而是「語言模型的詞嵌入」,出自艾倫人工智慧研究院和華盛頓大學的論文 Deep contextualized word representations , NLP 頂會 NAACL HLT 2018 的優秀論文之一。

ELMo 用語言模型(language model)來獲取詞嵌入,同時也把詞語所處句、段的語境考慮進來。

這種語境化的詞語表示,能夠體現一個詞在語法語義用法上的複雜特徵,也能體現它在不同語境下如何變化。

當然, ELMo 也在試驗中展示出了強大功效。把 ELMo 用到已有的 NLP 模型上,能夠帶來各種任務上的性能提升。比如在機器問答數據集 SQuAD 上,用 ELMo 能讓此前最厲害的模型成績在提高 4.7 個百分點。

這裡 有 ELMo 的更多介紹和資源

■ BERT
說 BERT 是 2018 年最火的 NLP 模型,一點也不為過,它甚至被稱為 NLP 新時代的開端。

它由 Google 推出,全稱是 Bidirectional Encoder Representations from Transformers ,意思是來自 Transformer 的雙向編碼器表示,也是一種預訓練語言表示的方法。

從性能上來看,沒有哪個模型能與 BERT 一戰。它在 11 項 NLP 任務上都取得了最頂尖成績,到現在, SQuAD 2.0 前 10 名只有一個不是 BERT 變體:

如果你還沒有讀過 BERT 的 論文 ,真的應該在 2018 年結束前補完這一課。
另外,Google 官方開源了 訓練代碼和預訓練模型 。
如果你是 PyTorch 黨,也不怕。這裡還有官方推薦的 PyTorch 重實現和轉換腳本 。

■ PyText
BERT 之後, NLP 圈在 2018 年還能收穫什麼驚喜?答案是,一款新工具。

就在上週末, Facebook 開源了自家工程師們一直在用的 NLP 建模框架 PyText 。這個框架,每天要為 Facebook 旗下各種應用處理超過 10 億次 NLP 任務,是一個工業級的工具包。

(Facebook 開源新 NLP 框 架:簡化部署流程,大規模應用也 OK)

PyText 基於 PyTorch ,能夠加速從研究到應用的進度,從模型的研究到完整實施只需要幾天時間。框架裡還包含了一些預訓練模型,可以直接拿來處理文本分類、序列標註等任務。

想試試?開源地址 在此

■ Duplex
如果前面這些研究對你來說都太抽象的話, Duplex 則是 NLP 進展的最生動例證。

名字有點陌生?不過這個產品你一定聽說過,它就是 Google 在 2018 年 I/O 開發者大會上展示的「打電話 AI」。

它能主動打電話給美髮店、餐館預約服務,全程流暢交流,簡直以假亂真。 Google 董事長 John Hennessy 後來稱之為「非凡的突破」,還說:「在預約領域,這個 AI 已經通過了圖靈測試」。

Duplex 在多輪對話中表現出的理解能力、合成語音的自然程度,都是 NLP 目前水平的體現。

■ 2019 年展望 
NLP 在 2019 年會怎麼樣?我們借用一下 ULMFiT 作者 Sebastian Ruder 的展望:

預訓練語言模型嵌入將無處不在:不用預訓練模型,從頭開始訓練達到頂尖水平的模型,將十分罕見。

能編碼專業信息的預訓練表示將會出現,這是語言模型嵌入的一種補充。到時候,我們就能根據任務需要,把不同類型的預訓練表示結合起來。

在多語言應用、跨語言模型上,將有更多研究。特別是在跨語言詞嵌入的基礎上,深度預訓練跨語言表示將會出現。

電腦視覺(CV)

今年,無論是圖象還是影片方向都有大量新研究問世,有三大研究曾在 CV 圈掀起了集體波瀾。

■ BigGAN
今年 9 月,當搭載 BigGAN 的雙盲評審中的 ICLR 2019 論文現身,行家們就沸騰了:簡直看不出這是 GAN 自己生成的。

在電腦圖像研究史上, BigGAN 的效果比前人進步了一大截。比如在 ImageNet 上進行 128 × 128 分辨率的訓練後,它的 Inception Score(IS)得分 166.3 ,是之前最佳得分 52.52 的 3 倍。

除了搞定 128 × 128 小圖之外, BigGAN 還能直接在 256 × 256 、 512 × 512 的 ImageNet 數據上訓練,生成更讓人信服的樣本。

在論文中研究人員揭秘, BigGAN 的驚人效果背後,真的付出了金錢的代價,最多要用 512 個 TPU 訓練,費用可達 11 萬美元,合人民幣 76 萬元(約新台幣 330 萬元)。

不止是模型參數多,訓練規模也是有 GAN 以來最大的。它的參數是前人的 2 – 4 倍,批次大小是前人的 8 倍。

研究論文

■ Fast.ai 18 分鐘訓練整個 ImageNet

在完整的 ImageNet 上訓練一個模型需要多久?各大公司不斷下血本刷新著記錄。

不過,也有不那麼燒計算資源的平民版。

今年 8 月,在線深度學習課程 Fast.ai 的創始人 Jeremy Howard 和自己的學生,用租來的亞馬遜 AWS 的雲端運算資源, 18 分鐘在 ImageNet 上將圖像分類模型訓練到了 93% 的準確率。

前前後後, Fast.ai 團隊只用了 16 個 AWS 雲實例,每個實例搭載 8 塊英偉達 V100 GPU ,結果比 Google 用 TPU Pod 在斯坦福 DAWNBench 測試上達到的速度還要快 40%。

這樣拔群的成績,成本價只需要 40 美元(約 1200 元新台幣), Fast.ai 在博客中將其稱作人人可實現。

Fast.ai 博客介紹

■ vid2vid 技術 
今年 8 月,英偉達和 MIT 的研究團隊高出一個超逼真高解析影片生成 AI。

只要一幅動態的語義地圖,就可獲得和真實世界幾乎一模一樣的影片。換句話說,只要把你心中的場景勾勒出來,無需實拍,電影級的影片就可以自動 P 出來:

除了街景,人臉也可生成:

這背後的 vid2vid 技術,是一種在生成對抗性學習框架下的新方法:精心設計的生成器和鑒別器架構,再加上時空對抗目標。

這種方法可以在分割蒙版、素描草圖、人體姿勢等多種輸入格式上,實現高分辨率、逼真、時間相干的影片效果。

好消息, vid2vid 現已被英偉達開源。

研究論文 
GitHub 地址

■ 2019 趨勢展望 

Analytics Vidhya 預計,明年在電腦視覺領域,對現有方法的改進和增強的研究可能多於創造新方法。

在美國,政府對無人機的限令可能會稍微「鬆綁」,開放程度可能增加。而今年火熱的自監督學習明年可能會應用到更多研究中。

Analytics Vidhya 對視覺領域也有一些期待,目前來看,在 CVPR 和 ICML 等國際頂會上公佈最新研究成果,在工業界的應用情況還不樂觀。他希望在 2019 年,能看到更多的研究在實際場景中落地。

Analytics Vidhya 預計,視覺問答(Visual Question Answering,VQA)技術和視覺對話系統可能會在各種實際應用中首次亮相。

工具和框架

哪種工具最好?哪個框架代表了未來?這都是一個個能永遠爭論下去的話題。

沒有異議的是,不管爭辯的結果是什麼,我們都需要掌握和瞭解最新的工具,否則就有可能被行業所拋棄。

今年,機器學習領域的工具和框架仍在快速的發展,下面就是這方面的總結和展望。

■ PyTorch 1.0

根據 10 月 GitHub 發佈的 2018 年度報告, PyTorch 在增長最快的開源項目排行上,名列第二。也是唯一入圍的深度學習框架。

作為谷歌 TensorFlow 最大的「勁敵」, PyTorch 其實是一個新兵, 2017 年 1 月 19 日才正式發佈。 2018 年 5 月, PyTorch 和 Caffe2 整合,成為新一代 PyTorch 1.0 ,競爭力更進一步。

相較而言, PyTorch 速度快而且非常靈活,在 GitHub 上有越來越多的開碼都採用了 PyTorch 框架。可以預見,明年 PyTorch 會更加普及。

至於 PyTorch 和 TensorFlow 怎麼選擇?在我們之前發過的一篇報導裡,不少大老站 PyTorch。

實際上,兩個框架越來越像。前 Google Brain 深度學習研究員 Denny Britz 認為,大多數情況下,選擇哪一個深度學習框架,其實影響沒那麼大。

PyTorch 官網

■ AutoML
很多人將 AutoML 稱為深度學習的新方式,認為它改變了整個系統。有了 AutoML ,我們就不再需要設計複雜的深度學習網絡。

今年 1 月 17 日,谷歌推出 Cloud AutoML 服務,把自家的 AutoML 技術通過雲平台對外發佈,即便你不懂機器學習,也能訓練出一個定製化的機器學習模型。

不過 AutoML 並不是谷歌的專利。過去幾年,很多公司都在涉足這個領域,比方國外有 RapidMiner 、 KNIME 、 DataRobot 和 H2O.ai 等等。

除了這些公司的產品,還有一個開源庫要介紹給大家: Auto Keras

這是一個用於執行 AutoML 任務的開源庫,意在讓更多人即便沒有人工智慧的專家背景,也能搞定機器學習這件事。

這個庫的作者是美國德州農工大學(Texas A&M University)助理教授胡俠和他的兩名博士生:金海峰、 Qingquan Song 。 Auto Keras 直擊谷歌 AutoML 的三大缺陷:

第一,得付錢。
第二,因為在雲端上,還得配置 Docker 容器和 Kubernetes 。
第三,服務商 Google 保證不了你的數據安全和隱私。

官網 
GitHub

■ TensorFlow.js
今年 3 月底的 TensorFlow 開發者會峰會 2018 上, TensorFlow.js 正式發佈。

這是一個面向 JavaScript 開發者的機器學習框架,可以完全在瀏覽器中定義和訓練模型,也能導入離線訓練的 TensorFlow 和 Keras 模型進行預測,還對 WebGL 實現無縫支持。

在瀏覽器中使用 TensorFlow.js 可以擴展更多的應用場景,包括展開交互式的機器學習、所有數據都保存在客戶端的情況等。

實際上,這個新發佈的 TensorFlow.js ,就是基於之前的 deeplearn.js ,只不過被整合進 TensorFlow 之中。

谷歌還給了幾個 TensorFlow.js 的應用案例。比如借用你的攝影機,來玩經典遊戲:吃豆人(Pac-Man)。

官網

■ 2019 趨勢展望 
在工具這個主題中,最受關注的就是 AutoML 。因為這是一個真正會改變遊戲規則的核心技術。在此,引用 H2O.ai 的大神 Marios Michailidis(KazAnova)對明年 AutoML 領域的展望:

以智慧可視化、提供洞見等方式,幫助描述和理解數據 
為數據集發現、構建、提取更好的特徵 
快速構建更強大、更智能的預測模型 
通過機器學習可解釋性,彌補黑盒建模帶來的差距 
推動這些模型的產生

強化學習(RL)

強化學習還有很長的路要走。

除了偶爾成為頭條新聞之外,目前強化學習領域還缺乏真正的突破。強化學習的研究非常依賴數學,而且還沒有形成真正的產業應用。

希望明年可以看到更多 RL 的實際用例。現在我每個月都會特別關注一下強化學習的進展,以期看到未來可能會有什麼大事發生。

■ OpenAI 的強化學習入門教程 
全無機器學習基礎的人類,現在也可以迅速上手強化學習。

11 月初, OpenAI 發佈了強化學習入門教程: Spinning Up 。從一套重要概念,到一系列關鍵演算法實現代碼,再到熱身練習,每一步都以清晰簡明為上,全程站在初學者角度。

團隊表示,目前還沒有一套比較通用的強化學習教材, RL 領域只有一小撮人進得去。這樣的狀態要改變啊!因為強化學習真的很有用。

教程入口 
GitHub 傳送門

■ 谷歌的強化學習新框架「多巴胺」
Dopamine(多巴胺),這是谷歌今年 8 月發佈的強化學習開源框架,基於 TensorFlow 。

新框架在設計時就秉承著清晰簡潔的理念,所以代碼相對緊湊,大約是 15 個 Python 文件,基於 Arcade Learning Environment(ALE)基準,整合了 DQN 、 C51 、  Rainbow agent 精簡版和 ICML 2018 上的 Implicit Quantile Networks 。

為了讓研究人員能快速比較自己的想法和已有的方法,該框架提供了 DQN 、 C51 、  Rainbow agent 精簡版和 Implicit Quantile Networks 的玩 ALE 基準下的那 60 個雅達利遊戲的完整訓練數據。

另外,還有一組 Dopamine 的教學 colab 。

Dopamine 谷歌博客 
Dopamine github 下載 
colabs
遊戲訓練可視化網頁

■ 2019 趨勢展望 
DataHack Summit 2018 發言人、 ArxivInsights 創始人 Xander Steenbrugge ,也是一名強化學習專家,以下是來自他的總結和展望。

1、由於輔助學習任務越來越多,增加了稀疏的外在獎勵,樣本的複雜性將繼續提高。在非常稀疏的獎勵環境中,效果非常好。

2、正因如此,直接在物理世界訓練將越來越可行,替代當前大多先在虛擬環境中訓練的方法。我預測 2019 年,會出現第一個只由深度學習訓練,沒有人工參與而且表現出色的機器人 demo 出現。

3、在 DeepMind 把 AlphaGo 的故事延續到生物領域之後(AlphaFold),我相信強化學習將逐步在學術領域外創造實際的商業價值。例如新藥探索、電子晶片架構優化、車輛等等。

4、強化學習會有一個明顯的轉變,以前在訓練數據上測試智能體的行為將不再視為「允許」。泛化指標將成為核心,就像監督學習一樣。

AI 道德

AI 被濫用事故在 2018 年被頻頻爆出: Facebook AI 幫助川普當選美國總統、 Google 與美國軍方聯手開發 AI 武器、微軟為移民和海關執法局(ICE)提供雲端計算和人臉識別服務。

每一次事故都會重新掀起一波對 AI 道德準則的討論高潮,一些矽谷科技公司也再次期間制定了企業 AI 準則。

Analytics Vidhya 認為, AI 道德現在還是一個灰色地帶,目前還沒有所有人可以遵循的框架, 2019 年將有更多企業和政府制定相關條例。

AI 道德規範的制定,現在才剛剛起步。

轉貼自: BuzzOrange

 


留下你的回應

以訪客張貼回應

0

在此對話中的人們

YOU MAY BE INTERESTED