15 篇最新 AI 論文來襲!NLP、C
這是 的第 72 篇文章
via an
@ 推薦
#
本文主要研究機(jī)器翻譯領(lǐng)域最先進(jìn)的 系統(tǒng)( is all you need)。針對該系統(tǒng)解碼效率底下的問題,本文在模型設(shè)計(jì)層面提出平均注意網(wǎng)絡(luò),在不損失翻譯質(zhì)量的情況下,本文所提模型有效提升解碼速率 4~7 倍。
本文在 WMT 六個(gè)語言對 12 個(gè)翻譯方向上進(jìn)行了實(shí)驗(yàn)論證,結(jié)果一致地表明本文所提模型可以有效地提升解碼速率,并生成高質(zhì)量譯文。
論文鏈接
代碼鏈接
for
@ 推薦
#
本文來自 ’18。深度表征學(xué)習(xí)網(wǎng)絡(luò)可以自動地學(xué)習(xí)數(shù)據(jù)集中數(shù)據(jù)的表示,但是這也存在局限性,其被局限到被采樣的數(shù)據(jù)中,而對未見過的數(shù)據(jù)域泛化能力有限。本文借助對抗網(wǎng)絡(luò)對表征學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行正則化,其分類器向表征網(wǎng)絡(luò)提供負(fù)反饋,使其不會陷入特定數(shù)據(jù)域的表征學(xué)習(xí),從而提升網(wǎng)絡(luò)對的泛化能力。
論文鏈接
@ 推薦
#Text
本文來自 AI ,論文使用層次話結(jié)構(gòu)做故事生成,解決長依賴性問題。少信息->多信息, self- + , 時(shí) word 從 word prob 中隨機(jī)選取,可減少生成重復(fù)文本。
論文鏈接
DOTA: A - for in
@ 推薦
#
本文提出了一個(gè)數(shù)據(jù)集,包含 2806 張遙感圖像(大小約 4000*4000),188,282 個(gè) ,分為 15 個(gè)類別。
論文鏈接
代碼鏈接
數(shù)據(jù)集鏈接
Deep
@ 推薦
#
脈沖神經(jīng)網(wǎng)絡(luò)(SNN)在生物理論中備受關(guān)注。理論上脈沖神經(jīng)網(wǎng)絡(luò)應(yīng)該與人工神經(jīng)網(wǎng)絡(luò)的性能是相同的,但是訓(xùn)練深層的 SNN 是非常困難的。本文提出了一種脈沖版本的 ,并且在 、 等數(shù)據(jù)集上實(shí)驗(yàn)得到了 of the art的結(jié)果。
論文鏈接
Deep for
@ 推薦
#
本文是亞馬遜和 UT 發(fā)表于 ICLR 2018 的工作,論文在命名實(shí)體識別的方法上引入主動學(xué)習(xí),在少量數(shù)據(jù)集即可達(dá)到較優(yōu)結(jié)果,感覺也可以擴(kuò)展到其他自然語言方向。
論文鏈接
An
@ 推薦
#
本文來自微軟,本文結(jié)合 deep 和 rank net,設(shè)計(jì)對成對的圖片的 排序模型。模型首先使用深度卷積得到網(wǎng)絡(luò)圖片的 的均值和方差,然后使用設(shè)計(jì)好的標(biāo)準(zhǔn),對兩個(gè)圖片之間的關(guān)系進(jìn)行預(yù)測。
論文把模型排序結(jié)果和搜索引擎排序結(jié)果比較,質(zhì)量得到較明顯提升。
論文鏈接
as : , LINE, PTE, and
@ 推薦
#
本文來自清華和微軟。論文創(chuàng)造性地將 ,LINE, 等 的方法,通過 框架來統(tǒng)一表示。
進(jìn)一步地基于 的思路,作者提出 方法,實(shí)驗(yàn)證明優(yōu)于 ,LINE 的算法。此外作者也給出了相關(guān) 的嚴(yán)格數(shù)學(xué)證明。
論文鏈接
代碼鏈接
for
@ 推薦
#
本文是北京大學(xué)發(fā)表于 ACL 2018 的工作,論文提出用 解決句內(nèi)重復(fù)和輸入輸出語義無關(guān)問題, Unit + Self 。
論文鏈接
Look to See : for Fine-
@RTM 推薦
#
本文是 CVPR 2017 的一篇 Oral 文章,主要工作集中在細(xì)粒度圖片識別。文中提出了一種級聯(lián)的網(wǎng)絡(luò)結(jié)構(gòu),通過 sub- 實(shí)現(xiàn)粗粒度圖片到細(xì)粒度圖片的獲取和識別,文中充分利用了卷積神經(jīng)網(wǎng)絡(luò)的注意力機(jī)制,在原始圖片的基礎(chǔ)上裁剪、放大識別圖片中目標(biāo)。
論文鏈接
An for a and View
@ 推薦
#
本文來自 ,提出用 根據(jù)不同的輸入粒度計(jì)算相似度,將答案的特定部分中的局部信息與整個(gè)問題的全局表示相結(jié)合。 的關(guān)鍵就是文本相似度的計(jì)算,文章有可以學(xué)習(xí)的地方。
最后在 上評估系統(tǒng),實(shí)驗(yàn)?zāi)康氖强醋⒁饬C(jī)制關(guān)注的哪些部分文本,并探究其在不同參數(shù)設(shè)置下的表現(xiàn),結(jié)果比 IBM( for )提出的 LSTM 稍微提高了一些。
論文鏈接
Deep & for Ad
@c0de 推薦
#Ad
本文來自斯坦福大學(xué)和 ,論文利用深度學(xué)習(xí)自動高效得學(xué)習(xí)高階交叉特征,免去特征工程。
論文鏈接
- with
@ 推薦
#
本文來自斯坦福吳恩達(dá)組,該論文主要做的事情建立了從單導(dǎo)聯(lián)的心電信號到 14 種心臟疾病的模型,模型是一個(gè) 34 層的 CNN 網(wǎng)絡(luò)。文章定義了 12 種心臟異常狀態(tài)和竇性心率及噪聲,共 14 種。模型主要是 34 層的殘差 CNN 將 ECG 序列映射到 序列。
本文聲稱自己的模型超過了心電科的醫(yī)生,不同于傳統(tǒng)的提取各種統(tǒng)計(jì)指標(biāo)再訓(xùn)練模型,是一種直接從 訓(xùn)練的模型,確實(shí)能夠減少很多工作量。
論文鏈接
for
@mev 推薦
#
本文介紹了 的一個(gè)檢索式實(shí)現(xiàn),這個(gè)結(jié)果應(yīng)該是實(shí)際產(chǎn)品化了的,有一定的參考價(jià)值。文章中使用了大量的方式來降低模型的 ,并且使最終結(jié)果保持在較高精度。
比較有意思的是文中有一個(gè)實(shí)驗(yàn),使用句子的 sum 來表示句子,然后通過一個(gè) RNN 重新生成原句,在幾十萬詞的數(shù)據(jù)集下得到了 ppl 為 1.2 的結(jié)果,證明了僅僅使用 就可以捕捉到足夠的句子序列信息了。
論文鏈接
: A Deep for of Long-tail Web
@ 推薦
#
作者使用深層自編碼器解決推薦中的一個(gè)新穎問題:長尾推薦問題。探索了深度學(xué)習(xí)在推薦系統(tǒng)中越來越多的領(lǐng)域。
論文鏈接
代碼鏈接
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得紀(jì)念周邊一份
▲機(jī)器學(xué)習(xí)主題行李牌/卡套
▲ 深度學(xué)習(xí)主題防水貼紙
想要贏取以上周邊好禮?