<label id="qqrfm"><meter id="qqrfm"></meter></label>
      <span id="qqrfm"></span><label id="qqrfm"><meter id="qqrfm"></meter></label>

        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!

        近日,阿里 AI 開源了新一代人機對話模型 Enhanced Sequential Inference Model(ESIM)。ESIM 是一種專為自然語言推斷而生的加強版 LSTM,據阿里介紹,該算法模型自 2017 年被提出之后,已被谷歌、facebook 在內的國際學術界在論文中引用 200 多次,更曾在國際頂級對話系統評測大賽(DSTC7)上獲得雙料冠軍,并將人機對話準確率的世界紀錄提升至 94.1%。

        ESIM 模型在智能客服、導航軟件、智能音箱等場景均具有廣泛的應用前景。阿里 AI 發布了相關論文介紹了該模型,雷鋒網(公眾號:雷鋒網) AI 科技評論將其編譯如下。

        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!

        ESIM 引入背景

        極具潛力和商業價值的人機對話系統正在受到越來越多的關注。隨著近來深度學習模型的引入,我們在構建端到端的對話系統過程中有了更高的成功幾率。然而這一對話系統的構建仍然充滿了挑戰,它要求系統記憶并理解多輪對話文本,而不是像單輪對話系統那樣僅僅考慮當前的話語內容。

        多輪對話系統建模可分為基于生成文本的方法和基于檢索的方法。基于檢索的方法將從多輪對話的候選池中選擇最佳回復,該方法可視為對多輪回復文本選擇任務的執行。選擇回復文本的典型方法主要包括基于序列的方法和基于層級信息的方法。基于序列的方法通常將對話連接成一個長序列,而基于層級信息的方法通常會分別對每個對話文本進行建模,然后再對話語之間的交互進行建模。

        最近,有研究工作稱基于層級信息的方法與復雜神經網絡結合可以實現比基于序列方法更顯著的增益效果。但在本文中,我們依然選擇研究基于序列的方法即增強序列推理模型(ESIM)的有效性,該模型最初是為了自然語言推理(NLI)任務而開發。

        在 DSTC7 對話回復選擇挑戰賽中,我們的模型在兩個數據集(即 Advising 和 Ubuntu 數據集)中都排名第一。除此之外,我們的模型在兩個大型公共基準數據集(Lowe's Ubuntu)上都比以前所有模型的效果更好,其中也包括上面所提到的最先進的基于層級信息的模型。我們的開源代碼可在 https://github.com/alibaba/ESIM 上獲得。

        基于層級信息的方法通常會使用額外的神經網絡來對多輪對話之間的關系進行模擬,該方法需要將多輪對話中的文本進行分段截取,使其具有相同的長度并且短于最大長度。然而,每輪對話的長度通常在實際任務中會有很大的變化,當使用較大的最大長度值時,我們則需要在基于層級信息的方法中添加大量的 0 進行填充,這將極大地增加計算復雜性和內存成本;而當使用較小的最大長度時,我們則可能在多輪對話環境中丟失一些重要信息。

        我們建議在多輪對話回復選擇任務中使用基于序列的 ESIM 模型來有效地解決基于層級信息方法所遇到的上述問題。該方法將多輪對話內容連接成一個長序列,并將多輪對話回復選擇任務轉換為一個句子對的二進制分類(即下一個句子是否是當前對話的回復)任務。

        與基于層級信息的方法相比,ESIM 有兩個主要優點。首先,由于 ESIM 不需要使每個話語具有相同的長度,因此它具有較少的零填充,可以比基于層級信息的方法更具計算效率。其次,ESIM 以一種有效的方式隱式地模擬對話中話語之間的交互,而并沒有使用額外復雜的網絡結構,詳情如下文中「模型說明」部分所述。

        任務描述

        對話系統技術挑戰賽(DSTC7)劃分了三個不同的賽道,而我們提出的方法則是針對「端到端的回復選擇」主題的賽道。該賽道側重于面向目標的多輪對話,著重于從一組對話候選文本中選擇正確的回復。參與該賽道的比賽系統不能使用基于人工數據或基于規則的數據,而需要使用比賽方提供的 Ubuntu 和 Advising 這兩個數據集,這些在「實驗部分」我們會做詳細的介紹。

        「端到端的回復選擇」賽道提供了一系列具有相似結構的子任務,但在輸出部分和可用于對話部分的任務各不相同。在圖 1 中,「√」表示在標記的數據集上評估任務,「×」表示未在該數據集上進行任務評估。
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        圖 1 任務描述

        模型說明

        多輪回復選擇任務是在給定多輪對話的情況下,從候選池中選擇下一對話內容。我們將問題轉換為二進制分類任務,即對于給定多輪對話和候選回復,我們的模型只需要確定候選回復是否正確。在本節中,我們將介紹這個起初專為自然語言推理開發的模型——增強順序推理模型(ESIM)。該模型由三個主要組成部分組成,即輸入編碼(Input Encoding)、局部匹配(Local Matching)和匹配合成(Matching Composition),如圖 2 所示。
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        圖 2 基于注意力機制力的句子對分類方法

        輸入編碼

        輸入編碼部分則執行對對話信息進行編碼,以及在對話含義中的做標記的任務。ESIM 和基于層級信息的方法不同,后者通過復雜的層級信息來編碼對話信息,而 ESIM 則是像這樣簡單地編碼對話信息——首先,將多輪對話內容連接為長序列,其被標記為 c =(c;:::;cm);候選回復被標記為 r =(r;:::; rn);然后使用預訓練的字嵌入 E ∈ R de×|V|(其中 |V| 是詞匯量大小,de 是詞語嵌入的維度)將 c 和 r 轉換為兩個矢量序列 [E(c1);:::;E(cm)] 和 [E(r1);:::; E(rn)]。其中有許多類型的預訓練詞嵌入,在這里我們提出了一種利用多個嵌入的方法——給定 k 個預訓字嵌入 E;:::; Ek,我們連接單詞 i 的所有嵌入,如:E(ci)= [E1(ci);:::; EK(CI)];然后再使用具有 ReLU 的前饋層將詞語嵌入的維度從(de1 + + dek)減小到 dh

        為了在其對話含義中表示標記,我們將對話和回復輸入 BiLSTM 編碼器來獲得依賴于對話隱藏狀態的 cs和 rs
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        其中 i 和 j 分別表示對話中的第 i 個標記和回復中的第 j 個標記。

        局部匹配

        對話和回復之間的局部語義關系建模是確定回復是否正確的關鍵組件。因為正確的回復通常與文本中的一些關鍵字有關,它可以通過對局部語義關系建模來獲得。我們并不是直接將對話和回復編碼為兩個密集向量,而是使用交叉注意力機制將標記與對話對齊并重新回復,然后計算標記層級的語義關系。注意力機制的權重計算如下:
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        軟對齊用于獲得對話與回復之間的局部相關性,其由上述等式中的注意力機制力矩陣 e ∈ R m×n 計算而得。然后,對于對話中第 i 個標記的隱藏狀態,即 cis(已編碼標記本身及其對話含義),候選回復中的相關語義被識別為向量 cid,在此稱為雙向量,它是所有回復狀態的加權組合,公式如下所示:
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        其中α ∈ R m×n 和 β ∈ R m×n 是相對于軸 2 和軸 1 的歸一化注意力機制權重矩陣。我們對回復中每個標記的隱藏狀態 rjs,執行類似的計算,公式如下:
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        通過比較矢量對<阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!>,我們可以模擬對齊標記對之間的標記層級語義關系。類似的計算也適用于矢量對<阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!>。我們收集如下的局部匹配信息:
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        在這里,我們使用了一種啟發式的差分匹配方法和基于元素的產物來分別獲得對話和回復的局部匹配向量 阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!和 阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!。其中 F 是一個單層前饋神經網絡,可以使用 RELU 減少維數。

        匹配合成

        匹配合成的實現如下:為了確定回復是否是當前對話的下一個話語,我們探索了一個集成層來集成所得的局部匹配向量(cl 和 rl):
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!

        我們再次使用 BiLSTM 作為集成圖層的構建塊,但 BiLSTMs 的作用與輸入編碼圖層的作用完全不同。這里的 BiLSTM 讀取局部匹配向量(cl 和 rl)并學習對關鍵局部匹配向量進行區分從而獲得總體對話的層級關系。

        BiLSTM2 的輸出隱藏向量通過集成的操作轉換為固定長度向量,并饋送到最終的分類器以確定整體關系;其中最大值和平均值將被使用并連接在一起,來獲得一個固定長度的向量;最后一個矢量被送入有一個隱藏層、TANH 激活層和 SOFTMAX 輸出層的多層感知器(MLP)分類器中;整個過程通過端到端的方式來最小化交叉熵損失,從而訓練整個 ESIM 模型。
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!

        基于句子編碼的方法

        對于 Ubuntu 數據集中的子任務 2,我們需要從 120000 個句子的候選池中選擇下一個回復話語;如果我們直接使用基于交叉注意力機制的 ESIM 模型,則計算成本是讓人難以接受的。相反,我們先使用基于句子編碼的方法從 120000 個句子中選擇前 100 個候選話語,然后使用 ESIM 重新排列它們,這樣的方式也是行之有效的。

        基于句子編碼的方法使用了圖 3 所示的 Siamese 架構,它應用參數綁定神經網絡來編碼對話和回復;然后再使用神經網絡分類器來確定兩個句子之間的關系。在這里,我們使用具有多頭自注意力機制池中的 BiLSTM 來對句子進行編碼,以及用 MLP 進行分類。
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        圖 3 基于句子編碼的句子對分類方法
         
        我們使用與 ESIM 相同的輸入編碼過程。為了將可變長度句子變換為固定長度矢量表示,我們使用所有 BiLSTM 隱藏向量(H)的加權求和:
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%! 阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%! 是權重矩陣; 阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!是偏差; da 是關注網絡的維度,dh 是 BiLSTM 的維度。阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%! 是 BiLSTM 的隱藏向量,其中 T 表示序列的長度。阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%! 是多頭注意力機制權重矩陣,其中 dm 是需要使用保持集調整的頭數的超參數。我們不是使用最大池或平均池,而是根據權重矩陣 A 對 BiLSTM 隱藏狀態 H 求和,以得到輸入句子的向量表示:
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        其中矩陣 阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!可以轉換為矢量表示 阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!。為了增強句子對之間的關系,與 ESIM 類似,我們將兩個句子的嵌入及其絕對差異和元素乘積連接為 MLP 分類器的輸入:
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        MLP 有 ReLU 激活層、快捷連接層和 softmax 輸出層,并能夠通過最小化交叉熵損失對整個模型進行端到端的訓練。

        實驗

        數據集

        我們在 DSTC7「端到端的回復選擇」賽道的兩個數據集上測試了我們的模型,即 Ubuntu 和 Advising 數據集。此外,為了與以前的方法進行比較,我們還在兩個大規模的公共回復選擇基準數據集上測試了我們的模型,即 Lowe 的 Ubuntu 數據集和電子商務數據集。

        Ubuntu 數據集。Ubuntu 數據集包括了來自 Ubuntu Internet Relay Chat(IRC)的雙人對話數據。在這個挑戰下,每個對話框包含了超過 3 個回合的對話,系統被要求從給定的候選句子集中選擇下一個回復話語,其中 Linux 手冊頁會作為外部知識提供給參賽者。我們使用了與 Lowe 提出的類似數據增強策略,即我們將每個話語(從第二個開始)視為潛在回復,而先前的話語作為其對話;因此,長度為 10 的對話將產生 9 個訓練樣例。為了訓練二進制分類器,我們需要從候選池中抽取負面(錯誤)的回復。最初,我們使用正負回復比率為 1:1 來平衡樣本;后來我們發現使用更多的負面回復將能夠有效改善結果,如 1:4 或 1:9。考慮到效率因素,我們在所有子任務的最終配置中除了子任務 2 采用了 1:1 的正負回復比率,其余均選擇了 1:4 的正負回復比率。

        Advising 數據集。Advising 數據集包括了模擬學生和學術顧問之間討論的雙人對話數據;結構化信息則作為數據庫提供,包括了課程信息和角色;其中數據還包括了句子的釋義和目標回復。我們使用類似的數據增強策略,基于原始對話及其釋義的 Ubuntu 數據集,正面回復之間的比率是 1:4.33。

        Lowe 的 Ubuntu 數據集。此數據集類似于 DSTC7 Ubuntu 數據,訓練集包含了一百萬個對話-回復對,正負回復之間的比率為 1:1。在開發和測試集上,每個對話關聯了一個肯定回復和 9 個否定回復。

        電子商務數據集。電子商務數據集是從中國最大的電子商務平臺淘寶網的客戶與客戶服務人員之間的真實對話中收集的。訓練和開發集中的正負回復之間的比率為 1:1,測試集中的比率為 1:9。

        數據訓練

        我們使用 spaCy3 來標記兩個 DSTC7 數據集的文本,并使用原始標記化文本,這過程中無需對兩個公共數據集進行任何進一步的預處理;然后再對多輪對話內容進行連接并插入兩個特殊標記 eou 和 eot,其中 eou 表示話語結束,eot 表示結束。

        超參數基于開發集進行調整。我們使用 GloVe 和 fastText 作為預訓練的單詞嵌入。對于 Ubuntu 數據集的子任務 5,我們用 word2vec 從所提供的 Linux 手冊頁中訓練了單詞嵌入。詳細信息如圖 4 所示。
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        圖 4 預訓練的單詞嵌入統計。其中,1-3 行來自 Glove;4-5 行來自 FastText;6 行來自 Word2Vec。
         
        請注意,對于 Advising 數據集的子任務 5,我們嘗試使用建議的課程信息作為外部知識,但并沒有觀察到任何有效提升;因此,我們在不使用任何外部知識的情況下提交了 Advising 數據集的結果。對于 Lowe 的 Ubuntu 和電子商務數據集,我們使用 word2vec 對訓練數據進行預訓練的單詞嵌入。在兩個 DSTC7 數據集的訓練過程中,預先訓練的嵌入是固定的,但是我們針對 Lowe 的 Ubuntu 和電子商務數據集進行了微調。

        Adam 算法則被用于訓練過程中的優化。已知 Lowe 的 Ubuntu 數據集的初始學習率為 0.0002,其余為 0.0004 的情況下;對于 DSTC7 數據集,小批量數據的大小設置為 128,對于 Lowe 的 Ubuntu 數據集,小批量數據的大小設置為 16,對于電子商務數據集,小批量數據的大小為 32。BALTMS 和 MLP 的隱藏大小設置為 300。

        為了使序列小于最大長度,我們切斷了回復的最后一個標記,但同時對上下文進行了反向切斷;這是因為我們假設上下文中的最后幾句話比前幾句話更重要。對于 Lowe 的 Ubuntu 數據集,上下文序列和回復序列的最大值分別為 400 和 150;對于電子商務數據集,對應最大值為 300 和 50;其余數據集分別為 300 和 30。

        更詳細的方法細節為:對于 DSTC7 Ubuntu 的子任務 2,我們使用 BILSTM 的隱藏序列長度為 400,并用 4 個頭來進行句子編碼方法。對于子任務 4,候選池可能不包含正確的下一個話語,因此我們需要選擇一個閾值;當正面標記的概率低于閾值時,我們預測候選池不包含正確的下一個話語。閾值則基于開發集從 [0:50; 0:51; ::; 0:99] 中進行選擇。

        結果

        圖 5 總結了所有 DSTC7 回復選擇子任務的結果。挑戰排名考慮了 recall@10 效果和平均倒數排名(Mean Reciprocal Rank,簡稱 MRR,是一種用于衡量搜索之類的指標)的平均值,在 advising 數據集上,因為測試用例 1(advising1)對訓練數據集有一定的依賴性,因此則根據測試用例 2(advising2)結果進行排名。我們的結果在 7 個子任務中排名第一,在 Ubuntu 的子任務 2 中排名第二,在 DSTC7 回復選擇挑戰賽的兩個數據集中總體排名第一。子任務 3 可能包含多個正確的回復,因此平均精度(MAP)被視為附加的衡量標準。
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        圖 5 針對 DSTC7 回復選擇挑戰的隱藏測試集的提交結果。其中 NA 表示不適用。總共有 8 個測試條件。

        消融分析

        對于 Ubuntu 和 Advising 數據集,分別在圖 6 和圖 7 中顯示了消融分析。對于 Ubuntu 子任務 1,ESIM 達到 0.854 的 R @ 10 和 0.6401 的 MRR。如果我們移除局部匹配和匹配組合以加速訓練過程(「-CtxDec」),則 R @ 10 和 MRR 分別下降到 0.845 和 0.6210;再進一步舍棄最后一個單詞而不是對話的前幾個詞(「-CtxDec&-Rev」),R10 和 MRR 將降低到 0.840 和 0.6174。

        通過對不同參數初始化和不同結構訓練的模型的輸出進行平均來對上述三種模型進行集成(「Ensemble」),得到 0.887 的 R @ 10 和 0.6790 的 MRR。而對于 Ubuntu 子任務 2,使用基于句子編碼的方法(「Sent-based」)可達到 0.082 的 R @ 10 和 0.0416 的 MRR。在使用不同的參數初始化集成幾個模型后(「Ensemble1」),R @ 10 和 MRR 將會增加到 0.091 和 0.0475。使用 ESIM 重新排列「Ensemble1」預測的前 100 名候選人,將獲得 0.125 的 R @ 10 和 0.0713 的 MRR。移除對話的局部匹配和匹配組合(「-CtxDec」)會將 R @ 10 和 MRR 降低為 0.117 和 0.0620。對上述兩種 ESIM 方法進行集成(「Ensemble2」),將得到 0.134 R @ 10 和 0.0770 MRR。
        對于 Ubuntu 子任務 4,我們觀察到與子任務 1 相似的趨勢。ESIM 達到 0.887 R @ 10 和 0.6434 MRR;而使用「-CtxDec」,則性能降低到 0.877 R @ 10 和 0.6277 MRR;如果使用「-CtxDec&-Rev」,則性能進一步降低至 0.875 R @ 10 和 0.6212 MRR。上述三個模型「Ensemble」的集成將達到 0.909 R @ 10 和 0.6771 MRR。

        對于 Ubuntu 子任務 5,除了使用 Linux 手冊頁的外部知識外,數據集與子任務 1 相同。從 Linux 手冊頁(「+ W2V」)中添加預訓練的字嵌入將得到 0.858 的 R @ 10 和 0.6394 的 MRR,在沒有外部知識的情況下與 ESIM 相比,對子任務 1(0.887 R @ 10 和 0.6790 MRR)的集成模型與「+ W2V」模型進行集成,將帶來了進一步的增益,使其效果分別達到 0.890 R @ 10 和 0.6817 MRR。
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        圖 6 DSTC7 中 Ubuntu 數據集的開發集消融分析
         
        圖 7 顯示了 DSTC7 中 Advising 數據集的開發集消融分析。我們使用了移除局部匹配和匹配組合的 ESIM 來提高計算效率,并觀察到該數據集與 Ubuntu 數據集有類似的趨勢。「-CtxDec&-Rev」的 R@10 和 MRR 效果降低值會比「-CtxDec」更多,但總體來看,兩個模型的整體會比單個模型產生更顯著增益。
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        圖 7 DSTC7 中 Advising 數據集的開發集消融分析
         
        與以前的工作比較

        圖 8 總結了兩個公共回復選擇基準數據集的結果。第一組模型包括基于句子編碼的方法,他們使用了人工特征或神經網絡特征數據來對回復和對話進行編碼,然后應用余弦分類器或 MLP 分類器來確定兩個序列之間的關系。之前的工作則使用了 TF-IDF,RNN 和 CNN,LSTM,BiLSTM 來編碼對話和回復。
        阿里開源新一代人機對話模型 ESIM:準確率打破世界紀錄,提升至 94.1%!
        圖 8 兩個大型公共基準數據集上不同模型的比較。除了我們做的研究結果之外,其他所有結果都來自以前的工作
        第二組模型由基于序列的匹配模型組成,通常使用注意力機制,包括 MV-LSTM,Matching-LSTM,Attentive-LSTM 和多渠道。這些模型比較了對話與回復之間的標記層級關系,而不是像在基于句子編碼的方法中那樣直接比較兩個密集向量。這些模型比第一組模型具有更好的性能。

        第三組模型包括更復雜的基于層級信息的模型,它們通常明確地模擬標記層級和話語層級信息。Multi-View 模型利用了話語關系——來自單詞序列視圖和話語序列視圖。DL2R 模型采用了神經網絡,并在對話中用其他話語重新表達最后一個話語。SMN 模型則使用了 CNN 和注意力機制來匹配對話中每個話語的回復。DUA 和 DAM 模型則采用了與 SMN 類似的框架,其中一個改進了封閉式自注意力機制,另一個改進了 Transformer 結構。

        雖然之前基于層級信息的工作聲稱他們通過使用多輪對話內容的層級信息,能夠實現最先進的性能,但我們的 ESIM 序列匹配模型效果優于所有先前的模型,包括基于層級的模型。在 Lowe 的 Ubuntu 數據集中,ESIM 模型在性能方面比 DAM 模型先前的最佳結果有更顯著的提高,效果高達 79.6%(從 76.7%)R @ 1,89.4%(從 87.4%)R @ 2 和 R@5 為 97.5%(從 96.9%)。對于電子商務數據集,ESIM 模型也通過 DUA 模型完成了對先前技術水平的實質性改進,高達 57.0%(從 50.1%)R @ 1,76.7%(從 70.0%)R @ 2 和 R@5 為 94.8%(從 92.1%)。這些結果均證明了 ESIM 模型(一種順序匹配方法)對多輪回復選擇的有效性。

        結論

        先前最先進的多輪回復選擇模型使用基于層級的(話語級和標記級)神經網絡來準確地模擬不同回合對話之間的相互作用,從而實現對對話進行建模。但在本文中,我們證明了僅基于序列的順序匹配模型也可以表現得比所有先前的模型更好,其中包括最先進的基于層級的方法。這表明這種采用順序匹配的方法在過去尚未得到充分的利用;而且值得注意的是,該模型在 DSTC7 的端到端回復選擇挑戰賽中,在兩個數據集測試上都取得了第一名的結果,并在兩個大規模的公共回復選擇基準數據集上都產生了最優的性能。我們在未來的多輪回復選擇研究中,也將考慮探索外部知識的有效性,如:知識圖譜和用戶概況。
        論文鏈接:
        https://arxiv.org/abs/1901.02609 
        開源地址:
        https://github.com/alibaba/esim-response-selection 
        來源 | 雷鋒網 AI 科技評論
        作者 | 楊鯉萍

        上一篇:2019世界人工智能大會倒計時30天 | 智聯世界 無限可能
        下一篇:騰訊 AI 「絕悟」制勝王者榮耀,升級至電競職業水平!

        主站蜘蛛池模板: 成年人网站免费视频| 最近免费中文字幕大全高清大全1 最近免费中文字幕mv在线电影 | 麻豆国产VA免费精品高清在线| 日本一区免费电影| 亚洲国产精品人人做人人爱| 亚洲欧洲日产国码无码久久99| 亚洲视频免费一区| 亚洲aⅴ无码专区在线观看春色 | 亚洲毛片基地4455ww| 国产精品亚洲片在线花蝴蝶| 在线观看免费黄色网址| 37pao成人国产永久免费视频| 毛片在线免费视频| 亚洲综合另类小说色区色噜噜| 67pao强力打造67194在线午夜亚洲| 亚洲AV成人一区二区三区在线看 | 三级黄色免费观看| 在线看片无码永久免费视频| 亚洲成A人片在线观看中文| 亚洲大片在线观看| 亚洲av无码偷拍在线观看| 中文在线免费视频| 毛片免费视频播放| 伊人久久大香线蕉亚洲五月天| 亚洲成aⅴ人片在线影院八| 日韩在线视频免费| xxxxx免费视频| 国产精品xxxx国产喷水亚洲国产精品无码久久一区 | 免费一级特黄特色大片在线观看| 久久精品国产精品亚洲艾| 中国china体内裑精亚洲日本| 久久毛片免费看一区二区三区| a毛片基地免费全部视频| 亚洲五月综合缴情在线观看| 亚洲精品国产国语| 永久在线观看免费视频| 永久中文字幕免费视频网站| 亚洲国产精品lv| 一区免费在线观看| 成年男女免费视频网站| 亚洲AV无码一区东京热久久|