學校首頁|收藏本站|登錄

Graph2Seq:自然語言處理中的從圖到序列學習(Graph-to-Sequence Learning in Natural Language Processing)

發布者:計算機信息發布時間:2019-05-21浏覽次數:13

報告題目:Graph2Seq:自然語言處理中的從圖到序列學習(Graph-to-Sequence Learning in Natural Language Processing


報告人:吳淩飛 研究員

單位:IBM全球研究院总部(IBM T.J. Watson Research Center)

報告時間:2019年5月22日(周三)上午10:30

報告地點:翡翠湖校區翡翠科教樓A座902會議室

摘要:從序列到序列(Sequence-to-sequence, Seq2Seq技術及其衆多變體在神經機器翻譯、自然語言生成、語音識別和藥物發現等許多方面都取得了優異的性能。盡管Seq2Seq模型具有很強的靈活性和表達能力,但它只能應用于輸入爲序列的問題。然而,序列結構化數據的一種簡單表示,許多重要的問題需要用複雜的結構(如圖)來表示。這些圖結構數據不僅可以編碼複雜的成對關系,以便學習更多的信息表示;同時,序列数据中的结构和语义信息可以通过合并特定领域的知识来扩充原始序列数据。为了处理複雜的結構图输入,我们提出了Graph2Seq,這是一種用于圖到序列學習的新的基于注意的神經網絡結構。Graph2Seq可以看作是一個廣義的圖輸入Seq2Seq模型,它是一種通用的端到端的神經編解碼器結構,它對輸入圖進行編碼,並對目標序列進行解碼。在本次講座中吴凌飞研究員首先介紹Graph2Seq模型,然後討論如何在不同的NLP任務中應用該模型。最近的兩部著作(Exploiting Rich Syntactic Information for Semantic Parsing with Graph-to-Sequence Model”,EMNLP 2018)和(SQL-to-Text Generation with Graph-to-Sequence Model”,EMNLP 2018)中说明了Graph2Seq模型相对于各种Seq2Seq模型和Tree2Seq模型的优势。



講者簡介:吳淩飛,IBM全球研究院总部(IBM T.J. Watson Research Center) 研究員 , 威廉玛丽大学计算机系博士,主要研究方向为機器學習(深度學習)、表征學習和自然語言處理的交叉領域,尤其是快速發展的圖神經網絡及其在新的應用領域和任務上的擴展。吳博士已經發表30多篇頂尖雜志和會議,包含NIPS、ICML、ICLR、SysML、AISTATS、KDD、ICDM、NAACL、EMNLP、AAAI、ICASSP、SC、SIAM Journal on Scientific Computing, IEEE Transaction on Big Data, and Journal of Computational Physics。吳博士的研究已被衆多媒體報道,包括Venturebeat、TechTalks、季启智新、MIT News IBM Research News和SIAMNews,合作了13项美国專利。吴博士組織並擔任了The First International Workshop on Deep Learning on Graphs: Methods and Applications (DLG’19)聯合主席,18年IEEE BigData Tutorial的聯合主席。經常性擔任NIPS, ICML, ICLR, KDD, ACL, IJCAI, and AAAI.等國際頂級會議的TPC member。