Äú¿ÉÒÔ¾èÖú£¬Ö§³ÖÎÒÃǵĹ«ÒæÊÂÒµ¡£

1Ôª 10Ôª 50Ôª





ÈÏÖ¤Â룺  ÑéÖ¤Âë,¿´²»Çå³þ?Çëµã»÷Ë¢ÐÂÑéÖ¤Âë ±ØÌî



  ÇóÖª ÎÄÕ ÎÄ¿â Lib ÊÓÆµ iPerson ¿Î³Ì ÈÏÖ¤ ×Éѯ ¹¤¾ß ½²×ù Model Center   Code  
»áÔ±   
   
 
     
   
 ¶©ÔÄ
  ¾èÖú
½Ì»úÆ÷ѧϰժҪ
 
  4418  次浏览      28
 2017-11-22
 
±à¼­ÍƼö:
±¾ÎÄÀ´×ÔÓÚPaperWeekly£¬ÎÄÖÐÓÃabstractiveµÄ·½Ê½À´½â¾ösentence-levelµÄÎı¾ÕªÒª¡£Í¨¹ýÄ£ÐÍÏêϸ½éÉÜÁËÁ÷³Ì£¬¿É¹©´ó¼Ò²Î¿¼¡£

Òý

Îı¾ÕªÒªÊÇ×ÔÈ»ÓïÑÔ´¦ÀíÖбȽÏÄѵÄÒ»¸öÈÎÎñ£¬±ð˵ÊÇÓûúÆ÷À´×öÎÄÕªÁË£¬¾ÍÁ¬ÈËÀà×öÎÄÕªµÄʱºò¶¼ÐèÒª¾ß±¸ºÜÇ¿µÄÓïÑÔÔĶÁÀí½âÄÜÁ¦ºÍ¹éÄÉ×ܽáÄÜÁ¦¡£ÐÂÎŵÄÕªÒªÒªÇó±à¼­Äܹ»´ÓÐÂÎÅʼþÖÐÌáÈ¡³ö×î¹Ø¼üµÄÐÅÏ¢µã£¬ÖØÐÂ×éÖ¯ÓïÑÔÀ´Ð´ÕªÒª£»paperµÄÕªÒªÐèÒª×÷Õß´ÓÈ«ÎÄÖÐÌáÈ¡³ö×îºËÐĵŤ×÷£¬È»ºóÓøü¼Ó¾«Á¶µÄÓïÑÔд³ÉÕªÒª£»×ÛÊöÐÔµÄpaperÐèÒª×÷Õßͨ¶ÁNƪÏà¹ØtopicµÄpaperÖ®ºó£¬ÓÃ×î¸ÅÀ¨µÄÓïÑÔ½«Ã¿ÆªÎÄÕµĹ±Ïס¢´´Ðµãд³öÀ´£¬²¢ÇÒ¶Ô±ÈÿƪÎÄÕµķ½·¨¸÷ÓÐʲôÓÅȱµã¡£×Ô¶¯ÎÄÕª±¾ÖÊÉÏ×öµÄÒ»¼þÊÂÇéÊÇÐÅÏ¢¹ýÂË£¬´ÓijÖÖÒâÒåÉÏÀ´Ëµ£¬ºÍÍÆ¼öϵͳµÄ¹¦ÄÜÓÐÒ»µãÏñ£¬¶¼ÊÇΪÁËÈôó¼Ò¸ü¿ìµØÕÒµ½¸ÐÐËȤµÄ¶«Î÷£¬Ö»ÊÇÓÃÁ˲»Í¬µÄÊֶζøÒÑ¡£

ÎÊÌâÃèÊö

Îı¾ÕªÒªÎÊÌâ°´ÕÕÎĵµÊýÁ¿¿ÉÒÔ·ÖΪµ¥ÎĵµÕªÒªºÍ¶àÎĵµÕªÒªÎÊÌ⣬°´ÕÕʵÏÖ·½Ê½¿ÉÒÔ·ÖΪÌáȡʽ£¨extractive£©ºÍժҪʽ£¨abstractive£©¡£ÕªÒªÎÊÌâµÄÌØµãÊÇÊä³öµÄÎı¾Òª±ÈÊäÈëµÄÎı¾ÉٺܶàºÜ¶à£¬µ«È´Ô̲Ø×ŷdz£¶àµÄÓÐЧÐÅÏ¢ÔÚÄÚ¡£ÓÐÒ»µãµã¸Ð¾õÏñÊÇÖ÷³É·Ö·ÖÎö£¨PCA£©£¬×÷ÓÃÒ²ÓëÍÆ¼öϵͳÓÐÒ»µãÏñ£¬¶¼ÊÇΪÁ˽â¾öÐÅÏ¢¹ýÔØµÄÎÊÌâ¡£ÏÖÔÚ¾ø´ó¶àÊýÓ¦ÓõÄϵͳ¶¼ÊÇextractiveµÄ£¬Õâ¸ö·½·¨±È½Ï¼òµ¥µ«´æÔںܶàµÄÎÊÌ⣬¼òµ¥ÊÇÒòΪֻÐèÒª´ÓÔ­ÎÄÖÐÕÒ³öÏà¶ÔÀ´ËµÖØÒªµÄ¾ä×ÓÀ´×é³ÉÊä³ö¼´¿É£¬ÏµÍ³Ö»ÐèÒªÓÃÄ£ÐÍÀ´Ñ¡Ôñ³öÐÅÏ¢Á¿´óµÄ¾ä×ÓÈ»ºó°´ÕÕ×ÔÈ»Ðò×éºÏÆðÀ´¾ÍÊÇÕªÒªÁË¡£µ«ÊÇÕªÒªµÄÁ¬¹áÐÔ¡¢Ò»ÖÂÐÔºÜÄѱ£Ö¤£¬±ÈÈçÓöµ½Á˾ä×ÓÖаüº¬ÁË´ú´Ê£¬¼òµ¥µÄÁ¬ÆðÀ´¸ù±¾ÎÞ·¨»ñÖª´ú´ÊÖ¸µÄÊÇʲô£¬´Ó¶øµ¼ÖÂЧ¹û²»¼Ñ¡£Ñо¿ÖÐËæ×Ådeep learning¼¼ÊõÔÚnlpÖеÄÉîÈ룬ÓÈÆäÊÇseq2seq+attentionÄ£Ð͵ġ°ºáÐС±£¬´ó¼Ò½«abstractiveʽµÄÕªÒªÑо¿Ìá¸ßÁËÒ»¸ölevel£¬²¢ÇÒÌá³öÁËcopy mechanismµÈ»úÖÆÀ´½â¾öseq2seqÄ£ÐÍÖеÄOOVÎÊÌâ¡£

±¾ÎÄ̽ÌÖµÄÊÇÓÃabstractiveµÄ·½Ê½À´½â¾ösentence-levelµÄÎı¾ÕªÒªÎÊÌ⣬ÎÊÌâµÄ¶¨Òå±È½Ï¼òµ¥£¬ÊäÈëÊÇÒ»¸ö³¤¶ÈΪMµÄÎı¾ÐòÁУ¬Êä³öÊÇÒ»¸ö³¤¶ÈΪNµÄÎı¾ÐòÁУ¬ÕâÀïM>>N£¬²¢ÇÒÊä³öÎı¾µÄÒâ˼ºÍÊäÈëÎı¾µÄÒâ˼»ù±¾Ò»Ö£¬ÊäÈë¿ÉÄÜÊÇÒ»¾ä»°£¬Ò²¿ÉÄÜÊǶà¾ä»°£¬¶øÊä³ö¶¼ÊÇÒ»¾ä»°£¬Ò²¿ÉÄÜÊǶà¾ä»°¡£

ÓïÁÏ

ÕâÀïµÄÓïÁÏ·ÖΪÁ½ÖÖ£¬Ò»ÖÖÊÇÓÃÀ´ÑµÁ·Éî¶ÈѧϰģÐ͵ĴóÐÍÓïÁÏ£¬Ò»ÖÖÊÇÓÃÀ´²Î¼ÓÆÀ²âµÄСÐÍÓïÁÏ¡£

1¡¢DUC

Õâ¸öÍøÕ¾ÌṩÁËÎı¾ÕªÒªµÄ±ÈÈü£¬2001-2007ÄêÔÚÕâ¸öÍøÕ¾£¬2008Ä꿪ʼ»»µ½Õâ¸öÍøÕ¾TAC¡£ºÜ¹Ù·½µÄ±ÈÈü£¬¸÷´óÎı¾ÕªÒªÏµÍ³¶¼»áÔÚÕâÀï½ÏÁ¿Ò»·¬£¬Ò»¾ö¸ßÏ¡£ÕâÀïÌṩµÄÊý¾Ý¼¯¶¼ÊÇСÐÍÊý¾Ý¼¯£¬ÓÃÀ´ÆÀ²âÄ£Ð͵ġ£

2¡¢Gigaword

¸ÃÓïÁϷdz£´ó£¬´ó¸ÅÓÐ950wƪÐÂÎÅÎÄÕ£¬Êý¾Ý¼¯ÓÃheadlineÀ´×ösummary£¬¼´Êä³öÎı¾£¬ÓÃfirst sentenceÀ´×öinput£¬¼´ÊäÈëÎı¾£¬ÊôÓÚµ¥¾äÕªÒªµÄÊý¾Ý¼¯¡£

3¡¢CNN/Daily Mail

¸ÃÓïÁϾÍÊÇÎÒÃÇÔÚ»úÆ÷ÔĶÁÀí½âÖÐÓõ½µÄÓïÁÏ£¬¸ÃÊý¾Ý¼¯ÊôÓÚ¶à¾äÕªÒª¡£

4¡¢Large Scale Chinese Short Text Summarization Dataset£¨LCSTS£©[6]

ÕâÊÇÒ»¸öÖÐÎĶÌÎı¾ÕªÒªÊý¾Ý¼¯£¬Êý¾Ý²É¼¯×ÔÐÂÀË΢²©£¬¸øÑо¿ÖÐÎÄÕªÒªµÄͯЬÃÇ´øÀ´Á˸£Àû¡£

Ä£ÐÍ

±¾ÎÄËù˵µÄÄ£ÐͶ¼ÊÇabstractiveʽµÄseq2seqÄ£ÐÍ¡£nlpÖÐ×îÔçʹÓÃseq2seq+attentionÄ£ÐÍÀ´½â¾öÎÊÌâµÄÊÇmachine translationÁìÓò£¬ÏÖÈç½ñ¸Ã·½·¨ÒѾ­ºáɨÁËÖî¶àÁìÓòµÄÅÅÐаñ¡£

seq2seqµÄÄ£ÐÍÒ»°ã¶¼ÊÇÈçϵĽṹ[1]£º

encoder²¿·ÖÓõ¥²ã»òÕß¶à²ãrnn/lstm/gru½«ÊäÈë½øÐбàÂ룬decoder²¿·ÖÊÇÒ»¸öÓïÑÔÄ£ÐÍ£¬ÓÃÀ´Éú³ÉÕªÒª¡£ÕâÖÖÉú³ÉʽµÄÎÊÌâ¶¼¿ÉÒÔ¹é½áΪÇó½âÒ»¸öÌõ¼þ¸ÅÂÊÎÊÌâp(word|context)£¬ÔÚcontextÌõ¼þÏ£¬½«´Ê±íÖÐÿһ¸ö´ÊµÄ¸ÅÂÊÖµ¶¼Ëã³öÀ´£¬ÓøÅÂÊ×î´óµÄÄǸö´Ê×÷ΪÉú³ÉµÄ´Ê£¬ÒÀ´ÎÉú³ÉÕªÒªÖеÄËùÓдʡ£ÕâÀïµÄ¹Ø¼üÔÚÓÚÈçºÎ±íʾcontext£¬Ã¿ÖÖÄ£ÐÍ×î´óµÄ²»Í¬µã¶¼ÔÚÓÚcontextµÄ²»Í¬£¬ÕâÀïµÄcontext¿ÉÄÜÖ»ÊÇencoderµÄ±íʾ£¬Ò²¿ÉÄÜÊÇattentionºÍencoderµÄ±íʾ¡£decoder²¿·Öͨ³£²ÉÓÃbeam searchËã·¨À´×öÉú³É¡£

1¡¢Complex Attention Model[1]

Ä£ÐÍÖеÄattention weightsÊÇÓÃencoderÖÐÿ¸ö´Ê×îºóÒ»²ãhidden layerµÄ±íʾÓ뵱ǰdecoder×îÐÂÒ»¸ö´Ê×îºóÒ»²ãhidden layerµÄ±íʾ×öµã³Ë£¬È»ºó¹éÒ»»¯À´±íʾµÄ¡£

2¡¢Simple Attention Model[1]

Ä£Ðͽ«encoder²¿·ÖÔÚÿ¸ö´Ê×îºóÒ»²ãhidden layerµÄ±íʾ·ÖΪÁ½¿é£¬Ò»Ð¡¿éÓÃÀ´¼ÆËãattention weightsµÄ£¬ÁíÒ»´ó¿éÓÃÀ´×÷ΪencoderµÄ±íʾ¡£Õâ¸öÄ£Ðͽ«×îºóÒ»²ãhidden layerϸ·ÖÁ˲»Í¬µÄ×÷Óá£

3¡¢Attention-Based Summarization(ABS)[2]

Õâ¸öÄ£ÐÍÓÃÁËÈýÖÖ²»Í¬µÄencoder£¬°üÀ¨£ºBag-of-Words Encoder¡¢Convolutional EncoderºÍAttention-Based Encoder¡£RushÊÇHarvardNLP×éµÄ£¬Õâ¸ö×éµÄÌØµãÊǷdz£Ï²»¶ÓÃCNNÀ´×önlpµÄÈÎÎñ¡£Õâ¸öÄ£ÐÍÖУ¬ÈÃÎÒÃÇ¿´µ½Á˲»Í¬µÄencoder£¬´Ó·Ç³£¼òµ¥µÄ´Ê´üÄ£Ð͵½CNN£¬ÔÙµ½attention-basedÄ£ÐÍ£¬¶ø²»ÊÇǧƪһÂɵÄrnn¡¢lstmºÍgru¡£¶ødecoder²¿·ÖÓÃÁËÒ»¸ö·Ç³£¼òµ¥µÄNNLM£¬¾ÍÊÇBengio[10]ÓÚ2003ÄêÌá³öÀ´µÄǰÀ¡Éñ¾­ÍøÂçÓïÑÔÄ£ÐÍ£¬ÕâһģÐÍÊǺóÐøÉñ¾­ÍøÂçÓïÑÔÄ£ÐÍÑо¿µÄ»ùʯ£¬Ò²ÊǺóÐø¶ÔÓÚword embeddingµÄÑо¿µì¶¨ÁË»ù´¡¡£¿ÉÒÔ˵£¬Õâ¸öÄ£ÐÍÓÃÁË×î¼òµ¥µÄencoderºÍdecoderÀ´×öseq2seq£¬ÊÇÒ»´Î·Ç³£²»´íµÄ³¢ÊÔ¡£

4¡¢ABS+[2]

RushÌá³öÁËÒ»¸ö´¿Êý¾ÝÇý¶¯µÄÄ£ÐÍABSÖ®ºó£¬ÓÖÌá³öÁËÒ»¸öabstractiveÓëextractiveÈںϵÄÄ£ÐÍ£¬ÔÚABSÄ£Ð͵Ļù´¡ÉÏÔö¼ÓÁËfeature function£¬ÐÞ¸ÄÁËscore function£¬µÃµ½ÁËÕâ¸öЧ¹û¸ü¼ÑµÄABS+Ä£ÐÍ¡£

5¡¢Recurrent Attentive Summarizer(RAS)[3]

Õâ¸öÄ£ÐÍÊÇRushµÄѧÉúÌá³öÀ´µÄ£¬ÊäÈëÖÐÿ¸ö´Ê×îÖÕµÄembeddingÊǸ÷´ÊµÄembeddingÓë¸÷´ÊλÖõÄembeddingÖ®ºÍ£¬¾­¹ýÒ»²ã¾í»ý´¦ÀíµÃµ½aggregate vector£º

¸ù¾Ýaggregate vector¼ÆËãcontext£¨encoderµÄÊä³ö£©£º

ÆäÖÐÈ¨ÖØÓÉÏÂʽ¼ÆË㣺

decoder²¿·ÖÓÃRNNLMÀ´×öÉú³É£¬RNNLMÊÇÔÚBengioÌá³öµÄNNLM»ù´¡ÉÏÌá³öµÄ¸Ä½øÄ£ÐÍ£¬Ò²ÊÇÒ»¸öÖ÷Á÷µÄÓïÑÔÄ£ÐÍ¡£

6¡¢big-words-lvt2k-1sentÄ£ÐÍ[4]

Õâ¸öÄ£ÐÍÒýÈëÁËlarge vocabulary trick(LVT)¼¼Êõµ½Îı¾ÕªÒªÎÊÌâÉÏ¡£±¾·½·¨ÖУ¬Ã¿¸ömini batchÖÐdecoderµÄ´Ê»ã±íÊÜÖÆÓÚencoderµÄ´Ê»ã±í£¬decoder´Ê»ã±íÖеĴÊÓÉÒ»¶¨ÊýÁ¿µÄ¸ßƵ´Ê¹¹³É¡£Õâ¸öÄ£Ð͵ÄË¼Â·ÖØµã½â¾öµÄÊÇÓÉÓÚdecoder´Ê»ã±í¹ý´ó¶øÔì³Ésoftmax²ãµÄ¼ÆËãÆ¿¾±¡£±¾Ä£Ðͷdz£ÊʺϽâ¾öÎı¾ÕªÒªÎÊÌ⣬ÒòΪժҪÖеĺܶà´Ê¶¼ÊÇÀ´×ÔÓÚÔ­ÎÄÖ®ÖС£

7¡¢words-lvt2k-2sent-hierattÄ£ÐÍ[4]

Îı¾ÕªÒªÖо­³£Óöµ½ÕâÑùµÄÎÊÌ⣬һЩ¹Ø¼ü´Ê³öÏÖºÜÉÙµ«È´ºÜÖØÒª£¬ÓÉÓÚÄ£ÐÍ»ùÓÚword embedding£¬¶ÔµÍƵ´ÊµÄ´¦Àí²¢²»ÓѺã¬ËùÒÔ±¾ÎÄÌá³öÁËÒ»ÖÖdecoder/pointer»úÖÆÀ´½â¾öÕâ¸öÎÊÌ⡣ģÐÍÖÐdecoder´øÓÐÒ»¸ö¿ª¹Ø£¬Èç¹û¿ª¹Ø×´Ì¬ÊÇ´ò¿ªgenerator£¬ÔòÉú³ÉÒ»¸öµ¥´Ê£»Èç¹ûÊǹرգ¬decoderÔòÉú³ÉÒ»¸öÔ­Îĵ¥´ÊλÖõÄÖ¸Õ룬Ȼºó¿½±´µ½ÕªÒªÖС£pointer»úÖÆÔÚ½â¾öµÍƵ´Êʱ³°ôÐԱȽÏÇ¿£¬ÒòΪʹÓÃÁËencoderÖÐµÍÆµ´ÊµÄÒþ²Ø²ã±íʾ×÷ΪÊäÈ룬ÊÇÒ»¸öÉÏÏÂÎÄÏà¹ØµÄ±íʾ£¬¶ø½ö½öÊÇÒ»¸ö´ÊÏòÁ¿¡£Õâ¸öpointer»úÖÆºÍºóÃæÓÐһƪÖеÄcopy»úÖÆË¼Â··Ç³£ÀàËÆ¡£

8¡¢feats-lvt2k-2sent-ptrÄ£ÐÍ[4]

Êý¾Ý¼¯ÖеÄÔ­ÎÄÒ»°ã¶¼»áºÜ³¤£¬Ô­ÎÄÖеĹؼü´ÊºÍ¹Ø¼ü¾ä×Ó¶ÔÓÚÐγÉÕªÒª¶¼ºÜÖØÒª£¬Õâ¸öÄ£ÐÍʹÓÃÁ½¸öË«ÏòRNNÀ´²¶×½ÕâÁ½¸ö²ã´ÎµÄÖØÒªÐÔ£¬Ò»¸öÊÇword-level£¬Ò»¸öÊÇsentence-level£¬²¢ÇÒ¸ÃÄ£ÐÍÔÚÁ½¸ö²ã´ÎÉ϶¼Ê¹ÓÃattention£¬È¨ÖØÈçÏ£º

9¡¢COPYNET[8]

encoder²ÉÓÃÁËÒ»¸öË«ÏòRNNÄ£ÐÍ£¬Êä³öÒ»¸öÒþ²Ø²ã±íʾµÄ¾ØÕóM×÷ΪdecoderµÄÊäÈë¡£decoder²¿·ÖÓ봫ͳµÄSeq2Seq²»Í¬Ö®´¦ÔÚÓÚÒÔÏÂÈý²¿·Ö£º

Ô¤²â£ºÔÚÉú³É´Êʱ´æÔÚÁ½ÖÖģʽ£¬Ò»ÖÖÊÇÉú³Éģʽ£¬Ò»ÖÖÊÇ¿½±´Ä£Ê½£¬Éú³ÉÄ£ÐÍÊÇÒ»¸ö½áºÏÁ½ÖÖģʽµÄ¸ÅÂÊÄ£ÐÍ¡£

״̬¸üУºÓÃt-1ʱ¿ÌµÄÔ¤²â³öµÄ´ÊÀ´¸üÐÂtʱ¿ÌµÄ״̬£¬COPYNET²»½ö½ö´ÊÏòÁ¿£¬¶øÇÒʹÓÃM¾ØÕóÖÐÌØ¶¨Î»ÖõÄhidden state¡£

¶ÁÈ¡M£ºCOPYNETÒ²»áÑ¡ÔñÐԵضÁÈ¡M¾ØÕó£¬À´»ñÈ¡»ìºÏÁËÄÚÈݺÍλÖõÄÐÅÏ¢¡£

Õâ¸öÄ£ÐÍÓëµÚ7¸öÄ£ÐÍ˼Ïë·Ç³£µÄÀàËÆ£¬ÒòΪºÜºÃµØ´¦ÀíÁËOOVµÄÎÊÌ⣬ËùÒÔ½á¹û¶¼·Ç³£ºÃ¡£

10¡¢MRT+NHG[7]

Õâ¸öÄ£Ð͵ÄÌØ±ðÖ®´¦ÔÚÓÚÓÃÁËMinimum Risk TrainingѵÁ·Êý¾Ý£¬¶ø²»ÊÇ´«Í³µÄMLE£¨×î´óËÆÈ»¹À¼Æ£©£¬½«ÆÀ¼ÛÖ¸±ê°üº¬ÔÚÓÅ»¯Ä¿±êÄÚ£¬¸ü¼ÓÖ±½ÓµØ¶ÔÆÀ¼ÛÖ¸±ê×öÓÅ»¯£¬µÃµ½Á˲»´íµÄ½á¹û¡£

½á¹û

ÆÀ¼ÛÖ¸±êÊÇ·ñ¿ÆÑ§¿ÉÐжÔÓÚÒ»¸öÑо¿ÁìÓòµÄÑо¿Ë®Æ½ÓÐ×ÅÖ±½ÓµÄÓ°Ï죬ĿǰÔÚÎı¾ÕªÒªÈÎÎñÖÐ×î³£ÓÃµÄÆÀ¼Û·½·¨ÊÇROUGE(Recall-Oriented Understudy for Gisting Evaluation)¡£ROUGEÊܵ½ÁË»úÆ÷·­Òë×Ô¶¯ÆÀ¼Û·½·¨BLEUµÄÆô·¢£¬²»Í¬Ö®´¦ÔÚÓÚ£¬²ÉÓÃÕÙ»ØÂÊÀ´×÷Ϊָ±ê¡£»ù±¾Ë¼ÏëÊǽ«Ä£ÐÍÉú³ÉµÄÕªÒªÓë²Î¿¼ÕªÒªµÄnÔª×é¹±Ï×ͳ¼ÆÁ¿×÷ΪÆÀÅÐÒÀ¾Ý¡£

ÔÚÓ¢ÎÄÊý¾Ý¼¯DUC-2004ÉϽøÐÐÆÀ²â£¬½á¹ûÈçÏ£º

ÔÚÖÐÎÄÊý¾Ý¼¯LCSTSÉϽøÐÐÆÀ²â£¬½á¹ûÈçÏ£º

²»¹ÜÊÇÖÐÎÄÊý¾Ý¼¯»¹ÊÇÓ¢ÎÄÊý¾Ý¼¯ÉÏ£¬×îºÃµÄ½á¹û¶¼ÊÇÀ´×ÔÓÚÄ£ÐÍ10[7],²¢ÇÒ¸ÃÄ£ÐÍÖ»ÊDzÉÓÃ×îÆÕͨµÄseq2seq+attentionÄ£ÐÍ£¬¶¼Ã»ÓÐÓõ½Ð§¹û¸üºÃµÄcopy»úÖÆ»òÕßpointer»úÖÆ¡£

˼¿¼

×Ô¶¯ÎÄÕªÊÇÎÒ¹Ø×¢µÄµÚÒ»¸önlpÁìÓò£¬ÔçÆÚÁ˺ܶàÏà¹ØµÄpaper£¬´Ó·½·½ÃæÃæ¶¼ÓÐËùÁ˽⣬ҲÓÐһЩ±È½Ïdz±¡µÄÏë·¨£¬ÏÖÔÚ×ܽáһϡ£

1¡¢ÎªÊ²Ã´MRTÄÇÆªÎÄÕµĽá¹û»á±ÈÆäËû¸÷ÖÖ¸÷ÑùµÄÄ£ÐͶ¼ÒªºÃÄØ£¿ÒòΪËûÖ±½Ó½«ROUGEÖ¸±ê°üº¬ÔÚÁË´ýÓÅ»¯µÄÄ¿±êÖУ¬¶ø²»ÊÇÓëÆäËûÄ£ÐÍÒ»Ñù£¬²ÉÓô«Í³µÄMLEÀ´×ö£¬´«Í³µÄÄ¿±êÆÀ¼ÛµÄÊÇÄãµÄÉú³ÉÖÊÁ¿ÈçºÎ£¬µ«ÓëÎÒÃÇ×îÖÕÆÀ¼ÛµÄÖ¸±êROUGE²¢ÎÞÖ±½Ó¹ØÏµ¡£ËùÒÔ˵£¬»»ÁËÒ»ÖÖÓÅ»¯Ä¿±ê£¬Ö±½Ó¶¨Î»ÓÚÆÀ¼ÛÖ¸±êÉÏ×öÓÅ»¯£¬Ð§¹ûÒ»¶¨»áºÜºÃ¡£Õâµã²»½ö½öÔÚ×Ô¶¯ÎÄÕªÖгöÏÖ¹ý£¬ÎҼǵÃÔÚbotÏà¹ØµÄpaperÖл¹ÓлúÆ÷ÔĶÁÀí½âÏà¹ØµÄpaperÖж¼ÓгöÏÖ£¬Ö»ÊǾßÌåµÄÆÀ¼ÛÖ¸±ê²»Í¬¶øÒÑ¡£ÕâÒ»µãºÜÓÐÆô·¢ÐÔ£¬Èç¹ûÔÚÎÄÕÂ[7]ÖвÉÓÃcopy»úÖÆÀ´½â¾öOOVÎÊÌ⣬»á²»»áÓиü¼Ó¾ªÈ˵ÄЧ¹ûÄØ£¿ÎÒÃÇÊÃÄ¿ÒÔ´ý¡£

2¡¢OOV(out of vocabulary)µÄÎÊÌâ¡£ÒòΪÎı¾ÕªÒªËµµ½µ×£¬¶¼ÊÇÒ»¸öÓïÑÔÉú³ÉµÄÎÊÌ⣬ֻҪÊÇÉæ¼°µ½Éú³ÉµÄÎÊÌ⣬±ØÈ»»áÓöµ½OOVÎÊÌ⣬ÒòΪ²»¿ÉÄܽ«ËùÓдʶ¼·Åµ½´Ê±íÖÐÀ´¼ÆËã¸ÅÂÊ£¬¿ÉÐеķ½·¨ÊÇÓÃÑ¡Ôñtopn¸ö¸ßƵ´ÊÀ´×é³É´Ê±í¡£ÎÄÕÂ[4]ºÍ[8]¶¼²ÉÓÃÁËÏàËÆµÄ˼·£¬´ÓinputÖп½±´Ô­Îĵ½outputÖУ¬¶ø²»½ö½öÊÇÉú³É£¬ÕâÀïÐèÒªÉèÖÃÒ»¸ögateÀ´¾ö¶¨Õâ¸ö´ÊÊÇcopyÀ´»¹ÊÇgenerate³öÀ´¡£ÏÔÈ»£¬Ôö¼ÓÁËcopy»úÖÆµÄÄ£ÐÍ»áÔںܴó³Ì¶ÈÉϽâ¾öÁËOOVµÄÎÊÌ⣬¾Í»áÏÔÖøµØÌáÉýÆÀ¼Û½á¹û¡£ÕâÖÖ˼·²»½ö½öÔÚÎÄÕªÎÊÌâÉÏÊÊÓã¬ÔÚÒ»ÇÐÉú³ÉÎÊÌâÉ϶¼ÊÊÓ㬱ÈÈçbot¡£

3¡¢¹ØÓÚÆÀ¼ÛÖ¸±êµÄÎÊÌâ¡£Ò»¸öÆÀ¼ÛÖ¸±êÊÇ·ñ¿ÆÑ§Ö±½ÓÓ°ÏìÁËÕâ¸öÁìÓòµÄ·¢Õ¹Ë®Æ½£¬È˹¤ÆÀ¼ÛÎÒÃǾͲ»ÌáÁË£¬Ö»Ëµ×Ô¶¯ÆÀ¼Û¡£ROUGEÖ¸±êÔÚ2003Äê¾Í±»LinÌá³öÁË[9]£¬13Äê¹ýÈ¥ÁË£¬ÈÔȻûÓÐÒ»¸ö¸ü¼ÓºÏÊÊµÄÆÀ¼ÛÌåϵÀ´´úÌæËü¡£ROUGEÆÀ¼ÛÌ«¹ýËÀ°å£¬Ö»ÄÜÆÀ¼Û³öoutputºÍtargetÖ®¼äµÄһЩ±íÃæÐÅÏ¢£¬²¢²»Éæ¼°µ½ÓïÒå²ãÃæÉϵĶ«Î÷£¬ÊÇ·ñ¿ÉÒÔÌá³öÒ»ÖÖ¸ü¼Ó¸ß²ã´ÎµÄÆÀ¼ÛÌåϵ£¬´ÓÓïÒåÕâ¸ö²ãÃæÀ´ÆÀ¼ÛÕªÒªµÄЧ¹û¡£Æäʵ¼¼ÊõÉÏÎÊÌâ²»´ó£¬ÒòΪ¼ÆËãÁ½¸öÎı¾ÐòÁÐÖ®¼äµÄÏàËÆ¶ÈÓÐÎÞÊýÖÖ½â¾ö·½°¸£¬Óмල¡¢Î޼ල¡¢°ë¼à¶½µÈµÈµÈµÈ¡£ºÜÆÚ´ýÓÐÒ»ÖÖеÄÌåϵÀ´ÆÀ¼ÛժҪЧ¹û£¬ÏàÐÅÐÂµÄÆÀ¼ÛÌåϵһ¶¨»áÍÆ¶¯×Ô¶¯ÎÄÕªÁìÓòµÄ·¢Õ¹¡£

4¡¢¹ØÓÚÊý¾Ý¼¯µÄÎÊÌâ¡£LCSTSÊý¾Ý¼¯µÄ¹¹½¨¸øÖÐÎÄÎı¾ÕªÒªµÄÑо¿µì¶¨ÁË»ù´¡£¬½«»áºÜ´ó³Ì¶ÈµØÍƶ¯×Ô¶¯ÎÄÕªÔÚÖÐÎÄÁìÓòµÄ·¢Õ¹¡£ÏÖÔڵĻ¥ÁªÍø×ȱÉٵľÍÊÇÊý¾Ý£¬´óÁ¿µÄ·Ç½á¹¹»¯Êý¾Ý¡£µ«ÈçºÎ¹¹½¨Ò»¸ö¸ßÖÊÁ¿µÄÓïÁÏÊÇÒ»¸öÄÑÌ⣬ÈçºÎ¾¡Á¿±ÜÃâÓùý¶àµÄÈ˹¤ÊÖ¶ÎÀ´±£Ö¤ÖÊÁ¿£¬ÈçºÎÓÃ×Ô¶¯µÄ·½·¨À´ÌáÉýÓïÁϵÄÖÊÁ¿¶¼ÊÇÄÑÌâ¡£ËùÒÔ£¬Èç¹ûÄܹ»Ìá³öÒ»ÖÖȫеÄ˼·À´¹¹½¨×Ô¶¯ÎÄÕªÓïÁϵϰ£¬½«»á·Ç³£ÓÐÒâÒå¡£

 

   
4418 ´Îä¯ÀÀ       28
Ïà¹ØÎÄÕÂ

»ùÓÚͼ¾í»ýÍøÂçµÄͼÉî¶Èѧϰ
×Ô¶¯¼ÝÊ»ÖеÄ3DÄ¿±ê¼ì²â
¹¤Òµ»úÆ÷ÈË¿ØÖÆÏµÍ³¼Ü¹¹½éÉÜ
ÏîĿʵս£ºÈçºÎ¹¹½¨ÖªÊ¶Í¼Æ×
 
Ïà¹ØÎĵµ

5GÈ˹¤ÖÇÄÜÎïÁªÍøµÄµäÐÍÓ¦ÓÃ
Éî¶ÈѧϰÔÚ×Ô¶¯¼ÝÊ»ÖеÄÓ¦ÓÃ
ͼÉñ¾­ÍøÂçÔÚ½»²æÑ§¿ÆÁìÓòµÄÓ¦ÓÃÑо¿
ÎÞÈË»úϵͳԭÀí
Ïà¹Ø¿Î³Ì

È˹¤ÖÇÄÜ¡¢»úÆ÷ѧϰ&TensorFlow
»úÆ÷ÈËÈí¼þ¿ª·¢¼¼Êõ
È˹¤ÖÇÄÜ£¬»úÆ÷ѧϰºÍÉî¶Èѧϰ
ͼÏñ´¦ÀíËã·¨·½·¨Óëʵ¼ù