论文地址:A Neural Model for Generating Natural Language Summaries of Program Subroutines
ast-attentiongru
1. 简介
- 将代码视作文本的词表示和AST表示,为了区别这两种表示,将他们同时视为输入
- 设计了两种实验:① 标准实验,代码词+AST;② 挑战实验,没有代码词,只有AST
2. 模型
作者提出模型ast-attendgru,使用的attention-based encoder-decoder架构。在表示代码方面,使用了代码的token sequence和代码的结构AST,并且这两个部分分别进行encode,架构图如下:
数据集:自己收集的Java method 语料,51 million Java method form 50000 projects,经过处理后得到大约2.1m methods。
- baselines:
- attendgru
- SBT (ICPC 18)
- CODE-NN (Iyer 19)