对话是自然语言处理的一个重要研究领域,其成果已经得到广泛的应用.然而中文对话模型训练时由于字词数量庞大,必然会面临模型复杂度过高的问题.为解决此问题,该文首先将对话模型的汉字输入转化为拼音输入并将拼音分为声母、韵母和声调三个部分,以此减小输入的字词数量.然后以嵌入编码的方法将拼音信息组合为图像形式,再通过全卷积神经网络(FCN)和双向Long Short Term Memory(LSTM)网络提取拼音特征.最后采用4层的Gated Recurrent Units(GRU)网络对拼音特征进行解码以解决长时记忆问题,得到对话模型的输出.在此基础上,模型在解码阶段加入了注意力机制,使模型的输出可以更好地与输入进行对应.为对提出的中文对话模型进行评价,该文建立了应用于医疗领域的中文对话数据库,并以BLEU和ROUGE_L为评价指标在该数据库上对模型进行了测试.