(图来自亿欧网)
自然语言处理发展得很早,计算机刚刚发明之后,人们就开始了自然语言处理的研究。机器翻译是其中最早进行的NLP研究。那时的NLP研究都是基于规则的,或者基于专家知识的。而阅读理解技术是怎么发展而来的呢?在图像识别和语音识别领域的成果激励下,人们逐渐开始引入深度学习来做NLP研究,于是阅读理解技术应运而生。
这类技术也面临很多挑战。具体来讲,包括: 如何跟知识学习——有效地把知识包括语言学知识、领域知识用起来;
如何跟环境学习——通过强化学习的方式提升系统的性能;
如何跟上下文学习——利用上下文进一步增强对当前句子的处理能力;
如何利用用户画像体现个性化。
每个环节若出现偏差都有可能导致结果的不准确。
2、AI阅读理解缺乏真正的思考
让我们先来看一道语文考试中常见的阅读理解题目——
老师提出问题:为什么作者描写的“窗帘”是蓝色的? 学生答:“因为窗帘是蓝色的。” 老师说:“错!蓝色的‘窗帘’具有愁绪的意味,表达作者当时困郁的心境……
这种类型的阅读理解,大家都很熟悉吧。目前,AI在中文阅读理解的简答题型方面表现如何还没有具体的数据可以说明(值得一提的是,百度即将筹办中文阅读理解比赛,竞赛将于2018年3月1日正式开启报名通道)。但是针对这类题型,人类早已总结出了一套答题技巧,更何况是收集了大量数据文本的机器呢?在为AI建立模型时,完全可以达到以某个词汇来刺激AI作出相应答案的程度。比如上文中的“蓝色”对应“惆怅,困郁”,再如“书信”对应“思念”等等。但是,这种操作下,AI阅读理解在做题时用的不是“理解”,而是“套路”;因为机器没有“思考”,只有“运算”。
为什么这么说呢?我们大概能在AI阅读理解的做题流程中找到答案:
Embedding Layer(相当于是人的词汇级的阅读知识):一般采用的都是在外部大规模数据上预训练的词向量(例如Glove等),以及基于循环神经网络或者卷积神经网络的从字符到单词的词向量(表示),这样就可以得到问题和文章段落里面每个单词的上下文无关的表示。
Encoding Layer(相当于人通览全文)
文章TAG:帮助