论文标题:Unsupervised Alignment-based Iterative Evidence Retrieval for Multi-hop Question Answering
论文来源:ACL 2020
论文链接:https://arxiv.org/abs/2005.01218
机器学习算法的可解释性仍然是机器学习在真实世界应用中的一个关键的未解决的问题。作者认为,当前许多 QA 的神经网络方法的研究缺乏对推断过程的人类可理解的解释,而这阻碍了这些方法应用于真实的应用中。
该文关注于多跳、多项选择的问答系统,并尝试提供可解释性。这类问答系统的特点是,答案文本可能不是来自于实际的知识库文段;并且在给定问题时,要求该问答系统具有能够将候选答案链接起来的推理能力。
该文将所提出的模型称为 AIR (Alignment-based Iterative Retriever). 它尝试从非结构化的知识库中,检索高质量的解释语句。即该研究关注的是检索到一个问答的解释,而不是检索到一个问题的答案。作者认为,该方法提供的解释不仅有助于解释回答一个问题的推理步骤,并且也能显著提升问答系统本身的性能。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...