欢迎来到得力文库 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
得力文库 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    作为人工智能分支的自然语言处理停滞的技术.ppt

    • 资源ID:521429       资源大小:496KB        全文页数:38页
    • 资源格式: PPT        下载积分:20金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要20金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    作为人工智能分支的自然语言处理停滞的技术.ppt

    作为人工智能分支的自然语言处理:停滞的技术,赵 海上海交通大学 计算机科学与工程系 zhaohaics.sjtu.edu.cn沈阳 2010.09.18,2,起源,以人工智能的知识工程的角度来看待分析当前的自然语言处理技术。当前的自然语言处理被机器学习为代表的自动化数据挖掘技术所严重渗透。可将其归结为一种知识获得和学习分离的智能系统处理方法。忽略了基本的机器学习原则而导致低效的知识处理两个关联但是有区别的困境单一的数据挖掘方式的自然语言处理未能从根本上改变知识表示和知识获取的人工智能困难。以监督学习为代表的统计机器学习方法并不能带来真正的实用化的推广性能增长。我们的建议。,3,内容,自然语言处理中的机器学习技术的兴起被忽略的准则没有免费的午餐丑小鸭 Zipf律困境的实例学习性能增长根本来源是语料增长指数增长的语料带来线形的性能提升结语,4,机器学习的兴起现代方法,最大熵用于词性标注Adwait Ratnaparkhi, Jeffrey C. Reynar, Salim Roukos. A Maximum Entropy Model for Prepositional Phrase Attachment. HLT 1994 机器翻译Franz Josef Och, Hermann Ney. Discriminative Training and Maximum Entropy Models for Statistical Machine Translation. In ACL 2002: Proc. of the 40th Annual Meeting of the Association for Computational Linguistics (best paper award), pp. 295-302, Philadelphia, PA, July 2002. CoNLLThe Conference on Computational Language Learning (CoNLL-97) was held on July 11, 1997 in Madrid, Spain. Named entity recognition, chunking, semantic role labeling, dependency parsing, joint learning of syntactic and semantic dependencies, etc,5,机器学习方法的兴起中文处理,Bakeoff-1: 2003分词Bakeoff-2: 2005分词,统一的机器学习方法Bakeoff-3: 2006分词,命名实体识别Bakeoff-4: 2007,2008分词,命名实体识别,词性标注,6,为什么要机器学习,样本比规则好定义规则会忽略低频情形语言的解释涉及的因素过多Fernando PereiraMachine Learning in Natural Language ProcessingUniversity of PennsylvaniaNASSLLI, June 2002,7,为什么要机器学习,机器学习降低了知识表示的难度!,8,机器学习方法的特征,标注数据:语料知识表示学习方法知识获取,9,机器学习方法的特征,机器学习针对于传统的人工智能。知识表示和获取的分离语料构建:专注于知识表示机器学习:专注于知识获取对比:专家系统规则的获取和表示是同步的。规则的管理是低效率的,困难的。,10,机器学习和知识源,从知识工程看待机器学习规则1学习模型本身/特征体系规则2-n标注语料,11,学习模型,学习模型的三要素目标函数:知识源特征体系:部分的知识源参数估计算法:与知识源基本无关,12,机器学习:数据,假定已有数据合理近似现实世界?拥有数据训练数据集(training set data):训练测试数据(testing data):评估验证集validation set:避免过拟合overfitting。真实数据(real data):最终的检验,13,学习模型并不重要定理:没有免费的午餐,结论描述 by David Wolpert and William G. Macready 由于对所有可能函数的相互补偿,最优化算法的性能是等价的。没有其它任何算法能够比搜索空间的线性列举或者纯随机搜索算法更优。该定理只是定义在有限的搜索空间,对无限搜索空间结论是否成立尚不清楚。 参考文献Wolpert, D.H., Macready, W.G. (1995), No Free Lunch Theorems for Search, Technical Report SFI-TR-95-02-010 (Santa Fe Institute). Wolpert, David (1996), "“The Lack of A Priori Distinctions between Learning Algorithms," Neural Computation, pp. 1341-1390. Wolpert, D.H., Macready, W.G. (1997), "No Free Lunch Theorems for Optimization," IEEE Transactions on Evolutionary Computation 1, 67.,14,算法的人工倾向,任何学习算法都需要一些“倾向性”,用来区分可能的结果。 回到知识源的观点学习模型的三要素目标函数:知识源特征体系:部分的知识源参数估计算法:与知识源基本无关,15,不拒绝个别优化,机器学习的最优是依赖于案例特性的!算法可能特别适应于某个特定任务存在一般的优越算法吗?不存在,16,学习模型 vs. 特征工程,我们给出的一个没有免费午餐定理的直观的强化描述给定任何一个学习模型,如果进行充分的特征工程,则在此意义下,没有一个学习模型能够给出更优的性能。举例:我们在依存句法分析上的实践Nivre验证SVM提供了最强的性能我们用最大熵在同样的学习框架下给出了更强的结果。而通常认为SVM这样的边界最大化分类器优于最大熵。我们在语义依存分析上的实践我们同行用联合学习模型,我们使用纯粹的特征工程。CoNLL-2009评测结果:我们在SRL项目总分第一。,17,丑小鸭原理,20世纪60年代美籍日裔模式识别专家渡边慧证明了“丑小鸭定理”。该定理认为“丑小鸭与白天鹅之间的区别和两只白天鹅之间的区别一样大”。世 界上不存在分类的客观标准,一切分类标准都是主观的。渡边慧举了鲸鱼的例子说明该定理:按照生物学分类方法,鲸鱼属于哺乳类偶蹄目,和牛是一 类;但在产业界,捕鲸与捕鱼都要行船出海,鲸和鱼同属水产业,而不属于包括牛的畜牧业。分类结果取决于选择什么特征作为分类标准,而特征的选择又依存于人 的目的或价值观。丑小鸭是白天鹅的幼雏,在画家眼里,丑小鸭和白天鹅的区别大于两只白天鹅的区别;但在遗传学家眼里,丑小鸭与其父亲或母亲的差别小于父母 之间的差别。 参考文献Watanabe, Satosi (1969). Knowing and Guessing: A Quantitative Study of Inference and Information. New York: Wiley. pp. 376377.,18,Zipfs Law,数据稀疏的严重性,19,严重的问题,统计方法如何克服严重的稀疏性?不断增大标注数据,20,研究者的通常做法,忙于把各种最新的机器学习方法移植到所有的自然语言处理任务上,并企图证明某个最新机器学习模型的移植是最有效的。忘了没有免费的午餐?少有人考虑特征工程/语料构建,21,不能脱离人的主观性的机器学习,小结:从语料中自动获得表达知识的规则依赖于人的主观定义下的启发式规则确定特征和目标函数知识的流动:从语料到学习获得的模型大量的标注数据的获得并不容易,但是必须,22,一个简单的机器学习任务:中文分词,Bakeoff切分语料CRF学习模型字标注框架,23,分词信息的知识源,切分语料辅助切分器作为特征词典最大匹配结果作为特征参考文献Hai Zhao, Chang-Ning Huang, Mu Li (2006). An Improved Chinese Word Segmentation System with Conditional Random Field, SIGHAN-2006Low, Jin Kiat, & Ng, Hwee Tou, & Guo, Wenyuan (2005). A Maximum Entropy Approach to Chinese Word Segmentation, SIGHAN-2005,24,数据,方法 字标注学习方法 CRFs 前向最大匹配算法参考文献Hai Zhao, Yan Song and Chunyu Kit, How Large a Corpus do We Need:Statistical Method vs. Rule-based Method, LREC-2010,25,实验1: 统计方法给出的结果等效于有效知识源的扩大,辅助分类器,26,实验1: 结果,CTB2006 MSRA2006,27,实验1: 为什么附加语料提升性能,作为机器学习的解释学习模型记住了引入的新的字搭配模式,改进了Foov我们需要多少附加语料?有效知识源扩大:只要知识源规模不断扩大,性能就能提升?学习模型的贡献在哪里?,28,实验1: 谨慎的结论,开放测试问题是否可以转换为一个单一的可供集成的语言资源的扩大。我们部分做到了这一点!机器学习模型的贡献有限。,29,实验2: 评估语料规模对性能的影响,如果 语料规模是唯一影响性能的因素, 那么 对于一个特定的性能度量要多大规模的语料来学习?,30,实验2: 数据划分,是用平均化策略克服过小数据集的数据稀疏性,31,实验2: 学习曲线:CRFs vs. FMM,32,实验2: CRFs 性能vs语料规模指数增长的语料带来线形性能提升,33,实验2: FMM 性能 vs. 语料规模,34,实验2: FMM 词典大小 vs. 性能,35,实验2: 小结,坏消息: 统计方法下面,线性的性能增长要指数规模扩大的语料以便克服 Zipf 率带来的稀疏性。扩大语料并非易事。好消息:规则方法要求线性的资源扩大 。统计方法 vs 规则方法考虑:词典比语料容易获得,36,目前的问题,机器学习方法的使用部分地解决了知识表示问题,但是没有根本解决这一问题。机器学习方法依然依赖于人工知识,特别是人工规则方法。机器学习方法过度依赖于标注语料的规模。机器学习方法的NFL特性被忽略。不断尝试最新的学习模型不是技术进步,37,我们的建议,从知识工程的角度考虑问题考虑更好的语料组织形式:知识库?考虑NFL因素,关注特征工程,谢谢!,

    注意事项

    本文(作为人工智能分支的自然语言处理停滞的技术.ppt)为本站会员(tang****xu1)主动上传,得力文库 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知得力文库 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于得利文库 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

    © 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

    黑龙江省互联网违法和不良信息举报
    举报电话:0468-3380021 邮箱:hgswwxb@163.com  

    收起
    展开