欢迎来到得力文库 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
得力文库 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    自然语言处理(NLP)入门.docx

    • 资源ID:71086204       资源大小:20.25KB        全文页数:15页
    • 资源格式: DOCX        下载积分:14.8金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要14.8金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    自然语言处理(NLP)入门.docx

    自然语言处理(NLP)入门本文扼要介绍Python自然语言处理(NLP)使用Python的NLTK库。NLTK是Python的自然语言处理工具包在NLP领域中最常使用的一个Python库。什么是NLP简单来讲自然语言处理(NLP)就是开发可以理解人类语言的应用程序或者效劳。这里讨论一些自然语言处理(NLP)的实际应用例子如语音识别、语音翻译、理解完好的句子、理解匹配词的同义词和生成语法正确完好句子以及段落。这并不是NLP能做的所有事情。NLP实现搜索引擎:比方谷歌Yahoo等。谷歌搜索引擎知道你是一个技术人员所以它显示与技术相关的结果社交网站推送:比方FacebookNewsFeed。假如NewsFeed算法知道你的兴趣是自然语言处理就会显示相关的广告以及帖子。语音引擎:比方Apple的Siri。垃圾邮件过滤:如谷歌垃圾邮件过滤器。以及普通垃圾邮件过滤不同它通过解析邮件内容里面的的深层意义来判断是不是垃圾邮件。NLP库下面是一些开源的自然语言处理库(NLP)Naturallanguagetoolkit(NLTK);ApacheOpenNLP;StanfordNLPsuite;GateNLPlibrary其中自然语言工具包(NLTK)是最受欢送的自然语言处理库(NLP)它是用Python编写的而且背后有非常强大的社区支持。NLTK也很容易上手实际上它是最简单的自然语言处理(NLP)库。在这个NLP教程中我们将使用PythonNLTK库。安装NLTK假如您使用的是Windows/Linux/Mac您可以使用pip安装NLTK:pipinstallnltk翻开python终端导入NLTK检查NLTK是否正确安装importnltk假如一切顺利这意味着您已经成功地安装了NLTK库。首次安装了NLTK需要通过运行以下代码来安装NLTK扩展包:importnltknltk.download()这将弹出NLTK下载窗口来选择需要安装哪些包:您可以安装所有的包因为它们的大小都很小所以没有什么问题。使用PythonTokenize文本首先我们将抓取一个web页面内容然后分析文本解析页面的内容。我们将使用urllib模块来抓取web页面:importurllib.requestresponseurllib.request.urlopen(:/从打印结果中可以看到结果包含许多需要清理的HTML标签。然后BeautifulSoup模块来清洗这样的文字:frombs4importBeautifulSoupimporturllib.requestresponseurllib.request.urlopen(:/如今我们从抓取的网页中得到了一个干净的文本。下一步将文本转换为tokens,像这样:frombs4importBeautifulSoupimporturllib.requestresponseurllib.request.urlopen(:/统计词频text已经处理完毕了如今使用PythonNLTK统计token的频率分布。可以通过调用NLTK中的FreqDist()方法实现:frombs4importBeautifulSoupimporturllib.requestimportnltkresponseurllib.request.urlopen(:/假如搜索输出结果可以发现最常见的token是PHP。您可以调用plot函数做出频率分布图:freq.plot(20,cumulativeFalse)#需要安装matplotlib库这上面这些单词。比方of,a,an等等这些词都属于停用词。一般来讲停用词应该删除防止它们影响分析结果。处理停用词NLTK自带了许多种语言的停用词列表假如你获取英文停用词:fromnltk.corpusimportstopwordsstopwords.words(english)如今修改下代码,在绘图之前去除一些无效的token:clean_tokenslist()srstopwords.words(english)fortokenintokens:iftokennotinsr:clean_tokens.append(token)最终的代码应该是这样的:frombs4importBeautifulSoupimporturllib.requestimportnltkfromnltk.corpusimportstopwordsresponseurllib.request.urlopen(:/如今再做一次词频统计图效果会比之前好些因为剔除了停用词:freq.plot(20,cumulativeFalse)使用NLTKTokenize文本在之前我们用split方法将文本分割成tokens如今我们使用NLTK来Tokenize文本。文本没有Tokenize之前是无法处理的所以对文本进展Tokenize非常重要的。token化经过意味着将大的部件分割为小部件。你可以将段落tokenize成句子将句子tokenize成单个词NLTK分别提供了句子tokenizer以及单词tokenizer。假设有这样这段文本:HelloAdam,howareyou?Ihopeeverythingisgoingwell.Todayisagoodday,seeyoudude使用句子tokenizer将文本tokenize成句子:fromnltk.tokenizeimportsent_tokenizemytextHelloAdam,howareyou?Ihopeeverythingisgoingwell.Todayisagoodday,seeyoudude.print(sent_tokenize(mytext)输出如下:HelloAdam,howareyou?,Ihopeeverythingisgoingwell.,Todayisagoodday,seeyoudude.这是你可能会想这也太简单了不需要使用NLTK的tokenizer都可以直接使用正那么表达式来拆分句子就行因为每个句子都有标点以及空格。那么再来看下面的文本:HelloMr.Adam,howareyou?Ihopeeverythingisgoingwell.Todayisagoodday,seeyoudude.这样假如使用标点符号拆分,HelloMr将会被认为是一个句子假如使用NLTK:fromnltk.tokenizeimportsent_tokenizemytextHelloMr.Adam,howareyou?Ihopeeverythingisgoingwell.Todayisagoodday,seeyoudude.print(sent_tokenize(mytext)输出如下:HelloMr.Adam,howareyou?,Ihopeeverythingisgoingwell.,Todayisagoodday,seeyoudude.这才是正确的拆分。接下来试试单词tokenizer:fromnltk.tokenizeimportword_tokenizemytextHelloMr.Adam,howareyou?Ihopeeverythingisgoingwell.Todayisagoodday,seeyoudude.print(word_tokenize(mytext)输出如下:Hello,Mr.,Adam,how,are,you,?,I,hope,everything,is,going,well,.,Today,is,a,good,day,see,you,dude,.Mr.这个词也没有被分开。NLTK使用的是punkt模块的PunktSentenceTokenizer它是NLTK.tokenize的一局部。而且这个tokenizer经过训练可以适用于多种语言。非英文TokenizeTokenize时可以指定语言:fromnltk.tokenizeimportsent_tokenizemytextBonjourM.Adam,commentallez-vous?Jespèrequetoutvabien.Aujourdhuiestunbonjour.print(sent_tokenize(mytext,french)输出结果如下:BonjourM.Adam,commentallez-vous?,Jespèrequetoutvabien.,Aujourdhuiestunbonjour.同义词处理使用nltk.download()安装界面其中一个包是WordNet。WordNet是一个为自然语言处理而建立的数据库。它包括一些同义词组以及一些简短的定义。您可以这样获取某个给定单词的定义以及例如:fromnltk.corpusimportwordnetsynwordnet.synsets(pain)print(syn0.definition()print(syn0.examples()输出结果是:asymptomofsomephysicalhurtordisorderthepatientdevelopedseverepainanddistensionWordNet包含了很多定义fromnltk.corpusimportwordnetsynwordnet.synsets(NLP)print(syn0.definition()synwordnet.synsets(Python)print(syn0.definition()结果如下:thebranchofinformationsciencethatdealswithnaturallanguageinformationlargeOldWorldboas可以像这样使用WordNet来获取同义词:fromnltk.corpusimportwordnetsynonymsforsyninwordnet.synsets(Computer):forlemmainsyn.lemmas():synonyms.append(lemma.name()print(synonyms)输出:computer,computing_machine,computing_device,data_processor,electronic_computer,information_processing_system,calculator,reckoner,figurer,estimator,computer反义词处理可以以用同样的方法得到反义词fromnltk.corpusimportwordnetantonymsforsyninwordnet.synsets(small):forlinsyn.lemmas():ifl.antonyms():antonyms.append(l.antonyms()0.name()print(antonyms)输出:large,big,big词干提取语言形态学以及信息检索里词干提取是去除词缀得到词根的经过例如working的词干为work。搜索引擎在索引页面时就会使用这种技术所以很多人为一样的单词写出不同的版本。有很多种算法可以防止这种情况最常见的是波特词干算法。NLTK有一个名为PorterStemmer的类就是这个算法的实现:fromnltk.stemimportPorterStemmerstemmerPorterStemmer()print(stemmer.stem(working)print(stemmer.stem(worked)输出结果是:workwork还有其他的一些词干提取算法比方Lancaster词干算法。非英文词干提取除了英文之外SnowballStemmer还支持13种语言。支持的语言:fromnltk.stemimportSnowballStemmerprint(SnowballStemmer.languages)danish,dutch,english,finnish,french,german,hungarian,italian,norwegian,porter,portuguese,romanian,russian,spanish,swedish你可以使用SnowballStemmer类的stem函数来提取像这样的非英文单词fromnltk.stemimportSnowballStemmerfrench_stemmerSnowballStemmer(french)print(french_stemmer.stem(Frenchword)单词变体复原单词变体复原类似于词干但不同的是变体复原的结果是一个真实的单词。不同于词干当你试图提取某些词时它会产生类似的词:fromnltk.stemimportPorterStemmerstemmerPorterStemmer()print(stemmer.stem(increases)结果:increas如今假如用NLTK的WordNet来对同一个单词进展变体复原才是正确的结果:fromnltk.stemimportWordNetLemmatizerlemmatizerWordNetLemmatizer()print(lemmatizer.lemmatize(increases)结果:increase结果可能会是一个同义词或者同一个意思的不同单词。有时候将一个单词做变体复原时总是得到一样的词。这是因为语言的默认局部是名词。要得到动词可以这样指定fromnltk.stemimportWordNetLemmatizerlemmatizerWordNetLemmatizer()print(lemmatizer.lemmatize(playing,posv)结果:play实际上这也是一种很好的文本压缩方式最终得到文本只有原先的50%到60%。结果还可以是动词(v)、名词(n)、形容词(a)或者副词(r)fromnltk.stemimportWordNetLemmatizerlemmatizerWordNetLemmatizer()print(lemmatizer.lemmatize(playing,posv)print(lemmatizer.lemmatize(playing,posn)print(lemmatizer.lemmatize(playing,posa)print(lemmatizer.lemmatize(playing,posr)输出:playplayingplayingplaying词干以及变体的区别通过下面例子来观察:fromnltk.stemimportWordNetLemmatizerfromnltk.stemimportPorterStemmerstemmerPorterStemmer()lemmatizerWordNetLemmatizer()print(stemmer.stem(stones)print(stemmer.stem(speaking)print(stemmer.stem(bedroom)print(stemmer.stem(jokes)print(stemmer.stem(lisa)print(stemmer.stem(purple)print(-)print(lemmatizer.lemmatize(stones)print(lemmatizer.lemmatize(speaking)print(lemmatizer.lemmatize(bedroom)print(lemmatizer.lemmatize(jokes)print(lemmatizer.lemmatize(lisa)print(lemmatizer.lemmatize(purple)输出:stonespeakbedroomjokelisapurplstonespeakingbedroomjokelisapurple词干提取不会考虑语境这也是为什么词干提取比变体复原快且准确度低的原因。个人认为变体复原比词干提取更好。单词变体复原返回一个真实的单词即使它不是同一个单词也是同义词但至少它是一个真实存在的单词。假如你只关心速度不在意准确度这时你可以选用词干提取。在此NLP教程中讨论的所有步骤都只是文本预处理。在以后的文章中将会使用PythonNLTK来实现文本分析。我已经尽量使文章通俗易懂。祈望能对你有所帮助。SinGaln

    注意事项

    本文(自然语言处理(NLP)入门.docx)为本站会员(安***)主动上传,得力文库 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知得力文库 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于得利文库 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

    © 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

    黑龙江省互联网违法和不良信息举报
    举报电话:0468-3380021 邮箱:hgswwxb@163.com  

    收起
    展开