用Python给文本创立向量空间模型的教程

发表于 5年以前  | 总阅读数:427 次

我们需要开始思考如何将文本集合转化为可量化的东西。最简单的方法是考虑词频。

我将尽量尝试不使用NLTK和Scikits-Learn包。我们首先使用Python讲解一些基本概念。

基本词频

首先,我们回顾一下如何得到每篇文档中的词的个数:一个词频向量。


    #examples taken from here: http://stackoverflow.com/a/1750187

    mydoclist = ['Julie loves me more than Linda loves me',
    'Jane likes me more than Julie loves me',
    'He likes basketball more than baseball']

    #mydoclist = ['sun sky bright', 'sun sun bright']

    from collections import Counter

    for doc in mydoclist:
      tf = Counter()
      for word in doc.split():
        tf[word] +=1
      print tf.items()

    [('me', 2), ('Julie', 1), ('loves', 2), ('Linda', 1), ('than', 1), ('more', 1)]
    [('me', 2), ('Julie', 1), ('likes', 1), ('loves', 1), ('Jane', 1), ('than', 1), ('more', 1)]
    [('basketball', 1), ('baseball', 1), ('likes', 1), ('He', 1), ('than', 1), ('more', 1)]

这里我们引入了一个新的Python对象,被称作为Counter。该对象只在Python2.7及更高的版本中有效。Counters非常的灵活,利用它们你可以完成这样的功能:在一个循环中进行计数。

根据每篇文档中词的个数,我们进行了文档量化的第一个尝试。但对于那些已经学过向量空间模型中"向量"概念的人来说,第一次尝试量化的结果不能进行比较。这是因为它们不在同一词汇空间中。

我们真正想要的是,每一篇文件的量化结果都有相同的长度,而这里的长度是由我们语料库的词汇总量决定的。


    import string #allows for format()

    def build_lexicon(corpus):
      lexicon = set()
      for doc in corpus:
        lexicon.update([word for word in doc.split()])
      return lexicon

    def tf(term, document):
     return freq(term, document)

    def freq(term, document):
     return document.split().count(term)

    vocabulary = build_lexicon(mydoclist)

    doc_term_matrix = []
    print 'Our vocabulary vector is [' + ', '.join(list(vocabulary)) + ']'
    for doc in mydoclist:
      print 'The doc is "' + doc + '"'
      tf_vector = [tf(word, doc) for word in vocabulary]
      tf_vector_string = ', '.join(format(freq, 'd') for freq in tf_vector)
      print 'The tf vector for Document %d is [%s]' % ((mydoclist.index(doc)+1), tf_vector_string)
      doc_term_matrix.append(tf_vector)

      # here's a test: why did I wrap mydoclist.index(doc)+1 in parens? it returns an int...
      # try it! type(mydoclist.index(doc) + 1)

    print 'All combined, here is our master document term matrix: '
    print doc_term_matrix

我们的词向量为[me, basketball, Julie, baseball, likes, loves, Jane, Linda, He, than, more]

文档"Julie loves me more than Linda loves me"的词频向量为:[2, 0, 1, 0, 0, 2, 0, 1, 0, 1, 1]

文档"Jane likes me more than Julie loves me"的词频向量为:[2, 0, 1, 0, 1, 1, 1, 0, 0, 1, 1]

文档"He likes basketball more than baseball"的词频向量为:[0, 1, 0, 1, 1, 0, 0, 0, 1, 1, 1]

合在一起,就是我们主文档的词矩阵:

[[2, 0, 1, 0, 0, 2, 0, 1, 0, 1, 1], [2, 0, 1, 0, 1, 1, 1, 0, 0, 1, 1], [0, 1, 0, 1, 1, 0, 0, 0, 1, 1, 1]]

好吧,这看起来似乎很合理。如果你有任何机器学习的经验,你刚刚看到的是建立一个特征空间。现在每篇文档都在相同的特征空间中,这意味着我们可以在同样维数的空间中表示整个语料库,而不会丢失太多信息。

标准化向量,使其L2范数为1

一旦你在同一个特征空间中得到了数据,你就可以开始应用一些机器学习方法:分类、聚类等等。但实际上,我们同样遇到一些问题。单词并不都包含相同的信息。

如果有些单词在一个单一的文件中过于频繁地出现,它们将扰乱我们的分析。我们想要对每一个词频向量进行比例缩放,使其变得更具有代表性。换句话说,我们需要进行向量标准化。

我们真的没有时间过多地讨论关于这方面的数学知识。现在仅仅接受这样一个事实:我们需要确保每个向量的L2范数等于1。这里有一些代码,展示这是如何实现的。


    import math

    def l2_normalizer(vec):
      denom = np.sum([el**2 for el in vec])
      return [(el / math.sqrt(denom)) for el in vec]

    doc_term_matrix_l2 = []
    for vec in doc_term_matrix:
      doc_term_matrix_l2.append(l2_normalizer(vec))

    print 'A regular old document term matrix: '
    print np.matrix(doc_term_matrix)
    print '\nA document term matrix with row-wise L2 norms of 1:'
    print np.matrix(doc_term_matrix_l2)

    # if you want to check this math, perform the following:
    # from numpy import linalg as la
    # la.norm(doc_term_matrix[0])
    # la.norm(doc_term_matrix_l2[0])

格式化后的旧的文档词矩阵:


    [[2 0 1 0 0 2 0 1 0 1 1]
    [2 0 1 0 1 1 1 0 0 1 1]
    [0 1 0 1 1 0 0 0 1 1 1]]

按行计算的L2范数为1的文档词矩阵:


    [[ 0.57735027 0. 0.28867513 0. 0. 0.57735027
    0. 0.28867513 0. 0.28867513 0.28867513]
    [ 0.63245553 0. 0.31622777 0. 0.31622777 0.31622777
    0.31622777 0. 0. 0.31622777 0.31622777]
    [ 0. 0.40824829 0. 0.40824829 0.40824829 0. 0.
    0. 0.40824829 0.40824829 0.40824829]]

还不错,没有太深究线性代数的知识,你就可以马上看到我们按比例缩小了各个向量,使它们的每一个元素都在0到1之间,并且不会丢失太多有价值的信息。你看到了,一个计数为1的词在一个向量中的值和其在另一个向量中的值不再相同。

为什么我们关心这种标准化吗?考虑这种情况,如果你想让一个文档看起来比它实际上和一个特定主题更相关,你可能会通过不断重复同一个词,来增加它包含到一个主题的可能性。坦率地说,在某种程度上,我们得到了一个在该词的信息价值上衰减的结果。所以我们需要按比例缩小那些在一篇文档中频繁出现的单词的值。

IDF频率加权

我们现在还没有得到想要的结果。就像一篇文档中的所有单词不具有相同的价值一样,也不是全部文档中的所有单词都有价值。我们尝试利用反文档词频(IDF)调整每一个单词权重。我们看看这包含了些什么:


    def numDocsContaining(word, doclist):
      doccount = 0
      for doc in doclist:
        if freq(word, doc) > 0:
          doccount +=1
      return doccount 

    def idf(word, doclist):
      n_samples = len(doclist)
      df = numDocsContaining(word, doclist)
      return np.log(n_samples / 1+df)

    my_idf_vector = [idf(word, mydoclist) for word in vocabulary]

    print 'Our vocabulary vector is [' + ', '.join(list(vocabulary)) + ']'
    print 'The inverse document frequency vector is [' + ', '.join(format(freq, 'f') for freq in my_idf_vector) + ']'

我们的词向量为[me, basketball, Julie, baseball, likes, loves, Jane, Linda, He, than, more]

反文档词频向量为[1.609438, 1.386294, 1.609438, 1.386294, 1.609438, 1.609438, 1.386294, 1.386294, 1.386294, 1.791759, 1.791759]

现在,对于词汇中的每一个词,我们都有一个常规意义上的信息值,用于解释他们在整个语料库中的相对频率。回想一下,这个信息值是一个"逆"!即信息值越小的词,它在语料库中出现的越频繁。

我们快得到想要的结果了。为了得到TF-IDF加权词向量,你必须做一个简单的计算:tf * idf。

现在让我们退一步想想。回想下线性代数:如果你用一个AxB的向量乘以另一个AxB的向量,你将得到一个大小为AxA的向量,或者一个标量。我们不会那么做,因为我们想要的是一个具有相同维度(1 x词数量)的词向量,向量中的每个元素都已经被自己的idf权重加权了。我们如何在Python中实现这样的计算呢?

在这里我们可以编写完整的函数,但我们不那么做,我们将要对numpy做一个简介。


    import numpy as np

    def build_idf_matrix(idf_vector):
      idf_mat = np.zeros((len(idf_vector), len(idf_vector)))
      np.fill_diagonal(idf_mat, idf_vector)
      return idf_mat

    my_idf_matrix = build_idf_matrix(my_idf_vector)

    #print my_idf_matrix

太棒了!现在我们已经将IDF向量转化为BxB的矩阵了,矩阵的对角线就是IDF向量。这意味着我们现在可以用反文档词频矩阵乘以每一个词频向量了。接着,为了确保我们也考虑那些过于频繁地出现在文档中的词,我们将对每篇文档的向量进行标准化,使其L2范数等于1。


    doc_term_matrix_tfidf = []

    #performing tf-idf matrix multiplication
    for tf_vector in doc_term_matrix:
      doc_term_matrix_tfidf.append(np.dot(tf_vector, my_idf_matrix))

    #normalizing
    doc_term_matrix_tfidf_l2 = []
    for tf_vector in doc_term_matrix_tfidf:
      doc_term_matrix_tfidf_l2.append(l2_normalizer(tf_vector))

    print vocabulary
    print np.matrix(doc_term_matrix_tfidf_l2) # np.matrix() just to make it easier to look at

    set(['me', 'basketball', 'Julie', 'baseball', 'likes', 'loves', 'Jane', 'Linda', 'He', 'than', 'more'])

    [[ 0.57211257 0. 0.28605628 0. 0. 0.57211257
    0. 0.24639547 0. 0.31846153 0.31846153]
    [ 0.62558902 0. 0.31279451 0. 0.31279451 0.31279451
    0.26942653 0. 0. 0.34822873 0.34822873]
    [ 0. 0.36063612 0. 0.36063612 0.41868557 0. 0.
    0. 0.36063612 0.46611542 0.46611542]]

太棒了!你刚看到了一个展示如何繁琐地建立一个TF-IDF加权的文档词矩阵的例子。

最好的部分来了:你甚至不需要手动计算上述变量,使用scikit-learn即可。

记住,Python中的一切都是一个对象,对象本身占用内存,同时对象执行操作占用时间。使用scikit-learn包,以确保你不必担心前面所有步骤的效率问题。

注意:你从TfidfVectorizer/TfidfTransformer得到的值将和我们手动计算的值不同。这是因为scikit-learn使用一个Tfidf的改进版本处理除零的错误。这里有一个更深入的讨论。


    from sklearn.feature_extraction.text import CountVectorizer

    count_vectorizer = CountVectorizer(min_df=1)
    term_freq_matrix = count_vectorizer.fit_transform(mydoclist)
    print "Vocabulary:", count_vectorizer.vocabulary_

    from sklearn.feature_extraction.text import TfidfTransformer

    tfidf = TfidfTransformer(norm="l2")
    tfidf.fit(term_freq_matrix)

    tf_idf_matrix = tfidf.transform(term_freq_matrix)
    print tf_idf_matrix.todense()

    Vocabulary: {u'me': 8, u'basketball': 1, u'julie': 4, u'baseball': 0, u'likes': 5, u'loves': 7, u'jane': 3, u'linda': 6, u'more': 9, u'than': 10, u'he': 2}
    [[ 0. 0. 0. 0. 0.28945906 0.
    0.38060387 0.57891811 0.57891811 0.22479078 0.22479078]
    [ 0. 0. 0. 0.41715759 0.3172591 0.3172591
    0. 0.3172591 0.6345182 0.24637999 0.24637999]
    [ 0.48359121 0.48359121 0.48359121 0. 0. 0.36778358
    0. 0. 0. 0.28561676 0.28561676]]

实际上,你可以用一个函数完成所有的步骤:TfidfVectorizer


    from sklearn.feature_extraction.text import TfidfVectorizer

    tfidf_vectorizer = TfidfVectorizer(min_df = 1)
    tfidf_matrix = tfidf_vectorizer.fit_transform(mydoclist)

    print tfidf_matrix.todense()

    [[ 0. 0. 0. 0. 0.28945906 0.
    0.38060387 0.57891811 0.57891811 0.22479078 0.22479078]
    [ 0. 0. 0. 0.41715759 0.3172591 0.3172591
    0. 0.3172591 0.6345182 0.24637999 0.24637999]
    [ 0.48359121 0.48359121 0.48359121 0. 0. 0.36778358
    0. 0. 0. 0.28561676 0.28561676]]

并且我们可以利用这个词汇空间处理新的观测文档,就像这样:


    new_docs = ['He watches basketball and baseball', 'Julie likes to play basketball', 'Jane loves to play baseball']
    new_term_freq_matrix = tfidf_vectorizer.transform(new_docs)
    print tfidf_vectorizer.vocabulary_
    print new_term_freq_matrix.todense()

    {u'me': 8, u'basketball': 1, u'julie': 4, u'baseball': 0, u'likes': 5, u'loves': 7, u'jane': 3, u'linda': 6, u'more': 9, u'than': 10, u'he': 2}
    [[ 0.57735027 0.57735027 0.57735027 0. 0. 0. 0.
    0. 0. 0. 0. ]
    [ 0. 0.68091856 0. 0. 0.51785612 0.51785612
    0. 0. 0. 0. 0. ]
    [ 0.62276601 0. 0. 0.62276601 0. 0. 0.
    0.4736296 0. 0. 0. ]]

请注意,在new_term_freq_matrix中并没有"watches"这样的单词。这是因为我们用于训练的文档是mydoclist中的文档,这个词并不会出现在那个语料库的词汇中。换句话说,它在我们的词汇词典之外。

回到Amazon评论文本

练习2

现在是时候尝试使用你学过的东西了。利用TfidfVectorizer,你可以在Amazon评论文本的字符串列表上尝试建立一个TF-IDF加权文档词矩。


    import os
    import csv

    #os.chdir('/Users/rweiss/Dropbox/presentations/IRiSS2013/text1/fileformats/')

    with open('amazon/sociology_2010.csv', 'rb') as csvfile:
      amazon_reader = csv.DictReader(csvfile, delimiter=',')
      amazon_reviews = [row['review_text'] for row in amazon_reader]

      #your code here!!!
 相关推荐

刘强东夫妇:“移民美国”传言被驳斥

京东创始人刘强东和其妻子章泽天最近成为了互联网舆论关注的焦点。有关他们“移民美国”和在美国购买豪宅的传言在互联网上广泛传播。然而,京东官方通过微博发言人发布的消息澄清了这些传言,称这些言论纯属虚假信息和蓄意捏造。

发布于:1年以前  |  808次阅读  |  详细内容 »

博主曝三大运营商,将集体采购百万台华为Mate60系列

日前,据博主“@超能数码君老周”爆料,国内三大运营商中国移动、中国电信和中国联通预计将集体采购百万台规模的华为Mate60系列手机。

发布于:1年以前  |  770次阅读  |  详细内容 »

ASML CEO警告:出口管制不是可行做法,不要“逼迫中国大陆创新”

据报道,荷兰半导体设备公司ASML正看到美国对华遏制政策的负面影响。阿斯麦(ASML)CEO彼得·温宁克在一档电视节目中分享了他对中国大陆问题以及该公司面临的出口管制和保护主义的看法。彼得曾在多个场合表达了他对出口管制以及中荷经济关系的担忧。

发布于:1年以前  |  756次阅读  |  详细内容 »

抖音中长视频App青桃更名抖音精选,字节再发力对抗B站

今年早些时候,抖音悄然上线了一款名为“青桃”的 App,Slogan 为“看见你的热爱”,根据应用介绍可知,“青桃”是一个属于年轻人的兴趣知识视频平台,由抖音官方出品的中长视频关联版本,整体风格有些类似B站。

发布于:1年以前  |  648次阅读  |  详细内容 »

威马CDO:中国每百户家庭仅17户有车

日前,威马汽车首席数据官梅松林转发了一份“世界各国地区拥车率排行榜”,同时,他发文表示:中国汽车普及率低于非洲国家尼日利亚,每百户家庭仅17户有车。意大利世界排名第一,每十户中九户有车。

发布于:1年以前  |  589次阅读  |  详细内容 »

研究发现维生素 C 等抗氧化剂会刺激癌症生长和转移

近日,一项新的研究发现,维生素 C 和 E 等抗氧化剂会激活一种机制,刺激癌症肿瘤中新血管的生长,帮助它们生长和扩散。

发布于:1年以前  |  449次阅读  |  详细内容 »

苹果据称正引入3D打印技术,用以生产智能手表的钢质底盘

据媒体援引消息人士报道,苹果公司正在测试使用3D打印技术来生产其智能手表的钢质底盘。消息传出后,3D系统一度大涨超10%,不过截至周三收盘,该股涨幅回落至2%以内。

发布于:1年以前  |  446次阅读  |  详细内容 »

千万级抖音网红秀才账号被封禁

9月2日,坐拥千万粉丝的网红主播“秀才”账号被封禁,在社交媒体平台上引发热议。平台相关负责人表示,“秀才”账号违反平台相关规定,已封禁。据知情人士透露,秀才近期被举报存在违法行为,这可能是他被封禁的部分原因。据悉,“秀才”年龄39岁,是安徽省亳州市蒙城县人,抖音网红,粉丝数量超1200万。他曾被称为“中老年...

发布于:1年以前  |  445次阅读  |  详细内容 »

亚马逊股东起诉公司和贝索斯,称其在购买卫星发射服务时忽视了 SpaceX

9月3日消息,亚马逊的一些股东,包括持有该公司股票的一家养老基金,日前对亚马逊、其创始人贝索斯和其董事会提起诉讼,指控他们在为 Project Kuiper 卫星星座项目购买发射服务时“违反了信义义务”。

发布于:1年以前  |  444次阅读  |  详细内容 »

苹果上线AppsbyApple网站,以推广自家应用程序

据消息,为推广自家应用,苹果现推出了一个名为“Apps by Apple”的网站,展示了苹果为旗下产品(如 iPhone、iPad、Apple Watch、Mac 和 Apple TV)开发的各种应用程序。

发布于:1年以前  |  442次阅读  |  详细内容 »

特斯拉美国降价引发投资者不满:“这是短期麻醉剂”

特斯拉本周在美国大幅下调Model S和X售价,引发了该公司一些最坚定支持者的不满。知名特斯拉多头、未来基金(Future Fund)管理合伙人加里·布莱克发帖称,降价是一种“短期麻醉剂”,会让潜在客户等待进一步降价。

发布于:1年以前  |  441次阅读  |  详细内容 »

光刻机巨头阿斯麦:拿到许可,继续对华出口

据外媒9月2日报道,荷兰半导体设备制造商阿斯麦称,尽管荷兰政府颁布的半导体设备出口管制新规9月正式生效,但该公司已获得在2023年底以前向中国运送受限制芯片制造机器的许可。

发布于:1年以前  |  437次阅读  |  详细内容 »

马斯克与库克首次隔空合作:为苹果提供卫星服务

近日,根据美国证券交易委员会的文件显示,苹果卫星服务提供商 Globalstar 近期向马斯克旗下的 SpaceX 支付 6400 万美元(约 4.65 亿元人民币)。用于在 2023-2025 年期间,发射卫星,进一步扩展苹果 iPhone 系列的 SOS 卫星服务。

发布于:1年以前  |  430次阅读  |  详细内容 »

𝕏(推特)调整隐私政策,可拿用户发布的信息训练 AI 模型

据报道,马斯克旗下社交平台𝕏(推特)日前调整了隐私政策,允许 𝕏 使用用户发布的信息来训练其人工智能(AI)模型。新的隐私政策将于 9 月 29 日生效。新政策规定,𝕏可能会使用所收集到的平台信息和公开可用的信息,来帮助训练 𝕏 的机器学习或人工智能模型。

发布于:1年以前  |  428次阅读  |  详细内容 »

荣耀CEO谈华为手机回归:替老同事们高兴,对行业也是好事

9月2日,荣耀CEO赵明在采访中谈及华为手机回归时表示,替老同事们高兴,觉得手机行业,由于华为的回归,让竞争充满了更多的可能性和更多的魅力,对行业来说也是件好事。

发布于:1年以前  |  423次阅读  |  详细内容 »

AI操控无人机能力超越人类冠军

《自然》30日发表的一篇论文报道了一个名为Swift的人工智能(AI)系统,该系统驾驶无人机的能力可在真实世界中一对一冠军赛里战胜人类对手。

发布于:1年以前  |  423次阅读  |  详细内容 »

AI生成的蘑菇科普书存在可致命错误

近日,非营利组织纽约真菌学会(NYMS)发出警告,表示亚马逊为代表的电商平台上,充斥着各种AI生成的蘑菇觅食科普书籍,其中存在诸多错误。

发布于:1年以前  |  420次阅读  |  详细内容 »

社交媒体平台𝕏计划收集用户生物识别数据与工作教育经历

社交媒体平台𝕏(原推特)新隐私政策提到:“在您同意的情况下,我们可能出于安全、安保和身份识别目的收集和使用您的生物识别信息。”

发布于:1年以前  |  411次阅读  |  详细内容 »

国产扫地机器人热销欧洲,国产割草机器人抢占欧洲草坪

2023年德国柏林消费电子展上,各大企业都带来了最新的理念和产品,而高端化、本土化的中国产品正在不断吸引欧洲等国际市场的目光。

发布于:1年以前  |  406次阅读  |  详细内容 »

罗永浩吐槽iPhone15和14不会有区别,除了序列号变了

罗永浩日前在直播中吐槽苹果即将推出的 iPhone 新品,具体内容为:“以我对我‘子公司’的了解,我认为 iPhone 15 跟 iPhone 14 不会有什么区别的,除了序(列)号变了,这个‘不要脸’的东西,这个‘臭厨子’。

发布于:1年以前  |  398次阅读  |  详细内容 »
 相关文章
Android插件化方案 5年以前  |  237231次阅读
vscode超好用的代码书签插件Bookmarks 2年以前  |  8065次阅读
 目录