位置: IT常识 - 正文

Word2Vec【附代码】(word2vec使用方法)

编辑:rootadmin
Word2Vec【附代码】 Word2Vec【附代码】

推荐整理分享Word2Vec【附代码】(word2vec使用方法),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:word2vec cbow,word2vec实例详解,word2vec使用方法,word2vec使用方法,word2vec 实现,word2vec实例详解,word2vec+lstm,word2vec 实现,内容如对您有帮助,希望把文章链接给更多的朋友!

原文链接:https://towardsdatascience.com/word2vec-explained-49c52b4ccb71

目录

介绍 什么是词嵌入? Word2Vec 架构

CBOW(连续词袋)模型连续 Skip-Gram 模型 实施数据要求导入数据预处理数据嵌入PCA on Embeddings 结束语介绍

Word2Vec 是 NLP 领域的最新突破。Tomas Mikolov是捷克计算机科学家,目前是 CIIRC(捷克信息学、机器人和控制论研究所)的研究员,是 word2vec 研究和实施的主要贡献者之一。词嵌入是解决 NLP 中许多问题的一个组成部分。它们描绘了人类如何理解机器的语言。您可以将它们想象为文本的矢量化表示。Word2Vec 是一种常用的词嵌入生成方法,具有文本相似度、推荐系统、情感分析等多种应用。

什么是词嵌入?

在我们进入 word2vec 之前,让我们先了解一下词嵌入是什么。了解这一点很重要,因为 word2vec 的整体结果和输出将是与通过算法传递的每个唯一单词相关联的嵌入。

词嵌入是一种将单个词转换为词的数字表示(向量)的技术。每个单词都映射到一个向量,然后以类似于神经网络的方式学习该向量。向量试图捕捉该词相对于整个文本的各种特征。这些特征可以包括单词的语义关系、定义、上下文等。通过这些数字表示,你可以做很多事情,比如识别单词之间的相似性或不相似性。

显然,这些作为机器学习各个方面的输入是不可或缺的。机器无法处理原始形式的文本,因此将文本转换为嵌入将允许用户将嵌入提供给经典的机器学习模型。最简单的嵌入是文本数据的一次热编码,其中每个向量都将映射到一个类别。

例如: have = [1, 0, 0, 0, 0, 0, … 0] a = [0, 1, 0, 0, 0, 0, … 0] nice = [0, 0, 1, 0 , 0, 0, … 0] day = [0, 0, 0, 1, 0, 0, … 0] … 然而,像这样的简单嵌入有多重限制,因为它们不能捕捉单词的特征,而且根据语料库的大小,它们可能会很大。

Word2Vec 架构

Word2Vec 的有效性来自于它能够将相似词的向量组合在一起。给定足够大的数据集,Word2Vec 可以根据单词在文本中的出现次数对单词的含义做出强有力的估计。这些估计产生了与语料库中其他单词的单词关联。例如,像“King”和“Queen”这样的词会非常相似。在对词嵌入进行代数运算时,您可以找到词相似度的近似值。例如,“king”的二维嵌入向量——“man”的二维嵌入向量+“woman”的二维嵌入向量,产生了一个与“queen”的嵌入向量非常接近的向量。请注意,以下值是任意选择的。

国王 - 男人 + 女人 = 女王 [5,3] - [2,1] + [3, 2] = [6,4]

Word2Vec【附代码】(word2vec使用方法)

可以看到,King 和 Queen 两个字的位置相近。(图片由作者提供) word2vec 的成功主要有两种架构。skip-gram 和 CBOW 架构。

CBOW(连续词袋)

这种架构非常类似于前馈神经网络。这种模型架构本质上试图从上下文词列表中预测目标词。这个模型背后的直觉很简单:给定一个短语"Have a great day",我们将选择目标词为“a”,上下文词为[“have”、“great”、“day”]。该模型将做的是采用上下文词的分布式表示来尝试和预测目标词。

skip-gram模型

skip-gram 模型是一个简单的神经网络,具有一个经过训练的隐藏层,以便在输入单词出现时预测给定单词出现的概率。直观地,您可以想象 skip-gram 模型与 CBOW 模型相反。在这个架构中,它将当前单词作为输入,并试图准确地预测当前单词之前和之后的单词。该模型本质上是尝试学习和预测指定输入词周围的上下文词。基于评估该模型准确性的实验,发现在给定大范围的词向量的情况下预测质量有所提高,但它也增加了计算复杂度。该过程可以直观地描述,如下所示。 如上所示,给定一些文本语料库,在某个滚动窗口上选择目标词。训练数据由目标词和窗口中所有其他词的成对组合组成。这是神经网络的最终训练数据。一旦模型经过训练,我们基本上可以得出一个词作为给定目标的上下文词的概率。下图代表了 skip-gram 模型的神经网络架构。 语料库可以表示为大小为 N 的向量,其中 N 中的每个元素对应于语料库中的一个词。在训练过程中,我们有一对目标词和上下文词,输入数组中除目标词外的所有元素都为 0。目标词将等于 1。隐藏层将学习每个词的嵌入表示,产生一个 d 维嵌入空间。输出层是一个带有 softmax 激活函数的密集层。输出层基本上会产生一个与输入大小相同的向量,向量中的每个元素都包含一个概率。该概率表示目标词与语料库中相关词之间的相似度。

有关这两种模型的更详细概述,我强烈建议您阅读概述这些结果的原始论文“Efficient Estimation of Word Representations inVector Space”。

执行

我将展示如何使用 word2vec 生成词嵌入,并使用这些嵌入来查找相似的词并通过 PCA 可视化嵌入。

数据

出于本教程的目的,我们将使用莎士比亚数据集。你可以在这里找到我用于本教程的文件,它包含莎士比亚为他的戏剧写的所有台词。

要求nltk==3.6.1node2vec==0.4.3 pandas==1.2.4 matplotlib==3.3.4 gensim==4.0.1 scikit-learn=0.24.1

注意:由于我们正在使用 NLTK,您可能需要下载以下语料库,以便教程的其余部分正常工作。这可以通过以下命令轻松完成:

import nltknltk.download('stopwords') nltk.download('punkt')导入数据import pandas as pdimport nltkimport stringimport matplotlib.pyplot as pltfrom nltk.corpus import stopwordsfrom nltk import word_tokenizefrom gensim.models import Word2Vec as w2vfrom sklearn.decomposition import PCA# constantsPATH = 'data/shakespeare.txt'sw = stopwords.words('english')plt.style.use('ggplot')# nltk.download('punkt')# nltk.download('stopwords')# import datalines = []with open(PATH, 'r') as f: for l in f: lines.append(l)

注意:将变量更改为PATH您正在使用的数据的路径。

预处理数据# remove new lineslines = [line.rstrip('\n') for line in lines]# make all characters lowerlines = [line.lower() for line in lines]# remove punctuations from each linelines = [line.translate(str.maketrans('', '', string.punctuation)) for line in lines]# tokenizelines = [word_tokenize(line) for line in lines]def remove_stopwords(lines, sw = sw): ''' The purpose of this function is to remove stopwords from a given array of lines. params: lines (Array / List) : The list of lines you want to remove the stopwords from sw (Set) : The set of stopwords you want to remove example: lines = remove_stopwords(lines = lines, sw = sw) ''' res = [] for line in lines: original = line line = [w for w in line if w not in sw] if len(line) < 1: line = original res.append(line) return resfiltered_lines = remove_stopwords(lines = lines, sw = sw)

停用词过滤说明

请注意,从这些行中删除的停用词是现代词汇。应用程序和数据对于单词清理所需的预处理策略类型非常重要。

在我们的场景中,像“you”或“yourself”这样的词将出现在停用词中并从行中删除,但是由于这是莎士比亚文本数据,因此不会使用这些类型的词。相反,“你”或“你自己”可能有助于删除。保持对这些类型的微小变化保持热情,因为它们在一个好的模型和一个差的模型的性能上产生了巨大的差异。

出于本示例的目的,我不会详细介绍如何识别来自不同世纪的停用词,但请注意,您应该这样做。

嵌入w = w2v( filtered_lines, min_count=3, sg = 1, window=7 ) print(w.wv.most_similar('thou'))emb_df = ( pd.DataFrame( [w.wv.get_vector(str(n)) for n in w.wv.key_to_index], index = w.wv.key_to_index ))print(emb_df.shape)emb_df.head()

嵌入的 PCApca = PCA(n_components=2, random_state=7)pca_mdl = pca.fit_transform(emb_df)emb_df_PCA = ( pd.DataFrame( pca_mdl, columns=['x','y'], index = emb_df.index ))plt.clf()fig = plt.figure(figsize=(6,4))plt.scatter( x = emb_df_PCA['x'], y = emb_df_PCA['y'], s = 0.4, color = 'maroon', alpha = 0.5)plt.xlabel('PCA-1')plt.ylabel('PCA-2')plt.title('PCA Visualization')plt.plot()

Tensorflow 对 word2vec 模型进行了非常漂亮、直观和用户友好的表示。我强烈建议您探索它,因为它允许您与 word2vec 的结果进行交互。链接如下:https://projector.tensorflow.org/

结束语

词嵌入是解决 NLP 中许多问题的重要组成部分,它描述了人类如何理解机器的语言。给定一个大型文本语料库,word2vec 会生成一个与语料库中的每个单词相关联的嵌入向量。这些嵌入的结构使得具有相似特征的单词彼此非常接近。CBOW(连续词袋)和 skip-gram 模型是与 word2vec 相关的两个主要架构。给定一个输入词,skip-gram 将尝试预测输入上下文中的词,而 CBOW 模型将采用各种词并尝试预测缺失的词。

本文链接地址:https://www.jiuchutong.com/zhishi/300212.html 转载请保留说明!

上一篇:2023前端面试题集(含答案)之HTML+CSS篇(一)(2023前端面试题目)

下一篇:js算法 字母大小写转换(如何在js中给字母排序)

  • 金税四期上线后还需要会计吗
  • 金税盘如何增加税率
  • 通行费发票勾选认证有多少就可以抵扣多少吗
  • 想开饮品店
  • 红字发票信息表需要盖章吗
  • 公司代扣代缴个人所得税如何退税
  • 冲销上年计提的住房公积金怎么做账
  • 无形资产增资需要缴纳个税吗
  • 员工的油费补贴怎么算
  • 收到免税发票怎么做账务处理
  • 出口退税进项税额转出是什么意思
  • 筹建期间取得的专用发票怎么入账
  • 应付未付的职工工资属于什么会计科目
  • 提供餐饮服务的税率
  • 什么叫项目所在地
  • 低价购买债权后可否向债务人全额主张债务
  • 股票回购会计处理
  • 比赛奖金支出计入什么科目
  • windows10如何移动文件
  • 小型微利企业怎么认定最新标准
  • 污水处理费该谁交
  • PHP:oci_set_edition()的用法_Oracle函数
  • php使用pdo连接数据库
  • 商业成本结转会计分录
  • 股东帮公司垫付货款
  • hbuilderx怎么运行代码
  • chat gpt介绍开头
  • 固定资产抵债债权人账务处理
  • 收回已确认的坏账准备为什么在贷方
  • php动态读取数据的代码
  • 公司账户的钱怎么少了
  • 实时视频功能
  • transformer add norm
  • pgadmin配置
  • php实现有序数组的数据
  • systoolspace
  • swoole扩展安装
  • c++ abort函数
  • distinct用法及搭配
  • 房地产土地使用权计入存货吗
  • sql语句中单引号是什么
  • 多缴附加税退税怎么做账
  • 公司账户钱能全取出来吗
  • 医院销售药品是否缴纳增值税
  • 损益类科目有哪些借贷方向
  • 行政事业单位零星维修相关规定
  • 增值税专用发票几个点
  • 路桥费能抵扣增值税吗
  • 小规模纳税人防伪税控会计分录
  • 建设工程施工管理
  • 酒店开办费包括哪些项目
  • 捐赠利得的会计科目
  • 固定资产实务训练题目及答案
  • 没有发票的费用汇算清缴的时候怎么调出来
  • mysql Access denied for user ‘root’@’localhost’ (using password: YES)解决方法
  • 邻居家的wifi隐藏后如何连接
  • win7不能复制文件怎么办
  • xp系统本地连接启用不了
  • ubuntu下安装deb文件
  • spyware.exe - spyware是什么进程
  • win7更改win10系统要怎么更改
  • win8系统怎么搜索文件
  • .fs是什么格式
  • win8进入电脑休眠后怎么唤醒
  • xwizard.exe是什么
  • 安装win7/Win10双系统,磁盘如何分区?
  • three.js加载glb文件
  • 常用正则表达式汇总
  • Css属性中表示字体的是
  • jquery 字符串以什么开头
  • shell脚本总结
  • js 构建树
  • android单选
  • c#入门实例
  • jquery移动端ui框架
  • 谷歌的全球化发展战略
  • swift method swizzling
  • 2022年中国烟草营收
  • 税率的分类有哪些
  • 小规模税控盘全额抵扣怎么做分录
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设