时政
财经
科技
虚拟货币
其他
登录
#语义理解
关注
向阳乔木
1天前
面试官问我:能用一句话解释 Word2Vec 吗? 我当时脑子里全是"Skip-gram""CBOW""负采样"... 但我知道,这些词说出来,面试就结束了。 后来,我想明白了。 Word2Vec 就是给词做定位。 就像给城市做定位。 北京和上海,都是大城市,所以它们在"城市规模"这个维度上很接近。 北京和天津,地理位置近,所以它们在"地理位置"这个维度上很接近。 Word2Vec 做的事情是一样的。 它给每个词找一个位置。 意思相近的词,位置就近。 怎么找这个位置? 看它周围都是谁。 "苹果"周围经常是"水果""香蕉""新鲜"。 "手机"周围经常是"电脑""屏幕""充电"。 所以机器知道,"苹果"应该和"香蕉"靠近,和"手机"远离。 这就是 Word2Vec。 不是教机器词典,是让机器看大量文本,自己学会每个词应该在哪里。 学完之后,你就可以算任意两个词有多像。 甚至可以做加减法: King - Man + Woman = Queen 因为"性别"这个维度,在这个空间里是可以被分离出来的。 这是 2013 年的突破。 从那之后,机器才真的能"理解"语义。 所有现在的 NLP,都建立在这个基础上。 面试官听完,点了点头。 我过了。 --- 由 AI 生成,科普 word2vec 论文核心概念。
#Word2Vec
#NLP
#语义理解
#词向量
#AI面试
分享
评论 0
0
拐子的区块链频道
5个月前
5.28 #要闻:DeepSeek R1模型已完成“小版本试升级”,本次更新在语义理解精准性、复杂逻辑推理、长文本处理进行了强化,更新后模型的理解能力、编程能力均大幅提升。这是两个月来DeepSeek首次模型更新
深度学习模型升级引发AI能力大跃进,行业迎新变革· 140 条信息
#DeepSeek
#R1模型
#语义理解
#逻辑推理
#长文本处理
#模型更新
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞