首页 > 求职面试
题目内容 (请给出正确答案)
[单选题]

jieba分词包含的分词模式有()。

A.精确模式

B.全模式

C.搜索引擎模式

D.以上答案都正确

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“jieba分词包含的分词模式有()。”相关的问题
第1题
与自然语言处理相关的工具包Jieba,Gensim,NLTK,Scikit-Learn的区别是()。

A.Jieba专注于中文分词操作

B.NLTK主要用于一般自然语言处理任务(标记化,POS标记,解析等)

C.Gensim主要用于题和向量空间建模、文档集合相似性等

D.Scikit-learn为机器学习提供了一个大型库,其中包含了用于文本预处理的工具,例如词频-逆文档频率特征提取(TfidfVectorizer)等。

点击查看答案
第2题
人工智能-文本处理中分词的两种方法是:()。
点击查看答案
第3题
下列哪些是常用分词方法()。

A.基于Binarytree的分词方法

B.基于HMM的分词方法

C.基于CRF的分词方法

D.基于Kmeans的分词方法

点击查看答案
第4题
最常见的分词算法可以分为哪三大类()。

A.基于字符串匹配的分词方法

B.基于理解的分词方法

C.基于统计的分词方法

D.基于阅读的分词方法

点击查看答案
第5题
基于统计的分词方法为()。

A.正向最大匹配法

B.逆向最大匹配法

C.最少切分

D.条件随机场

点击查看答案
第6题
关键词提取的提取过程总共分两步,第一步对文章分词、去停用词、postag之后,得到();第二步,使用关键词提取算法提取关键词。
点击查看答案
第7题
下列哪些是情感分析的应用场景()。

A.数据挖掘

B.信息检索

C.文本分词

D.市场营销

点击查看答案
第8题
pynlpir是一种常用的自然语言理解工具包,其中进行分词处理的函数是()。

A.open()

B.segment()

C.AddUserWord()

D.generate()

点击查看答案
第9题
以下属于规则的分词方法的是()。

A.正向最大匹配法

B.逆向最大匹配法

C.双向最大匹配法

D.条件随机场

点击查看答案
第10题
下列属于字符串匹配的分词方法的是()。

A.正向最大匹配法(由左到右的方向)

B.逆向最大匹配法(由右到左的方向)

C.最少切分(使每一句中切出的词数最小)

D.双向最大匹配法(进行由左到右、由右到左两次扫描)

点击查看答案
第11题
以P(w)表示词条w的概率,假设已知P(南京)=0.8,P(市长)=0.6,P(江大桥)=0.4:P(南京市)=0.3,P(长江大桥)=0.5:如果假设前后两个词的出现是独立的,那么分词结果就是()。

A.南京市*长江*大桥

B.南京*市长*江大桥

C.南京市长*江大桥

D.南京市*长江大桥

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改