es-ik 正在参加 2020 年度 OSC 中国开源项目评选,请投票支持!
es-ik 在 2020 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
投票让它出道
已投票
es-ik 获得 2020 年度 OSC 中国开源项目评选「最佳人气项目」 !
es-ik 获得 2020 年度 OSC 中国开源项目评选「最佳人气项目」「最积极运营项目」 !
es-ik 获得 2020 年度 OSC 中国开源项目评选「最积极运营项目」 !
授权协议 MIT
开发语言 Java
操作系统 跨平台
软件类型 开源软件
所属分类 程序开发中文分词库
开源组织
地区 国产
投 递 者 翟志军
适用人群 未知
收录时间 2015-09-05

软件简介

IK中文分词器在Elasticsearch上的使用。原生IK中文分词是从文件系统中读取词典,es-ik本身可扩展成从不同的源读取词典。目前提供从sqlite3数据库中读取。es-ik-plugin-sqlite3使用方法:

1. 在elasticsearch.yml中设置你的sqlite3词典的位置:

ik_analysis_db_path: /opt/ik/dictionary.db

我提供了默认的词典:https://github.com/zacker330/es-ik-sqlite3-dictionary

2. 安装(目前是1.0.1版本)

./bin/plugin -i ik-analysis -u https://github.com/zacker330/es-ik-plugin-sqlite3-release/raw/master/es-ik-sqlite3-1.0.1.zip

3. 现在可以测试了:

    1. 创建index

curl -X PUT -H "Cache-Control: no-cache" -d '{
    "settings":{
        "index":{
            "number_of_shards":1,
            "number_of_replicas": 1
        }
    }
}' 'http://localhost:9200/songs/'

      2. 创建map:

curl -X PUT -H "Cache-Control: no-cache" -d '{
        "song": {
            "_source": {"enabled": true},
            "_all": {
                "indexAnalyzer": "ik_analysis",
                "searchAnalyzer": "ik_analysis",
                "term_vector": "no",
                "store": "true"
            },
            "properties":{
                "title":{
                    "type": "string",
                    "store": "yes",
                    "indexAnalyzer": "ik_analysis",
                    "searchAnalyzer": "ik_analysis",
                    "include_in_all": "true"
                }
            }

        }
}
    ' 'http://localhost:9200/songs/_mapping/song'

       3.

curl -X POST  -d '林夕为我们作词' 'http://localhost:9200/songs/_analyze?analyzer=ik_analysis'

response:
{"tokens":[{"token":"林夕","start_offset":0,"end_offset":2,"type":"CN_WORD","position":1},{"token":"作词","start_offset":5,"end_offset":7,"type":"CN_WORD","position":2}]}

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (6)

加载中
打分: 力荐
2016/12/15 11:46
回复
举报
打分: 力荐
赞一个
2016/12/15 10:58
回复
举报
打分: 推荐
居然是志军写的
2016/12/14 23:24
回复
举报
打分: 力荐
推荐
2016/12/14 23:23
回复
举报
打分: 力荐
不错的开源软件
2016/12/14 23:22
回复
举报
翟志军软件作者
打分: 力荐
可扩展性不错。~ 可以扩展到其它类型
2016/12/19 23:55
回复
举报
更多评论
暂无内容
2019/08/21 15:27

ES中添加 IK 分词器

1.从github中下载IK分词器,一定要注意和ES的版本一致 https://github.com/medcl/elasticsearch-analysis-ik/releases 2 .下载之后放到 ES 的 \plugins 目录下面去 重启 ES 服务 测试:http://localhost:9200/blog1/_analyze { "text":"中华人民共和国MN","tokenizer": "ik_max_word" } 结果: { "tokens": [ { "token": "中华人民共和国", "start_offset": 0, ...

0
0
发表了博客
2020/09/28 19:51

ES快速入门和IK分词器

链接上一篇文章 :ElasticSearch介绍 https://my.oschina.net/fairy1674/blog/4653796 3 ES快速入门 ES作为一个索引及搜索服务,对外提供丰富的REST接口,快速入门部分的实例使用head插件来测试,目的是对ES的使用方法及流程有个初步的认识。 3.1 创建索引库 ES的索引库是一个逻辑概念,它包括了分词列表及文档列表,同一个索引库中存储了相同类型的文档。它就相当于MySQL中的表,或相当于Mongodb中的集合。 关于索引这个语: ...

0
0
发表了博客
2018/11/12 21:45

ES ik分词器使用技巧

match查询会将查询词分词,然后对分词的结果进行term查询。 然后默认是将每个分词term查询之后的结果求交集,所以只要分词的结果能够命中,某条数据就可以被查询出来,而分词是在新建索引时指定的,只有text类型的数据才能设置分词策略。 新建索引,并指定分词策略: PUT mail_test3 { "settings": { "index": { "refresh_interval": "30s", "number_of_shards": "1", "number_of_replicas": "0" ...

0
0
发表于AI & 大数据专区
2020/03/19 15:12

如何安装ES的IK分词器插件?

### [http://blog.csdn.net/napoay/article/details/53896348]("详细信息") ### 1.更新yum等资源 sudo yum update -y sudo rpm -ivh http://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm sudo rpm -ivh https://kojipkgs.fedoraproject.org//packages/http-parser/2.7.1/3.el7/x86_64/http-parser-2.7.1-3.el7.x86_64.rpm sudo yum install npm sudo yum install -y git sudo yum install -y bzip2 git clo...

0
0
发表于开发技能专区
01/20 15:51

ES IK分词器添加远程词组

## 在IKAnalyzer.cfg.xml配置文件中修改配置项 ```xml URLS URLS ``` - 将URLS替换成远程字典地址,多个地址使用分号 (;) 分隔. - 每条url,比如http://127.0.0.1/dict/my.txt ,该请求只需满足以下两点即可完成分词热更新: 1)响应需要返回两个头部(header),一个是Last-Modified,一个是ETag,这两者都是字符串类型,只要有一个发生变化,该插件就会去抓取新的分词进而更新词库。 2)返回的内容格式是一行一个分词,换行符用`\n...

1
4
发表了博客
2018/08/02 13:32

es-07-head插件-ik分词器插件

5.x以后, es对head插件的支持并不是特别好 而且kibana的功能越来越强大, 建议使用kibana 1, head插件安装 在一台机器上安装head插件就可以了 1), 更新,安装依赖 sudo yum update -y 2), 安装npm sudo yum install npm yum -y install git yum -y install bz2 3), github 地址 https://github.com/mobz/elasticsearch-head 4), 安装 git clone git://github.com/mobz/elasticsearch-head.git cd elasticsearch-head #编译安装 ...

0
0
发表于软件架构专区
2018/12/14 11:07

windows 下 es安装ik后报错无法启动

1、没有安装分词器时可以正常启动 2、在安装分词器后就报错了 错误信息: Exception in thread "main" java.security.AccessControlException: access denied ("java.io.FilePermission" "D:\Program%20Files\elasticsearch-2.4.1\plugins\ik\config\IKAnalyzer.cfg.xml" "read") at java.security.AccessControlContext.checkPermission(AccessControlContext.java:372) at java.security.AccessController.checkPe...

0
0
2019/05/14 13:56

es ik 分词 5.x后,设置默认分词

1.使用模板方式,设置默认分词 注: 设置模板,需要重新导入数据,才生效 通过模板设置全局默认分词器 curl -XDELETE http://localhost:9200/_template/rtf curl -XPUT http://localhost:9200/ _template/rtf -d' { "template": "*", "settings": { "number_of_shards": 1 }, "mappings": { "_default_": { "_all": { "enabled": true }, "dynamic_templates": [ ...

0
0
发表了博客
2018/05/21 15:48

ES 1.7安装ik分词elasticsearch-analysis-ik-1.2.5

IK简介 https://www.cnblogs.com/yjf512/p/4789239.html https://www.cnblogs.com/xing901022/p/5910139.html https://blog.csdn.net/hyx1990/article/details/52892032 https://blog.csdn.net/hyx1990/article/category/6462597 https://yq.aliyun.com/articles/6786 IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本。最初,它是以开源项目L...

0
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
发表于软件架构专区
2019/03/23 18:29

Solr安装部署好,添加IK分词器时不显示collection1了!

Solr安装部署好,添加IK分词器时出了问题。 1.加包》2.添加....扩展字典/停用字典/配置文件到classes。IKAnalyzer.cfg.xml配置文件到这一步还正常, solr界面还有collection1 为什么solrhome\collection1\conf\schema.xml一添加了下面一段配置solr界就不显示collection1了 <!-- IK分词器 -->     <fieldType name="text_ik" class="solr.TextField">         <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>     </fieldT...

2
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
6 评论
31 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部