From 0b339d9bc95a12d329df62ba67d12dbe3f4d5238 Mon Sep 17 00:00:00 2001 From: gotoeasy Date: Fri, 27 Sep 2024 16:55:30 +0800 Subject: [PATCH] v0.17.2 --- README.md | 8 +++++++- glc/conf/config.go | 7 ------- glc/ldb/tokenizer/tokenizer.go | 10 +++------- 3 files changed, 10 insertions(+), 15 deletions(-) diff --git a/README.md b/README.md index 78bcbc5..022961c 100644 --- a/README.md +++ b/README.md @@ -120,7 +120,6 @@ docker run -d -p 8080:8080 -e GLC_CLUSTER_MODE=true -e GLC_SERVER_URL=http://172 - [x] `GLC_IP_ADD_CITY`对IP字段是否自动附加城市信息,默认`false` - [x] `GLC_NEAR_SEARCH_SIZE`定位相邻检索时的检索件数,默认200,有效范围50-1000 - [x] `GLC_ENABLE_CHATAI`是否开启GLC智能助手,默认true,会在菜单栏显示 -- [x] `GLC_DICT_DIR`自定义分词字典文件(*.txt)的存放目录,默认空 ## 接口 @@ -295,6 +294,13 @@ docker run -d -p --log-driver=fluentd --log-opt fluentd-address=192.168.169.170: - [ ] 集群支持动态删减节点(或是页面管理删除) +### 版本`0.17.2` + +- [x] 修复:条件检索可能存在个别数据查不到 +- [x] 取消用户词典参数`GLC_DICT_DIR`的支持,配置不当会影响分词影响检索结果令人困惑,得不偿失 +- [x] 镜像缩小等优化 + + ### 版本`0.17.1` - [x] 支持自定义分词字典 diff --git a/glc/conf/config.go b/glc/conf/config.go index 3ab54d3..4bc1a97 100644 --- a/glc/conf/config.go +++ b/glc/conf/config.go @@ -62,7 +62,6 @@ var aryWhite []string var aryBlack []string var ipAddCity bool var enableChatAi bool -var dictDir string func init() { UpdateConfigByEnv() @@ -109,12 +108,6 @@ func UpdateConfigByEnv() { mulitLineSearch = cmn.GetEnvBool("GLC_SEARCH_MULIT_LINE", false) // 是否检索日志的全部行(日志可能有换行),默认false仅第一行 testMode = cmn.GetEnvBool("GLC_TEST_MODE", false) // 是否测试模式,默认false enableChatAi = cmn.GetEnvBool("GLC_ENABLE_CHATAI", true) // 是否开启GLC智能助手,默认true - dictDir = cmn.GetEnvStr("GLC_DICT_DIR", "") // 自定义的字典文件(*.txt)所在目录 -} - -// 取配置: 自定义的字典文件(*.txt)所在目录 -func GetDictDir() string { - return dictDir } // 取配置: 是否开启GLC智能助手 diff --git a/glc/ldb/tokenizer/tokenizer.go b/glc/ldb/tokenizer/tokenizer.go index d60b453..86e73db 100644 --- a/glc/ldb/tokenizer/tokenizer.go +++ b/glc/ldb/tokenizer/tokenizer.go @@ -4,19 +4,15 @@ package tokenizer import ( - "glc/conf" - "github.com/gotoeasy/glang/cmn" ) +// 分词器 var sego *cmn.TokenizerSego -// 初始化装载字典 +// 初始化分词器 func init() { - - // 加载用户词典 - dicFiles, _ := cmn.GetFiles(conf.GetDictDir(), ".txt") - sego = cmn.NewTokenizerSego(dicFiles...) + sego = cmn.NewTokenizerSego() } // 按搜索引擎模式进行分词后返回分词数组