mirror of
https://github.com/gotoeasy/glogcenter.git
synced 2025-12-24 12:15:31 +08:00
v0.17.2
This commit is contained in:
@@ -120,7 +120,6 @@ docker run -d -p 8080:8080 -e GLC_CLUSTER_MODE=true -e GLC_SERVER_URL=http://172
|
||||
- [x] `GLC_IP_ADD_CITY`对IP字段是否自动附加城市信息,默认`false`
|
||||
- [x] `GLC_NEAR_SEARCH_SIZE`定位相邻检索时的检索件数,默认200,有效范围50-1000
|
||||
- [x] `GLC_ENABLE_CHATAI`是否开启GLC智能助手,默认true,会在菜单栏显示
|
||||
- [x] `GLC_DICT_DIR`自定义分词字典文件(*.txt)的存放目录,默认空
|
||||
|
||||
|
||||
## 接口
|
||||
@@ -295,6 +294,13 @@ docker run -d -p --log-driver=fluentd --log-opt fluentd-address=192.168.169.170:
|
||||
- [ ] 集群支持动态删减节点(或是页面管理删除)
|
||||
|
||||
|
||||
### 版本`0.17.2`
|
||||
|
||||
- [x] 修复:条件检索可能存在个别数据查不到
|
||||
- [x] 取消用户词典参数`GLC_DICT_DIR`的支持,配置不当会影响分词影响检索结果令人困惑,得不偿失
|
||||
- [x] 镜像缩小等优化
|
||||
|
||||
|
||||
### 版本`0.17.1`
|
||||
|
||||
- [x] 支持自定义分词字典
|
||||
|
||||
@@ -62,7 +62,6 @@ var aryWhite []string
|
||||
var aryBlack []string
|
||||
var ipAddCity bool
|
||||
var enableChatAi bool
|
||||
var dictDir string
|
||||
|
||||
func init() {
|
||||
UpdateConfigByEnv()
|
||||
@@ -109,12 +108,6 @@ func UpdateConfigByEnv() {
|
||||
mulitLineSearch = cmn.GetEnvBool("GLC_SEARCH_MULIT_LINE", false) // 是否检索日志的全部行(日志可能有换行),默认false仅第一行
|
||||
testMode = cmn.GetEnvBool("GLC_TEST_MODE", false) // 是否测试模式,默认false
|
||||
enableChatAi = cmn.GetEnvBool("GLC_ENABLE_CHATAI", true) // 是否开启GLC智能助手,默认true
|
||||
dictDir = cmn.GetEnvStr("GLC_DICT_DIR", "") // 自定义的字典文件(*.txt)所在目录
|
||||
}
|
||||
|
||||
// 取配置: 自定义的字典文件(*.txt)所在目录
|
||||
func GetDictDir() string {
|
||||
return dictDir
|
||||
}
|
||||
|
||||
// 取配置: 是否开启GLC智能助手
|
||||
|
||||
@@ -4,19 +4,15 @@
|
||||
package tokenizer
|
||||
|
||||
import (
|
||||
"glc/conf"
|
||||
|
||||
"github.com/gotoeasy/glang/cmn"
|
||||
)
|
||||
|
||||
// 分词器
|
||||
var sego *cmn.TokenizerSego
|
||||
|
||||
// 初始化装载字典
|
||||
// 初始化分词器
|
||||
func init() {
|
||||
|
||||
// 加载用户词典
|
||||
dicFiles, _ := cmn.GetFiles(conf.GetDictDir(), ".txt")
|
||||
sego = cmn.NewTokenizerSego(dicFiles...)
|
||||
sego = cmn.NewTokenizerSego()
|
||||
}
|
||||
|
||||
// 按搜索引擎模式进行分词后返回分词数组
|
||||
|
||||
Reference in New Issue
Block a user