1
1
# WiseFlow Client 用户手册
2
2
3
- 对于普通用户而言 ,使用WiseFlow客户端非常简便。** 如果您是开发者,有二次开发的需要,请进入backend目录、web目录分别查看后端和前端的源代码。**
3
+ 对于没有二次开发需求的用户而言 ,使用WiseFlow客户端非常简便。
** 如果您是开发者,有二次开发的需要,请进入backend目录、web目录分别查看后端和前端的源代码。
也可以联系我们洽谈定制版本合作( [email protected] ) **
4
4
5
- ## 普通用户使用
5
+ ## 本地客户端使用
6
6
7
7
### 1、参考如下内容创建 ` .env ` 文件 (可以直接编辑 env_sample后再改名)
8
8
12
12
- DASHSCOPE_API_KEY="YOUR_DASHSCOPE_API_KEY" #使用阿里灵积大模型推理服务使用
13
13
- ZHIPUAI_API_KEY= #使用智谱大模型接口使用(目前只会调用glm4,model参数没有意义)
14
14
- VOLC_KEY='AK|SK' #使用火山云翻译api使用,格式为AK|SK
15
- - EMBEDDING_MODEL_PATH='' #embedding模型的地址,
16
- - RERANKER_MODEL_PATH='' #rerank模型地址
15
+ - EMBEDDING_MODEL_PATH='' #embedding模型的地址,注意需要填写完整的绝对路径
16
+ - RERANKER_MODEL_PATH='' #rerank模型地址,注意需要填写完整的绝对路径
17
17
- DEVICE="cuda:0" #配置的话使用GPU,不配置使用CPU。
18
- - PB_API_AUTH='email|password' #pb数据库admin的邮箱和密码(一定是admin的,一定给邮箱)
18
+ - PB_API_AUTH='email|password' #pb数据库admin的邮箱和密码(<span style =" color : red ; font-weight : bold ;" >首次使用,先想好邮箱和密码,提前填入这里,注意一定是邮箱,可以是虚构的邮箱</span >)
19
+ - PB_API_BASE="web:8090" #docker配置需要,参考https://stackoverflow.com/questions/70151702/how-to-network-2-separate-docker-containers-to-communicate-with-eachother
19
20
20
21
** 注:上述各服务的申请与开通请参考页面最下方**
21
22
22
- ### 2、强烈建议普通用户
23
+ ### 2、使用docker build image并启动(强烈推荐!)
23
24
24
- 如何启动项目
25
- - cd client
26
- - 启动项目: docker compose up -d
27
- - 关闭项目:docker compose down
25
+ ``` commandline
26
+ git clone [email protected] :wiseflow/wiseflow.git
27
+ cd wiseflow/client
28
+ # 创建.env后
29
+ # 首次使用,先想好邮箱和密码,提前填入PB_API_AUTH,注意一定是邮箱,可以是虚构的邮箱
30
+ docker compose up -d
31
+ ```
32
+
33
+ 首次使用build docker image需要大约20~ 40min,请耐心等待,之后正常使用启动无需等待。
34
+
35
+ 首次使用docker启动后,需要先去管理后台进行配置,此时如果终端出现报错等信息可以先忽略。
36
+
37
+ ** 管理配置页面**
28
38
29
- ### 3、管理配置页面 —— http://127.0.0.1:8090/_/
39
+ 浏览器(推荐Chrome)打开 http://127.0.0.1:8090/_/
30
40
31
- #### roleplays 表单
41
+ 首次使用会在这里提示Admin注册,填入之前写入.env的邮箱和密码。 < span style = " color : red ; font-weight : bold ; " >一定要与env一致</ span >
32
42
33
- 在这里可以配置llm的身份信息和关注点,这将直接决定信息发掘和过滤的效果,可以配置多个,但每次只会选择更改时间最新的且activated为true的 。
43
+ 打开管理后台的roleplays表单, 在这里可以配置llm的身份信息和关注点,这将影响信息发掘和整理的效果,同时也影响report的生成风格 。
34
44
35
- ** 更改roleplay需要重启服务(最简单的办法是重启下docker 容器) **
45
+ roleplays可以配置多个,但每次只会选择更改时间最新且activated为true的。
36
46
37
- roleplay 字段说明:
47
+ ** roleplay 字段说明:**
38
48
39
49
- character 以什么身份挖掘线索(这决定了llm的关注点和立场)
40
50
- focus 关注什么方面的线索
@@ -44,25 +54,81 @@ roleplay 字段说明:
44
54
- bad_samples 规避的线索描述模式
45
55
- report_type 报告类型
46
56
47
- #### sites 表单
57
+ 填好之后保证activated为true,如果你使用docker desktop或者类似有界面的工具,这个时候可以在container中找到 wiseflow/api, 手动运行它就可以了。
58
+
59
+ 或者在命令行中依次执行
60
+
61
+ ``` commandline
62
+ docker compose down
63
+ docker compose up -d
64
+ ```
65
+
66
+ ** 最后,浏览器打开 http://127.0.0.1:8090 起飞!**
67
+
68
+ 关闭客户端可以通过desktop的界面,也可以在命令行中 执行 ` docker compose down `
69
+
70
+ 再次启动项目可以在desktop中运行container,也可以在命令行中执行
71
+
72
+ ``` commandline
73
+ cd wiseflow/client
74
+ docker compose up -d
75
+ ```
76
+
77
+ 如果希望能够看到终端里面的动态可以执行 ` docker compose up ` , 注意,如果需要观察详细的程序执行,记得在.env中开启WS_LOG=verbose
78
+
79
+ ### 3、配置本地定时扫描信息源
80
+
81
+ wiseflow client内置了通用页面解析器,对于大多数新闻类静态页面可以实现较好的信息解析和提取,如果您有复杂信源扫描需求(比如社交网络信息监控等),可以邮件联系我们开通信息订阅服务(
[email protected] )。
48
82
49
- 通过这个表单可以指定自定义信源,系统会启动后台定时任务,在本地执行信源爬取、解析和分析。
83
+ 本地配置信源请首先打开管理后台:http://127.0.0.1:8090/_/ (也可以通过web页面 http://127.0.0.1:8090 下方的 * 数据库管理* 链接进入)
84
+
85
+ 打开 ** sites表单**
86
+
87
+ 通过这个表单可以指定自定义信源,系统会启动后台定时任务,在本地执行信源扫描、解析和分析。
50
88
51
89
sites 字段说明:
52
90
53
- - url, 信源的url,信源无需给定具体文章页面,给文章列表页面即可,wiseflow client中包含两个通用页面解析器,90%以上的新闻类静态网页都可以很好的获取和解析(我们建议爬取频次不要超过一天一次) 。
54
- - per_hours, 爬取频率 ,单位为小时,类型为整数(1~ 24范围)
91
+ - url, 信源的url,信源无需给定具体文章页面,给文章列表页面即可,wiseflow client中包含两个通用页面解析器,90%以上的新闻类静态网页都可以很好的获取和解析。
92
+ - per_hours, 扫描频率 ,单位为小时,类型为整数(1~ 24范围,我们建议扫描频次不要超过一天一次,即设定为24 )
55
93
- activated, 是否激活。如果关闭则会忽略该信源,关闭后可再次开启。开启和关闭无需重启docker容器,会在下一次定时任务时更新。
56
94
57
- 注意:
95
+ wiseflow client自定义信源的扫描调度策略是:每小时启动一次,会先看是否有满足频率要求的指定信源,如果没有的话,会看是否集成了专有爬虫,如果有的话,每24小时会运行一遍专有爬虫。
58
96
59
- 1、wiseflow client自定义信源的爬取调度策略是:每小时启动一次,会先看是否有满足频率要求的指定信源,
97
+ 注意:如果使用sites指定信源,专有爬虫也需要配置在这里。
60
98
61
- 2、虽然wiseflow client中包含的两个通用页面解析器可以适用于绝大多数静态页面的解析,但对于实际业务,我们还是建议客户订阅我们的专业信息推动服务,或者自写专有爬虫。wiseflow client支持客户自定义专有爬虫的集成。
99
+ ----------
100
+ 虽然wiseflow client中包含的两个通用页面解析器可以适用于绝大多数静态页面的解析,但对于实际业务,我们还是建议客户订阅我们的专业信息服务(支持指定信源),或者自写专有爬虫。wiseflow client支持客户自定义专有爬虫的集成。
62
101
63
102
专有爬虫的集成说明见 backend/scrapers/README.md
64
103
65
- 配置专有爬虫后,请单独进行docker build。
104
+ 配置专有爬虫后,请重新进行docker build。
105
+
106
+ ## 参考:不使用docker启动(适用于开发者)
107
+
108
+ 首先我们依然强烈建议至少使用docker启动前端和pb(数据库),这个build仅需几分钟,image仅74M。
109
+
110
+ 单独build web(含pb)无需编辑.env,直接执行
111
+
112
+ ``` commandline
113
+ cd wiseflow/client
114
+ docker compose up web
115
+ ```
116
+
117
+ 之后编辑.env,然后执行
118
+
119
+ ``` commandline
120
+ cd backend
121
+ pip install -U -r requirements.txt
122
+ ```
123
+
124
+ 我们建议使用python3.10版本,并使用虚拟环境或者conda创建虚拟环境
125
+
126
+ backend中提供两个脚本
127
+
128
+ - backend.sh 启动backend后端服务
129
+ - tasks.sh 启动信源扫描定时任务
130
+
131
+ backend.sh 启动后可以通过 http://127.0.0.1:7777/docs 查看API详情,并基于此定制开发
66
132
67
133
## 参考:各服务注册地址
68
134
@@ -82,4 +148,4 @@ huggingface-cli download --token hf_*** --resume-download --local-dir-use-symlin
82
148
```
83
149
84
150
使用url直接下载时,将 huggingface.co 直接替换为本站域名hf-mirror.com。使用浏览器或者 wget -c、curl -L、aria2c 等命令行方式即可。
85
- 下载需登录的模型需命令行添加 --header hf_ *** 参数,token 获取具体参见上文。
151
+ 下载需登录的模型需命令行添加 --header hf_ *** 参数,token 获取具体参见上文。
0 commit comments