Skip to content

Commit d4c0e0f

Browse files
committed
docs: synced via GitHub Actions
1 parent f70ed05 commit d4c0e0f

File tree

7 files changed

+283
-1
lines changed

7 files changed

+283
-1
lines changed
138 KB
Loading

src/dev-guide/ai/images/ollatel.png

17.6 KB
Loading

src/dev-guide/ai/translate.md

Lines changed: 41 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,41 @@
1+
# 使用本地部署的DeepSeek 8B模型实现长文档的翻译
2+
3+
随着DeepSeek的横空出世,AI大模型得以初步实现技术平民化,在本机部署8B左右的模型即可实现一些有用的功能。本文简单介绍了实用deepseek大模型实现技术文档的翻译过程,以及翻译过程中遇到的一些问题。
4+
5+
## 模型选择
6+
使用ollama在本地笔记本上运行AI大模型,尝试了如下选择:
7+
1. `qwen2.5:7b`
8+
这个模型的问题是经常将输入的中文进行少量改写后按照中文输出,并没有实现翻译,而且经常在输出时增加额外的markdown块标记。
9+
10+
2. `deepseek-r1:7b`
11+
这个模型的问题与`qwen2.5`类似,也是在翻译时经常输出中文,而没有执行翻译,而且无法理解进一步修正的指令。如果将温度调高,比如调整为1以上,经常会回复答非所问的数学方面的回答。
12+
13+
3. `deepseek-r1:8b`
14+
比前两个模型要好,同样的问题和高温度设置,`deepseek-r1:7b`开始胡言乱语,`deepseek-r1:8b`还可以保证基本正常。
15+
16+
## 环境准备
17+
我的笔记本型号是ThinkPad X1 Carbon 2024,它具有Intel Arc系列显卡,可以提供GPU加速功能。
18+
19+
为了让ollama支持Intel的GPU,可以从 [https://github.com/francisol/ollatel/releases](https://github.com/francisol/ollatel/releases) 下载ollatel的安装包,直接执行即可。
20+
21+
ollatel提供了简易的Ollama控制界面。
22+
23+
![](images/ollatel.png)
24+
25+
调试时的可视化聊天界面可以使用[ChatBox](https://chatboxai.app/zh)
26+
27+
在命令行中通过`ollama pull deepseek-r1:8b`下载deepseek模型。
28+
29+
### 修改输入和输出的最大token数
30+
ollama缺省的输入上下文长度是2048,对于比较长的输入提示来说会出现数据被截断的问题。可以创建一个名为`deepseek-32k.txt`的文件,其中增加num_ctx参数的配置
31+
32+
```
33+
FROM deepseek-r1:8b
34+
35+
PARAMETER num_ctx 32768
36+
PARAMETER num_predict -1
37+
```
38+
39+
然后执行 `ollama create deepseek-r1:8b-32k -f deepseek-32k.txt`来创建一个名为`deepseek-r1:8b-32k`的新的模型。
40+
41+

src/dev-guide/xlang/xdef.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -50,7 +50,7 @@ XDef元模型文件的作用类似于XSD(XML Schema Definition)文件,都是
5050

5151
xdef文件中的所有属性(除去`xdef`名字空间以及`x`名字空间中的内置属性)的值类型都是`def-type`类型,它的格式为 `(!~#)?{stdDomain}:{options}={defaultValue}`
5252

53-
* `!`表示必填属性,`~`表示内部属性`#`表示可以使用编译期表达式
53+
* `!`表示必填属性,`~`表示内部属性或者已经被废弃的属性`#`表示可以使用编译期表达式
5454
* `stdDomain`是比数据类型更严格的格式限制,例如`stdDomain=email`等,具体值参见字典定义[core/std-domain](https://gitee.com/canonical-entropy/nop-entropy/blob/master/nop-xlang/src/main/resources/_vfs/dict/core/std-domain.dict.yaml)
5555
* 某些`def-type`定义需要`options`参数,例如`enum:xxx.yyy`,通过`options`来设置具体的字典名称
5656
* 可以为属性指定缺省值

src/gpt/meta-model/test-meta-model.md

Lines changed: 196 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,196 @@
1+
你是计算机专家,理解元模型的作用。下面是一个元模型的定义。
2+
3+
```xml
4+
<prompt displayName="string">
5+
6+
<description>string</description>
7+
8+
<defaultChatOptions xdef:ref="chat-options.xdef"/>
9+
10+
<vars>
11+
<!--
12+
声明模板中使用的变量信息。主要用于模板管理
13+
-->
14+
<var name="var-name" displayName="string" xdef:name="PromptVarModel">
15+
<schema xdef:ref="../schema/schema.xdef"/>
16+
<description>string</description>
17+
</var>
18+
</vars>
19+
20+
<!--
21+
通过xpl模板语言生成prompt,可以利用xpl的扩展能力实现Prompt的结构化抽象
22+
-->
23+
<template>生成的Prompt提示词</template>
24+
25+
<!--
26+
执行完AI模型调用后得到AiResultMessage对象,可以通过模板内置的后处理器对返回结果进行再加工。
27+
这样在切换不同的Prompt模板的时候可以自动切换使用不同的后处理器。
28+
比如Prompt中可以额外增加一些特殊的标记提示,用于简化结果解析,在processResultMessage中自动识别这些标记并做处理。
29+
-->
30+
<processResultMessage>JS函数,可以使用resultMessage变量</processResultMessage>
31+
</prompt>
32+
```
33+
34+
chat-options.xdef的定义如下:
35+
```xml
36+
<options model="string" seed="string"
37+
temperature="float"
38+
topP="float" topK="int"
39+
maxTokens="int" contextLength="int" stop="comma seperated string"
40+
/>
41+
```
42+
43+
要求:分析上面的元模型的定义,并自动生成一个符合元模型要求的示例Prompt,它描述一个发送给chatgpt的提示词,功能是将中文翻译为英文。
44+
45+
1. 元模型中节点的body部分表示的是该部分的数据类型
46+
2. !string中的!表示这个属性非空,!这个字符在最终的结果中不需要出现
47+
3. xpl模板语言类似JavaScript的模板字符串
48+
4. xdef为名字空间的属性是元模型属性,在最后的XML中不出现。
49+
5. 输出结果为满足元模型要求的XML格式,且仅包含XML,不要额外解释
50+
6. XML标签名和属性名的大小写要与元模型保持一致
51+
7. xdef:ref表示引用已经存在的元模型定义,本节点的格式由引入的元模型来定义
52+
53+
54+
==========================
55+
你是计算机专家,理解元模型的作用。下面是一个元模型的定义。
56+
57+
```yaml
58+
displayName: string
59+
description: string
60+
defaultChatOptions:
61+
xdef:ref: chat-options.xdef
62+
63+
vars:
64+
# 声明模板中使用的变量信息。主要用于模板管理
65+
- name: !var-name
66+
displayName: string
67+
xdef:name: PromptVarModel
68+
schema:
69+
xdef:ref: ../schema/schema.xdef
70+
description: string
71+
72+
# 通过xpl模板语言生成prompt,可以利用xpl的扩展能力实现Prompt的结构化抽象
73+
template: xpl-text
74+
75+
# 执行完AI模型调用后得到AiResultMessage对象,可以通过模板内置的后处理器对返回结果进行再加工。
76+
# 这样在切换不同的Prompt模板的时候可以自动切换使用不同的后处理器。
77+
# 比如Prompt中可以额外增加一些特殊的标记提示,用于简化结果解析,在processResultMessage中自动识别这些标记并做处理。
78+
processResultMessage: xpl-fn:(resultMessage)=>void
79+
```
80+
81+
chat-options.xdef的定义如下:
82+
83+
```xml
84+
model: string
85+
seed: string
86+
temperature: float
87+
topP: float
88+
topK: int
89+
maxTokens: int
90+
contextLength: int
91+
stop: comma seperated string
92+
```
93+
94+
要求:分析上面的元模型的定义,并自动生成一个符合元模型要求的示例Prompt,它描述一个发送给chatgpt的提示词,功能是将中文翻译为英文。
95+
96+
1. 元模型中节点的body部分表示的是该部分的数据类型
97+
2. !string中的!表示这个属性非空,!这个字符在最终的结果中不需要出现
98+
3. xpl模板语言类似JavaScript的模板字符串
99+
4. xdef为名字空间的属性是元模型属性,在最后的YAML中不出现。
100+
5. 输出结果为满足元模型要求的YAML格式,且仅包含YAML,不要额外解释
101+
6. 节点名和属性名的大小写要与元模型保持一致
102+
103+
104+
==========================
105+
你是计算机专家,理解元模型的作用。下面是一个元模型的定义。
106+
107+
```json5
108+
{
109+
// 基本信息
110+
displayName: "string",
111+
description: "string",
112+
113+
// 聊天选项定义(关联 XML schema)
114+
defaultChatOptions: {
115+
"xdef:ref": "chat-options.xdef" // 对应 XML 定义:
116+
},
117+
118+
// 变量声明配置
119+
vars: [
120+
{
121+
// 声明模板中使用的变量信息。主要用于模板管理
122+
name: "!string",
123+
displayName: "string",
124+
schema: {
125+
"xdef:ref": "../schema/schema.xdef"
126+
},
127+
description: "string"
128+
}
129+
],
130+
131+
// 通过xpl模板语言生成prompt,可以利用xpl的扩展能力实现Prompt的结构化抽象
132+
template: "这里使用xpl模板语言",
133+
134+
// 后处理配置
135+
/*
136+
执行完AI模型调用后得到AiResultMessage对象,可以通过模板内置的后处理器对返回结果进行再加工。
137+
这样在切换不同的Prompt模板的时候可以自动切换使用不同的后处理器。
138+
比如Prompt中可以额外增加一些特殊的标记提示,用于简化结果解析,在processResultMessage中自动识别这些标记并做处理。
139+
*/
140+
processResultMessage: "xpl-fn:(resultMessage)=>void"
141+
}
142+
```
143+
144+
chat-options.xdef的定义如下:
145+
146+
```json5
147+
{
148+
model: "string"
149+
seed: "string"
150+
temperature: "float"
151+
topP: "float"
152+
topK: "int"
153+
maxTokens: "int"
154+
contextLength: "int"
155+
stop: "comma seperated string"
156+
}
157+
```
158+
159+
要求:分析上面的元模型的定义,并自动生成一个符合元模型要求的示例Prompt,它描述一个发送给chatgpt的提示词,功能是将中文翻译为英文。
160+
161+
1. 元模型中节点的body部分表示的是该部分的数据类型
162+
2. !string中的!表示这个属性非空,!这个字符在最终的结果中不需要出现
163+
3. xpl模板语言类似JavaScript的模板字符串
164+
4. xdef为名字空间的属性是元模型属性,在最后的YAML中不出现。
165+
5. 输出结果为满足元模型要求的JSON格式,且仅包含JSON,不要额外解释
166+
6. 节点名和属性名的大小写要与元模型保持一致
167+
168+
==============
169+
1. `xdef:name="PromptModel"`会误导大模型,让它误以为这是输出的xml节点的名字
170+
2. `xdef:value`用于表示body段的内容很难被模型理解,32B模型也经常作为属性输出。
171+
3. `xdef:body-type``xdef:key-attr`对于生成代码而言并不重要,可以去除
172+
4. 32B可以理解`<template>xpl-text</template>`的含义,但7B不能。
173+
5. 32B可以理解`xdef:ref`,生成模型正确,但7B不能。
174+
6. 理解`!string`中的!需要详细解释,32B也经常搞错。
175+
7. 7B的think部分看着也理解了一些内容,但是生成不正确。
176+
8. 32B可以识别YAML格式的元模型,但是输出的时候有时会出现格式混乱。
177+
9. 7B会被`xdef:name``name`搞混,不清楚哪个是真正的名称属性
178+
10. 32B可以识别YAML格式的元模型,但是template有时没有正确生成。
179+
11. `deepseek-r1:8b-32k`在本机运行可以识别JSON格式的元模型,并正确生成。
180+
12. 7B理解var-name存在困难。
181+
13. 14B模型占用13G的GPU内存。8B-32k占用10G。而8B占用8G左右。
182+
14. 14B模型可以正确生成template,也可以识别var-name,不能稳定识别xdef:ref定义。
183+
184+
```
185+
You are a professional translator.
186+
Translate the following Chinese text to natural English while:
187+
1. Maintaining original terminology
188+
2. Preserving contextual nuances
189+
3. Using appropriate idioms where applicable
190+
191+
Chinese Input:
192+
${inputText}
193+
194+
Respond ONLY with the translated text without additional commentary.
195+
196+
```

src/gpt/ollama/deepseek-8b-32k.txt

Lines changed: 4 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,4 @@
1+
FROM deepseek-r1:8b
2+
3+
PARAMETER num_ctx 32768
4+
PARAMETER num_predict -1

src/theory/thinking-in-functional-programming.md

Lines changed: 41 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,46 @@
11
# 实用主义观点下的函数式编程思想
22

3+
函数式编程思想虽然已经进入主流开发领域,但是很多人对于它的理解还是仅限于map/flatMap等大量使用Lambda表达式的集合处理函数,似乎使用了Lambda表达式就是函数式编程。
4+
另外有一些人会强调Haskell、Scala等支持复杂类型定义的函数式编程语言,似乎在一般的命令式语言如Java中很难真正的实现所谓的函数式编程,并进而收获函数式编程所带来的好处。
5+
但以上观点都是片面的。因为函数式编程是一种通用的编程范式,它并不是一种语言特性,在Java语言中一样可以充分落实函数式编程思想。函数式编程的内容也很丰富,并不仅仅是使用高阶函数这么简单。
6+
7+
本文主要介绍在实用主义观点下使用常规的命令式语言来实践函数式编程思想的一些实践经验。文中介绍的内容主要参考如下文章:
8+
9+
* [函数式编程为什么有利于解耦(Decouple)]()
10+
* [写给小白的Monad指北]
11+
* [Y组合子的一个启发式推导]
12+
13+
## 一. 函数式编程的核心思想
14+
15+
如果问DeepSeek AI,函数式编程的核心思想是什么,它会做出如下回答:
16+
17+
数学的世界是一个没有时间的世界,没有因果。
18+
19+
1. 函数具有相当良好的数学特性,充分利用函数的数学特性可以获得科学意义上的好处。
20+
2. 函数的适用范围非常广,与面向对象编程思想中的**一切都是对象**这个口号类似,函数式编程也可以鼓吹**一切都是函数**
21+
22+
数学意义上的函数并不一定需要用具体程序语言中的一个函数去承载和表达。比如说,在Java语言中对流程模型进行建模,流程的每个步骤在数学层面上可以对应于一个函数,但是在Java中我们实际是将这个函数建模为一个步骤对象,通过StepModel去表达这个函数以及这个函数相关的元数据信息。
23+
24+
25+
26+
### 2.1 纯函数与不可变性
27+
28+
- 纯函数的定义与特性
29+
- 不可变数据结构的优势
30+
- 纯函数在实践中的应用场景
31+
32+
### 2.2 高阶函数与函数组合
33+
34+
- 高阶函数的概念与作用
35+
- 函数组合:将小函数组合成复杂逻辑
36+
- 实际案例:使用高阶函数简化代码
37+
38+
### 2.3 声明式编程
39+
40+
- 声明式编程与命令式编程的对比
41+
- 如何通过声明式编程提高代码可读性
42+
- 实际案例:使用声明式风格处理数据
43+
344
## 一. 什么是函数
445

546
## 二. 什么是Monad

0 commit comments

Comments
 (0)