- P-tuned ChatGLM-6B -> AutoGPT -> LDM
- clone 本项目并安装依赖
$ git clone https://github.com/tuteng0915/ChatGLM-ArtAgent.git
$ cd ChatGLM-ArtAgent
$ pip install -r requirements.txt
- 安装 nltk 模型及数据
$ python
$ import nltk
$ nltk.download('stopwords')
$ nltk.download('punkt')
- 调整 ChatGLM-6B 和 Stable Diffusion 接口
# ./utils.py/call_glm_api
def call_glm_api(prompt, history, max_length, top_p, temperature):
url = "http://127.0.0.1:8000" # 将改行修改为 ChatGLM-6B 地址
# ./utils.py/call_sd_t2i
def call_sd_t2i(pos_prompt, neg_prompt, width, height, steps, user_input=""):
url = "http://127.0.0.1:6016" # 将该行修改为 AUTOMATIC1111/stable-diffusion-webui 地址
- 运行
$ python art_agent.py
# 可以看到如下输出:
promptgen_model loaded
danbooru tags loaded
Running on local URL: http://127.0.0.1:6006
浏览器访问 localhost:6006
即可
-
1 完善 Readme, About us, UI 等
- 1.1 Readme 中的介绍
- 1.2 Readme 中的安装指南
- requirements.txt 可能不全
- 1.3 Readme 中的使用指南
- 包括各类 case
- 1.4 About us
- 更新在 Readme 和 art_agent.py 中
- 1.5 更多 UI 细节
- 1.6 Readme-ENG
-
2 建立评测体系:
- 2.1 构建评测 prompt 集
- 更新在 ./benchmark/prompts.txt 中,应尽可能考虑到各种类型的 prompt
- 2.2 构建评价指标
- 不仅仅考虑一致性,也需要考虑多样性,更新在 ./benckmark 中
- 2.3 自动评价、汇报
- 构建自动评测脚本,脚本需要方便直观地给出链路在各种优化中对于 benchmark/prompts.txt 的改变
- 2.1 构建评测 prompt 集
-
3 利用构建艺术评论领域的问答数据集并 finetune GLM-6B 模型 (WC)
- 3.1 跑通 GLM-6B 的 finetune
- 3.2 进行调研,确定数据集来源
- 哪个领域,哪些书,哪些章节
- 3.3 使用 GPT-4 作为辅助,构建问答数据集
- 给出书的下文,让 GPT 预测提问
- 3.4 对 GLM-6B 进行 finetune 并评价其效果 *
-
4 多种方式优化 Natural Language -> Prompt 模块 (FSJ)
- 4.1 更长的问答链路
- 先介绍 -> 再概况 -> 给出画面 -> 总结元素
- 4.2 补充 Prompts 的专用模型
- Seq2Seq? 需要调研和尝试
- 4.3 匹配关键词
- 4.4 补充固定关键词
- 4.1 更长的问答链路
-
5 实现类 autoGPT 链路,并做出创新性优化 (WLJ)
- 5.1 调研 autoGPT
- 分析优势劣势, 如何实现
- 5.2 实现 autoGPT
- 5.1 调研 autoGPT
-
6 图像理解
- 6.1 上传图像
-
7 丰富功能
- 7.1 显示当前 prompts
- 7.2 直接与 SD 交互,类 70C5 于 Midjourney
-
8
- Email:
- WeChat:
- TT-20000915-tuteng