Doing homeworks from InternLM ORG
第一节课: 作业已交飞书文档
第二节课: 基础作业 (结营必做) 使用 InternLM2-Chat-1.8B 模型生成 300 字的小故事(需截图) 实践截图如下:
第三节课: 学习笔记一: 第三节课主要介绍了安装和运行"MMPose"的步骤,以及一个名为"HuixiangDou"的基于LLM(大型语言模型)的知识助手的使用。首先,安装MMPose需要设置Miniconda环境,并创建一个名为openmmlab的conda环境。对于HuixiangDou,需要确保LLM服务正常运行,通过执行python3 -m huixiangdou.service.llm_server_hybrid来检查。在遇到问题时,如500错误,需检查服务端口和配置,以及TOKEN的正确性。若使用docker,LLM服务需要单独部署。 HuixiangDou可以与飞书或个人微信集成,发送技术助手的回复。高级功能包括使用更精确的本地LLM模型、Hybrid LLM Service和repo搜索增强。调优可通过调整配置文件如config.ini进行,包括拒绝和处理问题的策略。此外,提供了Web版的源码,支持多种即时通讯软件,并有硬件需求指南,包括不同版本对GPU显存的需求。对于显存有限的用户,可以使用替代方案。最后,文章提供了错误处理和常见问题的解答,帮助用户更好地理解和部署系统。
学习笔记二: "茴香豆",一个基于RAG技术的知识助手,用于群聊环境。项目结构清晰,包含配置文件、教学文档、代码库和测试部分。核心代码位于huixiangdou/service/worker.py,其中的Prompt可定制,适应不同业务需求。配置文件如config.ini用于设定运行参数。 工作流程涉及Prompt模板,如主题检测、相关性评分、关键词提取、内容安全评估和复杂度评分等。此外,还支持网络搜索功能,通过Serper API获取在线信息。用户可配置config.ini启用远程模型,如GPT-4,降低GPU需求。 部署包括创建知识库向量数据库和运行助手。运行时,助手对问题进行相似性比较,检索相关信息生成答案。进阶功能包括网络搜索集成和使用远程大模型。 总结起来,茴香豆是一个可定制的、利用RAG技术的知识检索和生成系统,适用于群聊环境的智能助手,支持本地和云端模型,可扩展网络搜索,提供准确和丰富的解答。
第四节课: 训练自己的小助手认知(记录复现过程并截图) 训练过程截图: 模型对话截图: web demo:
第五节课: 推理速度明显增快: 未设置情况下显存占用: 把--cache-max-entry-count参数设置为0.01,约等于禁止KV Cache占用显存: AWQ量化执行过程: 显存占用变化: 服务器API部署:
第六节课: 启动lmdeploy服务: 启动lagent web demo服务: 使用lagent web demo搜索 InternLM2 Technical Report: 用 Lagent 自定义和风天气查询工具: