diff --git a/src/devstar/ai-devops.md b/src/devstar/ai-devops.md index 65ee067..75e2585 100644 --- a/src/devstar/ai-devops.md +++ b/src/devstar/ai-devops.md @@ -19,7 +19,7 @@ sudo devstar start ### 二、Ollama私有部署代码大模型 -> 如您使用第三方API及Token,比如从注册申请,可以跳过这一部分。 +> 如您使用第三方API及Token,比如从[智谱AI开放平台](https://bigmodel.cn/usercenter/proj-mgmt/apikeys) 上注册申请并添加新的API Key,可以跳过这一部分。 Ubuntu-20.04下完成安装: ``` @@ -58,7 +58,6 @@ systemctl restart ollama - 模型服务地址,例如:`http://172.16.94.26:11434` - 模型名,例如:`qwen2.5-coder:32b` -- (如有)访问 Token,例如:`TOKEN***************` **后面用在哪里** @@ -155,7 +154,7 @@ jobs: * Copilot,点击提示框里的“管理模型”,选择ollama;将mcp配置添加到 .vscode/mcp.json下 -* Cursor,不支持私有模型,需要本地部署后做代理;点击Cursor Settings -> Tools & MCP +* Cursor,不支持内网地址的私有部署大模型,需要做反向代理使用公网可以访问的地址;点击Cursor Settings -> Tools & MCP -> New MCP Server 将mcp配置添加到mcp.json中 @@ -175,21 +174,25 @@ jobs: ![](./static/template.png) +在项目中创建一个issue + +![](./static/issue-1.png) + ### AI生成代码 -1.请在 Gitea 仓库 owner/repo 中读取 issue #123,帮我用自己的话总结问题、预期行为,并给出一个简单的解决思路。 +1.请在 Gitea 仓库 owner/repo 中读取 issue #1,帮我用自己的话总结问题、预期行为,并给出一个简单的解决思路。 -2.请根据你对 issue #123 的理解实现这个功能 +2.请根据你对 issue #的理解实现这个功能 -3.请为这次修复 issue #123 的改动补充或更新测试代码,遵循项目的现有测试风格,并说明每个测试在验证什么行为。 +3.请为这次修复 issue #1 的改动补充或更新测试代码,遵循项目的现有测试风格,并说明每个测试在验证什么行为。 ### 提交PR -1.请使用 Gitea MCP 为 issue #123 创建一个新分支(如 fix/issue-123),将本次所有相关修改提交为一个清晰的 commit +1.请使用 Gitea MCP 为 issue #1创建一个新分支(如 fix/issue-1),将本次所有相关修改提交为一个清晰的 commit -2.请使用 Gitea MCP 从你刚才创建的分支向 main 分支发起一个 PR,标题中包含 “#123”,描述中简要说明问题、解决方案、主要改动和测试情况,并把 PR 的链接或编号发给我。 +2.请使用 Gitea MCP 从你刚才创建的分支向 main 分支发起一个 PR,标题中包含 “#1”,描述中简要说明问题、解决方案、主要改动和测试情况,并把 PR 的链接或编号发给我。 ![](./static/pr.png) diff --git a/src/devstar/static/issue-1.png b/src/devstar/static/issue-1.png new file mode 100644 index 0000000..8bc252f Binary files /dev/null and b/src/devstar/static/issue-1.png differ diff --git a/src/devstar/static/template.png b/src/devstar/static/template.png index a2ac1df..9185aa6 100644 Binary files a/src/devstar/static/template.png and b/src/devstar/static/template.png differ