Cursor CLI 更新:新增审查模式与 MCP 支持

Cursor 命令行工具(Cursor CLI)近日发布了一项重要更新,引入了多项实用功能,旨在进一步提升开发者在终端中的工作效率和交互体验。 核心功能更新 本次更新的重点功能包括: @ 符号引用文件与目录 现在,用户可以在提示词中直接使用 @ 符号来引用文件和目录。这使得 AI 能够更精准地定位上下文,对于处理大型项目或复杂的文件结构尤为高效。 审查模式(Review Mode) 通过 Ctrl+R 快捷键,可以快速进入一个可视化的审查界面。该界面会清晰地展示 AI 对代码所做的具体修改,让代码审查过程变得前所未有的直观和便捷。 /compress 命令 新增的 /compress 命令可以一键释放上下文窗口空间。在进行长对话时,该功能有助于优化性能和内容相关性,确保 AI 能够始终聚焦于最重要的信息。 MCPs 支持 现在,Cursor CLI 已全面支持 MCPs,这意味着开发者可以利用其强大的扩展能力来完成更复杂的任务。 其他改进 除上述核心功能外,本次更新还包含以下体验和性能优化: Token 计数显示:界面现在会显示 Token 计数,帮助用户更好地管理上下文长度。 兼容性增强:新增了对 AGENTS.md 和 CLAUDE.md 文件的支持,以兼容 Claude Code 等模型。 👉 如果你需要 ChatGPT 代充 / Claude / Claude Code / 镜像 / 中转 API: 购买 / 了解更多:ai4.plus 备用入口:kk4099.com

September 3, 2025 · AI小卖铺

免费搭建 AI 编程助手:Claude Code + 阿里 Qwen Coder 实战指南

对于开发者而言,AI 辅助编程工具已成为提升效率的利器。虽然市面上有 Trae、ChatGPT Plus 等优秀的付费工具,但其订阅费用和使用限制(如请求次数)可能不适合所有用户。本文将介绍一种完全免费的替代方案:将 Anthropic 推出的 Claude Code 作为前端,结合阿里巴巴的 Qwen Coder 大模型作为后端,搭建一套功能强大的本地 AI 编程环境。 核心组件介绍 Claude Code Claude Code 是一款专为开发者设计的 AI 助手,它原生运行在终端中,具备以下核心优势: 代码库理解:能够在短时间内映射并解释整个代码库的结构。 智能搜索与上下文感知:通过 Agentic Search 理解项目结构与依赖关系,为代码生成和修改提供精准的上下文。 高效开发流:显著缩短开发者在查找上下文、实施代码变更和本地测试验证之间的往返时间。 完全免费:无需任何订阅费用即可使用其全部功能。 阿里 Qwen Coder Qwen Coder 是阿里巴巴通义千问团队专门为编程任务优化的代码大模型家族。该系列模型能力强大,并且对开发者非常友好。 模型迭代:经历了从 CodeQwen1.5 到 Qwen3-Coder 的演进,性能不断提升。 旗舰模型:Qwen3-Coder-480B-A35B-Instruct 是其旗舰版本,采用专家混合(Mixture-of-Experts)架构,总参数量达 4800 亿,活跃参数约 350 亿。 超长上下文:原生支持 256K 上下文窗口,并可扩展至 1M,能够处理极其复杂的编程任务。 开放与免费:通过“魔搭社区 (ModelScope)”平台,开发者可以免费获取 API 调用额度,通常每天有 2000 次,足以满足日常开发需求。 环境搭建步骤 搭建过程非常简单,只需几个步骤即可完成。 1. 前提条件 确保你的本地开发环境已经安装了 Node.js。 2. 安装命令行工具 依次执行以下命令,全局安装 Claude Code 及其路由工具 claude-code-router。claude-code-router 的作用是将 Claude Code 的请求转发给我们指定的后端大模型。 ...

September 2, 2025 · AI小卖铺

AI 技术与实践精选:从提示词工程到智能体开发

本文汇集了关于人工智能(AI)在编程、提示词工程、应用实践及行业发展等方面的深度思考与实战精华。内容涵盖从基础概念辨析到高级 AI 智能体(Agent)构建的宝贵经验,旨在为开发者、产品经理和 AI 爱好者提供一份全面的参考。 一、AI 编程与软件开发变革 AI 正在深刻改变软件开发的全流程,从编码、设计到维护,都涌现出新的模式与挑战。 关于 AI 编程的争议与思考 手写代码 vs. Prompt 生成:当前存在一种观念,认为使用 AI 通过 Prompt 生成代码是更高级、更高效的生产方式,而传统的手动编码则显得落后。 理性看待 AI 编程的“蜜月期”:初次使用 AI 高效完成任务时,容易产生 AI 无所不能的错觉。然而,我们应理性认识到,AI 带来的变革虽然迅猛,但并非颠覆一切。软件开发与产品设计的核心逻辑依然重要,我们可能正站在认知曲线的“愚昧之巅”。 Vibe Coding 与传统开发的类比:Vibe Coding 就像玩老虎机,投入代币(Tokens),拉动拉杆,结果可能中大奖,也可能一无所获。这形象地描述了当前 AI 编程中结果的不确定性。 AI 时代的开发流程:传统开发中“先设计再编码”与“先实现再重构”的争论,在 AI 编程时代有了新的答案。AI 让快速实现原型变得简单,使得迭代和重构的成本大大降低。 AI 编程工具与实践 Claude Code 的强大之处:其核心优势在于强大的基础模型(如 Claude Sonnet 和 Opus),这些模型在编程和 Agent 能力上表现卓越。此外,Anthropic 技术团队在 Code w/ Claude 大会上分享了其最佳实践。 项目实战:两小时构建翻译智能体:通过深度体验 Claude Code,可以在不编写一行代码的情况下,用两小时构建一个功能完善的翻译智能体。它可以处理文本、网址或本地文件,自动提取内容并完成翻译。 敏捷开发仍是最佳实践:无论是传统编程还是 Vibe Coding,最佳实践依然是敏捷(Agile)的迭代开发模式,而非试图一次性生成一个庞大、无法运行和维护的半成品。 AI 结对编程案例:Cloudflare 开源的 Workers OAuth 2.1 Provider 框架项目,完全是与 Claude Code 结对编程完成的。这个案例证明,AI 能够胜任复杂的编程任务,即使最初的代码不完美,也能通过有效沟通快速修复。 维护性挑战:尽管可以使用 Claude 4 在两天内开发出一个复杂的视频编辑器,但这类完全由 AI 生成的复杂系统,后续的维护工作可能极其困难,几乎无法进行。 Codex 评测:与需要开发者结对编程的“实习生”AI(如 Cursor)不同,Codex 更像是“外包员工”。你只需分配任务并验收成果,不合格便可让其重做,直至满意。 Firebase Studio 初体验:Google 推出的在线 AI 开发平台 Firebase Studio 功能强大,其交互设计在某些方面甚至优于 v0.dev,支持两种主要的交互方式并可自由切换。 开发者如何应对变革 提升系统架构能力:随着 AI 编码能力的增强,对程序员编写具体代码的要求可能降低,但对系统架构能力的要求会更高。人类需要负责任务拆解、理解业务全局,这是 AI 目前难以替代的。 未来还需要学习编程吗?:一个引人深思的问题是,如果未来 AI 在编码和系统设计上全面超越人类,我们是否还有必要学习这些技能?这涉及到程序员和架构师的职业前景以及未来软件架构的演变。 二、提示词工程与上下文工程 精确地指导 AI 是发挥其潜力的关键。“提示词工程”和“上下文工程”是其中的核心技术。 ...

August 30, 2025 · AI小卖铺

Karpathy 的 AI 编程指南:代码后稀缺时代的工具分层与心法

Andrej Karpathy 近日分享了他关于 AI 辅助编程的最新思考与工作流。他认为,在当前大模型能力已达到博士级水平的背景下,编程的核心问题正在发生变化。当代码可以被低成本地生成和抛弃时,我们应该如何最大化 AI 的辅助价值?“写代码”和“删代码”哪个更重要? Karpathy 提出了一套分层式的工具使用哲学,旨在整合不同工具的优势,以应对不同层级的编程任务。 工具分层与使用哲学 核心理念是,不应执着于寻找单一的“完美”工具,而应根据任务的复杂度和性质,灵活地组合使用多个工具。 日常主力:Cursor (Tab 自动补全) 这是 Karpathy 日常工作中使用频率最高的模式,约占其编程时间的 75%。 高效沟通:通过在代码的正确位置编写代码块或注释,可以非常高效地向 AI 传达任务意图和上下文。这种“人类起草,AI 补全”的方式,其信息传递效率远高于纯粹的自然语言对话。 高亮修改:另一种高阶用法是高亮选中一段代码,然后指令 AI 对其进行特定修改。 缺点:需要在使用过程中频繁地手动开关 Tab 自动补全功能,以避免不必要的干扰。 重型武器:Claude Code / Codex 对于功能明确、可直接描述的大块代码生成任务,Karpathy 会使用像 Claude Code 或 Codex 这样的工具。 适用场景: 新领域探索:在接触不熟悉的领域(如 Rust、SQL 命令等)时,这类工具能够快速生成基础代码,实现“凭感觉编程”。 一次性代码:在编写一次性的实用工具或调试代码时非常有用。例如,为了定位一个特定 bug,AI 可以迅速生成上千行详尽的可视化代码,待问题解决后,这些代码可以被毫无负担地删除。 主要问题:缺乏“代码品味” Karpathy 指出,这类工具生成的代码虽然能完成任务,但往往不够“优美”,缺乏良好的代码品味。具体表现为: 防御性过强:频繁滥用 try/catch 结构。 过度抽象:将简单的逻辑复杂化。 代码臃肿:使用冗长的嵌套 if-then-else 结构,而不是更简洁的列表推导或单行表达式。 代码重复:倾向于复制代码块,而不是创建可复用的辅助函数。 此外,他尝试让 AI 在写代码的同时进行教学解释,但效果不佳——AI 似乎只想“埋头写代码”,而不愿意解释过程。 终极防线:GPT-5 Pro 当面对最棘手、最微妙的问题时,Karpathy 将 GPT-5 Pro 视为最后的防线。 攻克顽固 Bug:它能够定位其他工具甚至人类都无法解决的细微 bug。Karpathy 举例说,曾有几次,他和 Cursor、Claude Code 团队被一个 bug 卡了十几分钟,但将所有上下文信息复制给 GPT-5 Pro 后,它在十分钟的思考后成功找到了问题的根源。 深度分析与研究:GPT-5 Pro 在挖掘生僻文档、论文资料方面表现出色。Karpathy 也用它来处理更复杂的任务,例如: 就如何优化代码抽象征求建议。 围绕特定主题进行完整的文献综述。 迎接“代码后稀缺时代” Karpathy 的工作流背后,是一个核心概念的转变——我们已经进入了**“代码后稀缺时代”**。 ...

August 28, 2025 · AI小卖铺

解决 Cursor 中使用 Claude 4.0 的地域限制问题

当您在 Cursor 编辑器中尝试使用 Claude 4.0 系列模型时,可能会遇到因地域限制而无法访问的提示。本文将分析该问题的原因并提供一个简单有效的解决方案。 问题现象 在 Cursor 中选择 Claude 4.0 模型(如 Claude 4.0 Sonnet 或 Opus)进行对话时,系统会返回类似“您所在的地区无法使用此模型”的错误信息,导致无法正常与 AI 交互。 问题原因 Cursor 本身是一个集成了多种 AI 能力的 IDE,它并不自行研发大模型。它通过调用 OpenAI、Anthropic (Claude 的开发商) 等第三方模型提供商的 API 来实现其强大的 AI 功能。 因此,地域限制并非由 Cursor 设置,而是源于上游模型提供商(如 Anthropic)的服务政策。这些政策通常会限制其服务在特定国家或地区的可用性。即使用户拥有合法的付费账户,只要检测到请求来自受限地区,服务依然会被拒绝。 解决方案 针对此问题,可以通过调整 Cursor 的网络设置来解决。具体步骤如下: 打开 Cursor 的设置界面。 在 macOS 上,点击菜单栏 Cursor -> Preferences。 在 Windows/Linux 上,点击菜单栏 File -> Preferences -> Settings。 在设置界面中,找到并点击 Cursor Settings。 在 Cursor Settings 页面中,定位到 Network 配置部分。 将 HTTP Mode 的设置项从默认值修改为 HTTP/1.0。 ...

August 28, 2025 · AI小卖铺

DeepSeek-V3.1 发布:登顶开源编程榜单,智能体能力实测

近期,DeepSeek 发布了其模型的全新升级版——DeepSeek-V3.1。该模型在权威的 Aider 编程榜单上取得了 76.3% 的高分,超越了 Claude 3 Opus,再次登顶全球开源编程大模型榜首。 本文将深入解析 DeepSeek-V3.1 的核心技术升级,并通过实际操作,展示其强大的智能体(Agent)编程能力。 V3.1 的核心升级 根据官方介绍,DeepSeek-V3.1 主要带来了三方面的显著提升: 思考模式优化:引入“思维链压缩”技术,在减少输出 Token 的同时,保证甚至提升了答案质量。 智能体能力增强:在编码和搜索等智能体任务上性能大幅跃升,向更自主的 AI 智能体迈出了重要一步。 推理效率提升:优化后的模型在推理效率上与 OpenAI 的顶尖模型相当,响应更快。 在开始深入分析前,我们先对新模型进行一个简单的“身份鉴定”。当被问及其身份时,V3.1 能够清晰、准确地回答,这表明模型在迭代升级后仍能保持良好的自我认知。 技术解析:思维链压缩 本次升级中最引人注目的技术之一是“思维链压缩”(Chain-of-Thought Compression)。它旨在解决一个核心矛盾:如何在保证答案质量的同时,让模型的输出更加简洁高效。 为什么“更简洁”意味着“更困难”? 我们可以通过一个简单的类比来理解这项技术的挑战性: 想象一下两个写作任务: 任务 A:用 500 字写一篇观点清晰、论据充分的影评。 任务 B:用 150 字写一篇同样水平的影评。 显然,任务 B 的难度要大得多。它要求作者对电影有更深刻的理解,能精准捕捉核心观点,并用最精炼的语言表达出来,不容任何冗余。这对作者的概括、逻辑和语言组织能力提出了更高的要求。 同理,让大模型用更少的 Token 输出高质量答案,是对其能力的一次极限考验。 工作原理 思维链压缩技术通过以下方式实现: 简化推理过程:模型首先生成一个完整的、详细的“思维链”(CoT),然后通过技术手段将其压缩成更精炼的形式。 传统 CoT 示例: “约翰有5个苹果,他吃了2个,所以还剩下5-2=3个。然后他又买了4个,所以现在有3+4=7个。因此,答案是7。” 压缩后输出: “约翰吃完剩3个,加上新买的4个,总共7个。” 强化学习训练:模型通过生成大量的压缩思维链样本进行训练。在训练过程中,采用强化学习技术,同时对两个目标进行奖励: 答案的正确性 回复的简洁性 通过这种方式,模型学会了在保持逻辑完整和答案准确的前提下,生成更简短、更高效的回答。 在官网实际测试中,即使不开启深度思考模式(DeepThink),V3.1 的回答也相当完整且语言精炼。开启 DeepThink 模式后,其展示的思维链也变得更为精简。 智能体(Agent)能力跃升 智能体是 AIGC 发展的关键方向,而 DeepSeek-V3.1 在这方面取得了巨大进步。 ...

August 26, 2025 · AI小卖铺