本文最后更新于:2026年3月3日 中午
从2025年底到2026年初,AI领域经历了一次显著的范式转移,本文记录近期国内外的先进工作和简介。
国产大模型
千问3.5 (Qwen 3.5)
阿里在2026年春节前后密集开源了多款千问3.5系列模型。其核心突破在于从纯文本到原生多模态的代际跃迁——模型基于视觉和文本混合token预训练,让“张开眼睛”的大模型学会了更密集的世界知识和推理逻辑。
-
架构创新:自研的门控技术(曾获NeurIPS 2025最佳论文)与线性注意力机制、稀疏MoE结合,实现了以小胜大——Qwen3.5-Plus仅激活170亿参数,性能就超过了万亿参数的Qwen3-Max。
-
开发者友好:中等规模模型可直接部署于消费级显卡,全球下载量已突破10亿次,衍生模型超20万。
豆包2.0 (Seed 2.0)
豆包2.0是唯一进入LMArena综合榜单全球前十的国产模型,标志着字节在AI领域的全面爆发。
-
多模态全面领先:视觉理解能力排名全球第4,仅次于Gemini三款模型。长视频场景中,豆包2.0能作为AI助手完成实时视频流分析、环境感知、主动纠错与情感陪伴,实现从被动问答到主动指导的交互升级。
-
视频生成惊艳全球:视频模型Seedance 2.0支持图像、视频、音频、文本四模态输入,生成可控性极强。《黑神话:悟空》制作人冯骥评价其为“当前地表最强的视频生成模型”。
-
成本优势:效果与顶尖模型相当,但token定价低了约一个数量级,这对大规模推理和长链路生成场景至关重要。
Kimi K2.5
月之暗面凭借Kimi K2.5实现了惊人的商业爆发——发布20天收入就超过2025年全年。
-
Agent swarm是核心武器:可调度最多100个专业“分身”并行处理1500个步骤,无需预设即可完成角色分配与任务拆解,在市场调研、多语言翻译、跨专业论文综述等场景中效率提升十倍以上。
-
硬核能力突出:数学维度全球第8、专家知识维度第10,解决极高难度理科问题和复杂知识理解的能力甚至超过了许多排名更靠前的通用型模型。
-
生态影响力:成为现象级产品OpenClaw的官方推荐模型,调用量超过GPT、Claude等头部闭源模型。
GLM-5 (智谱)
智谱GLM-5是国产模型中代码能力最强的选手,在代码赛道以1452分排名全球第8,是唯一进入该项前十的国产力量。
-
四大核心技术:DSA稀疏注意力机制(降本1.5-2倍)、异步RL基础设施、异步Agent RL算法、国产芯片全栈适配(华为昇腾/摩尔线程等7大平台)。
-
工程级可靠性:在SWE-bench-Verified和TerminalBench2.0中分别获得77.8和56.2的开源模型SOTA分数,性能超过Gemini 3 Pro。匿名测试中,25%的用户误以为是Claude,有力回击了“套壳”质疑
MiniMax M2.5
MiniMax M2.5定位为“原生Agent生产级模型”,其最大亮点在于推理速度与成本控制——1万美元理论上可支持4个Agent连续工作一年。
-
架构师思维:在编码前主动拆解架构与功能规划,更接近真实架构师的工作模式。当性能与成本不再构成约束,Agent规模化部署的经济模型将发生根本变化。
-
开源生态:已全球开源支持本地化部署,加速Agent渗透到编程、办公、创作、娱乐等更多生活场景。
百度文心5.0
2026年1月,百度正式发布文心大模型5.0正式版,以2.4万亿参数规模与统一原生全模态建模技术的双重突破,开启了大模型的“原生融合”时代。
-
核心技术突破:
与业界主流的“单模态训练+后期融合”方案不同,文心5.0采用统一自回归架构进行原生全模态建模,将文本、图像、音频、视频等多源数据在同一模型框架中进行联合训练。这种技术路线从根源上解决了传统多模态模型存在的特征割裂、信息损耗等问题,使多模态特征能够在底层实现深度交互与协同优化。 -
架构设计:
模型采用超大规模混合专家架构,通过超稀疏激活机制,仅调用与当前任务相关的3%以下参数参与计算,其余参数处于休眠状态。这种设计既保留了大参数模型的能力深度,又将推理算力消耗控制在合理范围。 -
权威表现:
在40余项国际权威基准测试中,文心5.0的语言与多模态理解能力超越Gemini-2.5-Pro、GPT-5-High等国际主流模型,稳居全球第一梯队;图像与视频生成能力则达到垂直领域专精模型水准。 -
落地案例:
上海辞书出版社通过百度千帆将文心大模型引入“智慧修订”场景,辅助编辑完成严谨的事实性校对,使审校效率提升3倍,准确率提升80%。
DeepSeek
DeepSeek在2025年春节后横空出世,以极致性价比推动整个AI行业的降价潮。2026年初,DeepSeek迎来多轮重要更新。
V4 Lite版本(2026年2月13日发布):
- 上下文窗口从上一代的128K扩展至100万tokens,相当于提升约七倍
- 参数量约为2000亿,定位为V4系列的轻量先行版
- 仍为纯文本模型,主要优化方向集中于上下文承载能力
- 实测显示在代码生成质量、响应效率等方面有可观提升
V4预览版(2026年2月底内测启动):
- 预计为万亿参数级别的超大规模基础模型
- 原生支持多模态推理能力
- 代号为“sealion-lite”,已进入封闭式内部测试
静默升级(2026年2月11日):
在V4正式官宣前,DeepSeek进行了一次低调升级,上下文显著提升至100万tokens,整体能力超越此前所有公开版本,成为系列中性能最优的模型。
通义千问3.5
2026年除夕,阿里巴巴发布并开源全新一代大模型千问3.5-Plus,实现从纯文本模型到原生多模态模型的代际跃迁。截至目前,阿里已开源千问模型超400个,全球下载量突破10亿次,衍生模型数超20万,稳居全球第一开源模型。
- 架构创新:
千问3.5采用混合注意力机制与高稀疏MoE架构,自研的门控技术曾斩获NeurIPS 2025最佳论文。Qwen3.5-Plus总参数3970亿,激活仅170亿,以小胜大,性能超过万亿参数的Qwen3-Max。
部署优势:
- 部署显存占用降低60%
- 最大推理吞吐量可提升至19倍
- API价格每百万Token低至0.8元,仅为Gemini 3 pro的1/18
中型模型密集开源(2026年2月25日):
阿里继续开源三款中等规模新模型:Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B。其中Qwen3.5-Flash基于35B-A3B托管,每百万Token输入低至0.2元,支持1M上下文。
华为盘古
华为盘古大模型与上述模型最大的不同在于其行业深耕战略——它不是一个单一的通用模型,而是一个覆盖NLP、CV、多模态、预测、科学计算五大核心能力的完整模型体系,专注于解决各行业的实际问题。
- 核心能力模型
| 模型名称 | 功能特点 | 核心应用场景 |
|---|---|---|
| 盘古NLP模型 | 千亿参数加持,深耕中文语境;具备强大的逻辑推理和知识抽取能力 | 金融研报分析、政务公文写作等严肃场景,生成准确、专业、合规的内容 |
| 盘古CV大模型 | 基于海量图像预训练,具备极强泛化能力;支持少样本学习 | 工业质检、智能矿山、城市巡查等场景,解决传统小模型“换个场景就失效”的顽疾 |
| 盘古预测大模型 | 专攻结构化数据与时序数据,洞察数据背后的数学规律 | 财务风控、物流仓储预测,捕捉传统统计学方法无法发现的非线性关联 |
| 盘古多模态大模型 | 打破视觉与语言的界限,实现图文互通、视听融合 | 电商场景(商品图生成营销文案)、安防场景(自动描述视频监控异常行为) |
| 盘古科学计算大模型 | 将AI引入天气、海洋、污染物等前沿科学领域 | 气象领域:几秒完成全球未来10天预测,精度超传统方法,速度提升10000倍以上 |
- 核心优势
华为盘古的最大特色在于其与昇腾芯片、华为云的深度适配能力:
国产芯片适配:盘古模型与华为昇腾芯片协同优化,充分发挥国产算力优势
行业场景深厚:在金融、政务、工业质检、矿山、气象等垂直领域积累了大量实战经验
010年安全可控**:全栈自研技术路线,满足政企客户对数据安全和自主可控的需求
- 落地案例
盘古科学计算大模型在气象领域的表现堪称惊艳——可在几秒钟内完成全球未来10天的天气预测,精度超过传统数值预报方法,计算速度提升10000倍以上,为防灾减灾争取宝贵的“黄金时间”。这一成果已被世界气象组织等国际机构关注,成为中国AI在基础科学领域的标志性突破。
国际大模型
Claude Opus 4.6 (Anthropic)
- 定位:Anthropic的旗舰级模型,主打深度工程化落地能力,旨在成为可靠的“数字员工”。
- 核心亮点:首度开放100万Token超长上下文(测试版),能一次性处理超大型代码库或海量文档。引入了“自适应思考”功能,模型能根据问题复杂度动态调整推理深度。在终端环境实际操作能力的测试Terminal-Bench2.0中得分65.4%,展现了强大的自动化编程能力。
- 适用场景:企业级自动化工作流、复杂代码库管理、深度金融与法律分析
Claude Sonnet 4.6 (Anthropic)
- 定位:性能与成本的平衡之选,被称为“史上最强Sonnet”,在多项任务中表现逼近旗舰Opus 4.6。
- 核心亮点:同样支持100万Token超长上下文。在Agent金融分析(GDPVal-AA)测试中得分63.3%,甚至超过了Opus 4.6。其计算机使用能力显著增强,在OSWorld基准测试中得分为72.5分,可执行多步骤网页表单填写等任务。
- 定价:性价比极高,输入与输出价格分别为每百万token 3美元和15美元,约为Opus的五分之一。
Claude Haiku 4.5 (Anthropic)
- 定位:Claude系列中最快、最具成本效益的轻量级模型。
- 核心亮点:推理速度提升超两倍,性能可与前代中高端模型Sonnet 4媲美。在编程测试(SWE-Bench Verified)中得分73.3%,在计算机操作测试(OSWorld)中得分50.7%,高于当时的Sonnet 4。
- 定价:成本仅为Sonnet的三分之一(每百万输入Tokens 1美元、输出5美元),非常适合对延迟和成本敏感的大规模实时应用。
- 适用场景:实时聊天助理、客户支持、代码协同,或与旗舰模型组成“规划-执行”的多智能体协作架构。
Gemini 3.1 Pro (Google)
- 定位:专注于核心推理能力大幅进化的模型,专为处理复杂逻辑任务而生。
- 核心亮点:引入了三层思考模式,让用户可以根据任务复杂度权衡响应速度和成本。在评估处理全新逻辑模式能力的ARC-AGI-2测试中得分77.1%,推理性能是上一代的两倍以上。对自身知识边界的认知能力(AA-Omniscience Index幻觉控制指标)从13分跃升至30分,在主流模型中排名第一。
- 定价:混合价格约每百万token 4.50美元,具有较强竞争力。
- 适用场景:需要深度推理的科学、工程研究,复杂数据可视化与多源信息整合。
Grok-4.20-beta1 (xAI)
- 定位:采用多智能体协作架构的创新模型,模拟“专家会议”模式。
- 核心亮点:内置由4个不同分工的智能体(Grok, Harper, Benjamin, Lucas)组成的团队,用户可见其内部讨论过程,共同推理以降低幻觉(测试称可降低约65%)并提高可靠性。在真实股票交易基准Alpha Arena中表现出色,取得超**10%**的平均回报率。在Search Arena排名中,其搜索实时信息和引用能力位列第一。
- 适用场景:需要多角度验证的复杂问题、实时信息检索与分析、创意生成、代码原型快速开发
AI Agent 开发框架 (面向开发者)
这一类工具主要为开发者提供代码库和灵活的建筑模块,让你可以像搭积木一样,深度定制和构建属于自己的智能体应用。
LangChain / LangGraph
来自同一团队、但定位不同的"双子星"。
- LangChain 是一个开源框架,旨在简化基于大型语言模型的应用开发。它像一座"桥梁",通过"链"(Chains)将提示词、模型和外部数据源串联起来,帮助开发者快速构建上下文感知的AI应用。它的核心是提供一套无预设(Unopinionated) 的抽象工具,让切换模型、添加工具变得容易。
- LangGraph 则是在 LangChain 基础上构建的一个更底层的图状工作流框架。它专注于创建有状态、多步、循环的智能体流程,非常适合构建需要多个智能体协作的复杂系统。你可以把它想象成一个精密的流程图,能清晰地定义智能体之间如何交互、状态如何流转,并且支持"人在回路中"(Human-in-the-Loop)的干预。简单来说,LangChain 适合构建线性流程,而 LangGraph 则是为复杂、动态的"智能体"架构而生。
AutoGen
由微软研究院推出的一个开源框架,它的核心思想是通过对话来协调多个智能体协作解决问题。与 LangGraph 的图结构不同,AutoGen 让智能体之间通过"群聊"或"对话"的方式进行交互,来完成诸如代码生成、数据分析和研究等迭代性任务。它非常强调人类参与,你可以随时介入智能体的对话,提供反馈或指导,让整个协作过程更可控。
Agentar
这是由蚂蚁数科打造的一个面向企业级的全栈式智能体开发平台。它的特点是非常"重"和"全",贯通了从算力调度、数据治理到模型训推的全链路。它特别强调可信智能体技术,通过了中国信通院的可信 AI 评估,能确保推理逻辑和交互过程的全链路可信。平台沉淀了亿级的专业数据和十万级的思维链标注数据,并提供了低代码开发能力和企业级的安全防护,非常适合金融、能源等对数据安全和合规性要求极高的严谨行业。
AI Agent 开发平台 (面向应用者)
Coze(扣子)
由字节跳动推出的一站式 AI 应用开发平台。它最大的特点是简单易用,无论你有没有编程基础,都能通过它快速搭建基于 AI 模型的问答 Bot。2026年1月上线的扣子2.0集成了强大的 Agent Skill、Agent Plan 等能力,并升级为"扣子编程",支持通过连续对话(Vibe Coding)的方式,轻松构建智能体、工作流甚至网站和应用。它内置了超过60款插件和丰富的数据源(知识库),并提供了可视化的工作流编排功能,让处理复杂逻辑变得像搭乐高一样直观。
Voiceflow
这是一个在海外非常流行的对话式AI协作平台,尤其擅长可视化地设计对话流。它的核心是一个直观的拖拽式流程构建器,产品经理、设计师和工程师可以实时在线协作,共同搭建复杂的对话逻辑,而无需编写代码。它支持将知识库集成到对话中,也提供了 API 和代码块供团队进行深度定制。不过需要注意的是,其免费版和部分付费计划在可选的底层大模型(主要支持 OpenAI 和 Anthropic)及白标定制方面有一定限制。
Dify
这是一个开源的大语言模型应用开发平台,因其高度的灵活性和对开发者的友好性而广受欢迎。它巧妙地融合了"后端即服务"和 LLMOps 的理念,让开发者可以快速搭建生产级的生成式 AI 应用。Dify 的核心优势在于它内置了构建 LLM 应用所需的关键技术栈,如支持众多模型、友好的提示词设计界面、高性能的 RAG 检索增强生成系统,以及可定制的 Agent 架构。你既可以通过其可视化界面进行编排,也可以随时深入代码进行定制,并且可以轻松地将它部署在自有云 infrastructure 上(如阿里云 ACK)。
文心智能体
这是基于百度文心大模型的智能体开发能力,主要通过百度智能云的千帆平台向外提供服务。它不是一个独立的平台,而是百度千帆这一企业级大模型服务平台的重要组成部分。通过千帆平台,开发者和企业可以调用包括最新文心5.0在内的150+个模型,并利用平台提供的Agent开发服务,快速构建智能体应用。千帆平台还开放了百度搜索、百度地图等百度的核心AI能力作为工具,并提供了从数据处理、模型微调到应用部署、监控的全流程支持,累计已开发超过130万个Agents。
Agentic Coding
Codex
Codex是OpenAI推出的专注于智能体编程(Agentic Coding) 的AI系统。它的核心定位是成为开发者的“全能研发伙伴”,能够自主规划、执行和迭代复杂的软件开发任务,而不仅仅是生成代码片段.
目前,Codex主要由两个核心部分组成,分别应对不同的开发场景:
| 特性维度 | GPT-5.3-Codex (旗舰模型) | GPT-5.3-Codex-Spark (实时模型) |
|---|---|---|
| 核心定位 | 全能型AI智能体,处理复杂、长周期的研发任务。 | 轻量级、超低延迟模型,专为高频、实时的交互式编程设计。 |
| 核心能力 | 自主规划、调试、部署;可处理整个软件生命周期(写文档、做PPT、分析表格)。 | 近乎即时的代码反馈(>1000 token/秒),支持“人在回路”的实时协作与干预。 |
| 关键指标 | 上下文400K,输出可达128K token,速度比前代快25%。 | 上下文128K,端到端延迟优化(首字时间降50%),依赖Cerebras专用芯片。 |
| 性能表现 | SWE-Bench Pro (56.8%),Terminal-Bench 2.0 (77.3%),OSWorld (64.7%)。 | 性能优于小型模型,但在复杂基准上不及旗舰版,专为速度和精准编辑优化。 |
| 独特亮点 | 首个“自我构建”的模型,参与了自身训练过程的调试与优化。 | 与Cerebras合作的首个技术里程碑,代表了实时AI推理的前沿探索 |
- 文档地址:https://developers.openai.com/cookbook/examples/codex/long_horizon_tasks/
- Github:https://github.com/openai/openai-cookbook/tree/main
OpenClaw
OpenClaw的核心理念是 “主权代理” 。以往的AI服务(如Manus)大多是“托管型”的,你的数据和交互都发生在服务商的服务器上。而OpenClaw则不同:
- 本地优先:你可以将它部署在自己的阿里云服务器或本地电脑上,数据和隐私完全由自己掌控。
- 主动执行:它能主动监控状态(通过“心跳系统”),并自动触发操作,比如定时检查网站更新并发邮件通知你。
- 自然交互:你只需要在钉钉、飞书、Discord或它的网页端像聊天一样给它下达指令,它就会去执行
架构设计:
- 分布式三层架构:由网关控制层(负责安全和会话管理)、执行节点层(在你的设备上执行实际任务)和通信渠道层(连接钉钉、Slack等)构成,实现了云端智能与本地执行的结合。
- 多智能体协作:它可以生成子智能体(Subagents) 来分工处理复杂任务。比如,一个主智能体负责理解你的需求,然后生成多个子智能体分别去搜索资料、编写代码、生成报告,最后汇总给你,形成高效的树状执行结构。
- 混合记忆系统:通过每日日志、长期记忆和向量索引,它能记住你的偏好和过去的任务,随着使用变得越来越“懂你”。
- Lobster工作流引擎:这确保了任务执行的确定性。关键操作可以设置需要人工确认(“人机回环”),避免AI乱来,提高了安全性。
功能生态与部署
-
核心能力:覆盖文件管理(整理、转换文档)、日程任务(安排会议、创建提醒)、代码辅助(编写、调试代码)和跨应用协同(在钉钉/飞书群里@它干活)。
-
部署便利性:为了降低门槛,阿里云推出了OpenClaw专属镜像,可以实现一键购买和部署,零基础用户也能在10-15分钟内搭建起自己的AI助理。
-
丰富的插件生态:官方插件库 ClawHub 已托管超过5700个社区技能,可以按需为你的AI助理添加各种新功能。
-
全场景覆盖:除了网页端,它还在2月份火速推出了iOS应用、Apple Watch伴侣应用,甚至接入了Discord的实时语音,让你在手机上也能随时调遣它。
-
官方网站:https://openclaw.ai/
Claude Code
一款能够自主完成编码、调试、部署等任务的AI编程工具。Claude Code,是 Anthropic 在 2026 年初引爆 AI 编程领域乃至整个软件工程界的旗舰级产品。它不再只是一个帮你写代码的助手,而是一个能 自主规划、执行、调试和交付完整功能模块的 AI 智能体,被许多开发者称为“不请假的资深开发人员”。
| 特性维度 | Claude Code (Anthropic) | OpenAI Codex |
|---|---|---|
| 核心理念 | 深思熟虑的资深开发者。追求代码质量、可维护性和对复杂系统的深度理解。 | 高效快速的多面手。追求速度、并行效率和灵活的接入方式。 |
| 技术架构 | 终端优先,本地执行。直接在开发者的机器上运行,拥有完整的文件系统访问权限,保障隐私和零延迟。 | 云优先,沙箱执行。任务在云端沙箱环境中并行运行,不占用本地资源,原生支持大规模并行。 |
| 复杂任务能力 | 极强 (SWE-bench: 72.5%)。擅长理解大型代码库的架构,进行复杂的错误修复和功能开发。 | 良好 (SWE-bench: ~49%)。能快速生成代码,但在处理极复杂的真实世界错误时稍逊一筹。 |
| 并行处理 | 通过子智能体 (Sub-agents) 实现,需一定手动协调。 | 原生云并行,可以同时启动多个任务在隔离环境中运行,无缝衔接。 |
| 效率与成本 | 令牌消耗较高(约为Codex的3倍),重度使用成本可达**$200/月**。 | 令牌效率极高,对ChatGPT Plus用户而言,$20/月的订阅即可覆盖大部分使用场景。 |
| 开源情况 | 闭源,但文档详细,功能迭代迅速。 | CLI工具开源,开发者可以修改、定制,甚至构建衍生工具。 |
- 终端优先,全平台延伸:Claude Code 的核心是一个命令行工具,能深度融入开发者的现有工作流。2026年2月推出的 Remote Control(远程控制) 功能,进一步打破了物理限制。你可以在手机上、平板上,通过浏览器或 Claude App 连接到正在办公室电脑上运行的 Claude Code 会话,随时查看进度、下达新指令,实现真正的“移动办公”。
- 企业级部署与生态合作:Claude Code 已被大量企业采用。例如,全球保险经纪巨头 HUB International 为超过 20,000 名员工部署了 Claude 平台,其技术团队使用 Claude Code 后,在特定用例中实现了 85% 的生产力提升,员工每周平均节省 2.5 小时。此外,Anthropic 也与印度 IT 巨头 Infosys 合作,将 Claude Code 集成到其企业解决方案中,用于核心系统的现代化改造和软件开发流程加速。
- 持续迭代的开发者体验:2026年1月发布的 Claude Code 2.1.0 版本,带来了超过1000项更新,核心目标是让开发者能像对待“可编程的基础设施”一样去定制它。新功能包括:
- 生命周期钩子 (Hooks):允许在智能体使用工具前后插入自定义逻辑,实现精细的状态管理和审计日志。
- 技能热重载 (Hot Reload):修改或新增的自定义技能可以立即生效,无需重启会话,极大加速了实验和迭代。
- 会话传送 (Session Teleportation):通过
/teleport命令,可以将本地终端会话无缝迁移到网页端继续操作。
CoPaw
CoPaw是由阿里云通义实验室推出的开源桌面Agent(智能体)工具,旨在成为用户的个人智能助理。它的名字融合了"Co"(协同)与"Paw"(小爪子),寓意着它能像贴心的小助手一样,在你的电脑上协同工作.
CoPaw的开源版本在模型管理、架构灵活性等方面进行了全面升级:
- 高度定制,自由组装:CoPaw的核心架构采用模块化设计,将提示词(Prompt)、工具(Tools)、记忆(Memory)等组件解耦。开发者可以像搭积木一样,独立替换或扩展任意模块,按需组装属于自己的Agent。它也支持开发者编写自定义的Skills,为CoPaw增加无限可能的新能力。
- 模型自由,无缝切换:内置了对阿里千问(Qwen)系列等主流云端模型的支持。同时,为了满足用户的多样化需求,它也全面接入了本地模型生态,无论是通过Ollama、llama.cpp,还是在Apple芯片上使用MLX,CoPaw都能轻松适配。
- 无处不在的聊天频道:原生支持你常用的聊天软件,包括钉钉、飞书、QQ、Discord、iMessage(仅Mac) 等。你可以在哪个App里跟它说话,它就在哪个App里回复你,真正做到"无处不在"。开源版本还统一了接入协议,让多频道消息处理更稳定可靠。
- "有生命"的数字搭档:CoPaw拥有长期记忆,会主动记录你的决策、偏好和待办事项,使用时间越长,它就越懂你。更特别的是,它具备主动心跳机制,内置定时任务系统,不仅能被动响应,还能主动帮你查邮件、整理待办,像一个真正主动的助理。
CoPaw内置了文档编辑、新闻阅读、文件管理等丰富的技能(Skills),可以帮你自动完成多种任务:
- 办公提效:自动汇总海量邮件、一键生成并整理周报。
- 生活助手:记录和分析每天的饮食与健身数据。
- 创意灵感:帮创作者构思视频脚本、爬取和整理社交平台的热门帖子、自动生成内容草稿。
- 桌面管理:例如,你可以让它每天自动把桌面上超过三天的文件丢进废纸篓。
- 信息查询:查找新闻、查天气、监控股价等。
CoPaw的部署门槛非常低,你可以选择最适合自己的方式:
-
一键云端部署:如果想快速体验,可以直接在魔搭社区创空间一键部署,无需安装任何环境,在浏览器里就能使用(记得将空间设为非公开,让它成为你的专属AI)。
-
极简本地安装:如果你的电脑有Python环境(3.10至3.13版本),只需三条命令就能完成安装并启动:
bash
1
2
3pip install copaw
copaw init --defaults
copaw app之后在浏览器打开
http://127.0.0.1:8088/就能进入控制台开始对话了。它也支持通过Docker方式安装。
文章链接:
https://www.zywvvd.com/notes/study/llm/ai-noun-explanation/ai-noun-explanation/
“觉得不错的话,给点打赏吧 ୧(๑•̀⌄•́๑)૭”
微信支付
支付宝支付