突发!华为发布AI智能体关键技术白皮书!2025
AI 为未来场景提供了可实现的技术手段,推动着创新快速发展和产品应用落地。
AI 为未来场景提供了可实现的技术手段,推动着创新快速发展和产品应用落地。
近年来,随 着生成式 AI 这一技术取得的显著进展,也引发了生成式 AI 同终端产品深度结合的创新浪潮:
从应用的角度看,各终端厂家和应用厂家密集推出基于大模型的 AIGC 应用产品,涵 盖对话、写作、学习、媒体创作、办公商务等领域。
从硬件设备的角度看,各终端厂家的 AI 能力也在不断推陈出新,产业界也纷纷提出 AI 终端、AI PC 不同维度的概念定义。
为了让消费者对 AI 终端的能力有更清晰、更直观的认知,同时也为了让产业界对 AI 终 端的能力演进达成统一的共识,协同产业有序发展,参考汽车驾驶自动化分级,以及清华大学 PERSONAL LLM AGENTS(个人大语言模型智能体)中的智能体能力分级,我们提出 AI 终端智能化 L1~L5 分级标准,并期待产业界同仁一起来完善、优化该分级标准。


针对 AI 终端分级标准,进一步高阶抽象出支撑该分级标准的 AI 终端六大关键技术特征。


我们认为,原生智能 OS 需要具备统一的 AI 系统底座、原生智能应用、系统级智能体、 开放生态四大核心要素,以能够更好地支撑 L1~L5 智能等级的终端 AI 技术演进。
如下以华为 HarmonyOS 原生智能技术架构为例来展开四大核心要素。

- 统一的 AI 系统底座**😗* 全新打造的 AI 系统底座,在 OS 层提供统一的 AI 基础模型、 数据接入、模型与算力的调度能力、模型加载与升级的工程化治理框架等,同时为 OS 其他子系统(如媒体子系统、文件子系统等)提供协调一致的智能化改造。
- 原生智能应用**😗* 对用户日常使用的系统应用(如电话、消息、图库等)和服务(如扫码、 图片编辑等)进行智能化升级,提供超越预期的智能化体验。
- 小艺超级智能体**😗* 作为系统级智能体,具备高效精准的多设备、场景融合感知和意图 理解能力、高阶任务规划和反思能力、广泛的工具调用和操作执行能力,为用户提供 体系化、可扩展、全场景智能能力,并与领域 Agent 一起相互协作,共同完成更复 杂的任务。
- 生态开放**😗* 为三方生态应用提供开放的模型开发和部署能力、高价值 AI 组件能力、 领域 Agent 开发平台能力,为生态应用开发和应用部署、应用运行进行全流程价值 赋能。

**感知是指通过传感器数据获得上下文信息的过程。**这里的传感器包括硬件传感器和软件传感 器,硬件传感器指具有物理结构的感知单元,如加速度计等。而软件传感器则泛指广泛的软件数据, 如聊天记录、日程安排等。
现有终端设备、系统和软件中已经有大量的感知过程,比如短视频软件分析行为感知用户喜好、 智能手机感知环境光照自动调节亮度、智能手表识别用户心率和 IMU 数据感知用户动作等等。
然而, 目前大部分感知都是“碎片化”的,这种碎片化主要体现在几个方面:
感知领域碎片化,每个软件只能感知软件内的行为和数据;
感知过程和结果碎片化,软件在有限的感知视野内根据自身需求各自实现和执行感知步骤,得到局限在某特定领域的感知结果,并通常不互相分享感知结果;
时间碎片化,系统出于能耗和隐私考虑往往不允许执行长期感知动作。
- 碎片化的感知难以得到更全面的感知结果,进而无法支撑下一代 AI 终端对物理世界全方位的 感知需求。在未来全场景智能的愿景下,原生智能的 OS 需要打破碎片化:
- 从多终端多源头汇总软件、硬件的感知数据,构建统一协同的感知数据底座;
在系统层做最大程度的过程共享、调度优化,降低长时间感知的资源占用和整体功耗,实现系统级全局最优的感知过程。
打破多个终端硬件、不同应用之间的隔离,从用户上下文、设备上下文、场景上下文中抽象出更高维度的感知结果。

AI 要超越今天的能力,我们需要的不仅仅是能够看到或对话交流的 AI,我们还需要可以做到 的 AI。当 AI 结合了更高维度的感知结果,将触发思考,进而影响自主行为。
与人类常见的行为模 式一样,看到乌云即可联想到下雨从而带了一把伞出门,AI 将学会感知复杂世界并与之互动,并 在此过程中触发智能的、可按需编排调度的主动服务。
在不久的将来,更高维度的智能感知、更智 慧的基础模型、更高阶的空间智能将为具身智能赋能,开启智能社会的更多可能性。

通用意义的 AI Agent 智能体实现了“以意图为中心”的 AI 与人的协作机制,系统超级智能 体则进一步结合 OS 系统的底层能力,为用户提供体系化、可扩展的智能能力。
OS 系统资源中 的各项能力(感知能力、记忆能力、工具能力等)向系统超级智能体开放并由其进行管理。
系统超级智能体主要由以下四个逻辑功能模块组成:


类似于终端操作系统(HarmonyOS、Android、iOS)的系统级 APP 和普通 APP 一样, 除了系统超级智能体之外,下一代 AI 终端中还将存在多个领域智能体(领域 Agent)。
系统超级 智能体和领域 Agent 相互协作,为用户提供全局性与专业性结合的智能服务体验。

端侧侧重感知执行,云侧侧重规划决策,端云协同构筑真正强大的全局化智能,同时,端云 协同一体的芯片、算子、模型的设计,还可以释放更强大的硬件资源。
以华为端云协同解决方案为例, AI 计算生态同栈,端云模型同源,为业务带来极致性能体验。

端侧自定义算子编程**😗* 业界首次开放端侧 NPU(Cube)的自定义算子编程,使能更 多样的模型能够运行在硬件加速器上,并可根据需要进行专门的定制优化。
端云统一的 AI 计算生态**😗* 业界首次实现端云统一的 AI 计算生态,端云的算子优化可 以互相使能或借鉴,并借助社区力量,推动端云硬件加速的协同发展。
端云芯片同源**😗* 有利于端云算力动态互助,以端助云降成本,以云助端提升体验,同 时便于业务在多设备间流转时,保持能力、体验的一致性。
端云模型同源**😗* 有利于模型能力、数据分布、词表、端云体验一致性的对齐,助力端 云算法协同、数据协同、业务场景协同。

随着 AI 在未来的智能社会中扮演着越来越重要的角色,AI 系统需要处理更丰富更全面的个人 信息,一旦 AI 系统被攻破,大量用户敏感数据可能会被窃取和滥用,此外,AI 大模型本身也可能 成为攻击目标,比如攻击者可以通过设计出特殊的提示词进行越权访问,获得其本来无权访问的用 户隐私数据,或引导智能体执行一些不该执行的动作。
生成式 AI 系统的可信安全体系需要从芯片、硬件、操作系统、大模型、智能体等多个维度全 新设计。
以华为 AI 终端为例,通过深度整合软件、硬件、芯片与云端各层防护机制,形成立体、动态、 自适应的“软硬芯云一体化安全架构”,确保数据、应用和用户交互的安全无虞。
智能感知与动态防护的软件安全**😗*
1)集成自我学习与适应能力的 AI 安 全引擎,实时监控系统行为,识别异常活动,有效抵御病毒、木马和 0 Day 攻击。
2)采用微服务架构,实现服务间最小权限原则和隔离,降 低单一服务受损对整体系统的影响。
3)内置的隐私保护机制,将确保用 户数据在处理、存储和传输过程中的加密与匿名化,保护个人隐私。
内置安全与可信执行环境的硬件安全: 通过集成安全芯片(如 TPM、 SE 等)实现硬件级的密钥管理、身份验证和数据加密,为系统提供 不可篡改的信任根。
此外,基于可信执行环境(Trusted Execution Environments, TEEs)为敏感操作提供独立的执行空间,同时实现基 于密码学的机密计算,保证了数据和计算过程的保密性、可靠性、不可 篡改性。
- 定制化安全指令与硬件加速的芯片级安全**😗* 在芯片设计阶段融入安全理 念,开发定制化的安全指令集,以硬件加速的方式执行加密运算和安全 协议,确保从底层硬件到上层应用的全程安全。
- 策略统一和风险共享的端云安全协同**😗* 安全云作为软硬芯云架构的中枢, 承担着安全策略的集中管理和跨设备协同防御的任务。鸿蒙能够实时接 收最新的安全补丁和威胁情报,实现安全策略的统一部署、更新与威胁 预警,并协调不同设备间的防御行动,形成强大的协同安全效应。

生态在 AI 终端中占据着非常重要的一环,推动了应用和服务的多样化发展。
通过建立开放的 生态系统,开发者可以轻松接入和利用 AI 能力,从而快速开发出创新的应用和服务,满足用户的 多样化需求。
总体上,华为 AI 终端基于“分层开放、全流程价值赋能”的原则助力鸿蒙 AI 生态开发。

应用开发和部署阶段:
模型开发部署能力开放: Core Deep Learning API,基于软硬芯云垂直整合,提 供硬件加速的端侧模型推理、训练和构图接口,支持三方模型通过 Tools(统一 IR) 转换为缺省 MindSpore Lite,实现一次开发即可在多芯片(CPU、GPU、NPU、 DSP)运行,确保海量存量 AI 应用极易迁移的同时,在麒麟芯片、HarmonyOS 上 更能够发挥出 AI 应用的极致性能体验。
高价值 AI 能力开放: 为应用提供与 HarmonyOS 深度适配的,极具竞争力的原子化 AI 接口(Core AI API),以及高阶 AI 系统能力组件(AI 控件、意图框架),应 用可直接集成,实现快速开发与迭代,提升用户体验和应用性能。
领域 Agent 开发平台开放: 小艺开放平台为领域 Agents 提供一站式、无代码开发 集成环境,同时提供移动终端独特的工具 / 插件,如位置服务插件、事件通知插件等, 赋能 CP 高精准、高效率地开发移动终端领域 Agent。
应用运行阶段:
应用智能化推荐: 基于多设备融合感知、意图框架体系以及系统级多入口,小艺建议 帮助应用 & 服务多维度、多频次、多场景、高效率地触达用户,实现从人找应用,到 应用找人。
服务智慧化编排: 在小艺系统超级智能体的统一协同下,服务可分可合、自动化编排, 实现服务按需组合,入口一步直达。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐



所有评论(0)