【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502从早期基于规则的专家系统,走向基于学习训练的感知型AI 从基于小参数模型的感知型AI,走向基于大参数模型的认知型AI 从擅长理解的认知型AI,发展到擅长文字生成的生成式AI 从语言生成式AI,发展到可理解和生成声音、图片、视频的多模态AI 从生成式AI,发展到推理型AI 专家系统 感知AI 认知AI 生成式AI 多模态AI 推理式AI 9政企、创业者必读 人工智能发展历程(二) 从单纯对话的大模型AI,发展到具有行动和执行能力的智能体AI 国外:GPT-4等效智能在过去18个月内价格下降240倍 国内:大模型「亏本」卖,可以「白嫖」大模型API能力 19政企、创业者必读 DeepSeek出现之前的十大预判 之七 多模态越来越重要 由文本生成迈向图像、视频、3D内容与世界模拟 多模态模态在能力变强的同时,规模正在变小 20政企、创业者必读 21 DeepSeek出现之前的十大预判 之八 智能体推动大模型快速落地 能够调用各种工具,具有行动能力 未来产业 创意 能力 赋能企业 数转智改 数学计算 语义理解 逻辑推理 语言翻译 文本创作 自动驾驶 具身智能 1 2 4 5 知识问答 代码编程 文本生成 多轮对话 图像生成 视频生成 音频生成 A I 数字人 生物制药 新材料研究 脑机接口 基础科学 能源自由 宇宙探索 生命科学 科学 能力 6 AI Fo r Science 知识管理( 内部知识管理、 外部情报分析、0 码力 | 76 页 | 5.02 MB | 5 月前3
人工智能安全治理框架 1.0不完备、标注人员能力不够、标注错误等问题,不仅会影响模型算法准确度、 可靠性、有效性,还可能导致训练偏差、偏见歧视放大、泛化能力不足或输出 错误。 (d)数据泄露风险。人工智能研发应用过程中,因数据处理不当、非授 权访问、恶意攻击、诱导交互等问题,可能导致数据和个人信息泄露。 3.1.3 系统安全风险 (a)缺陷、后门被攻击利用风险。人工智能算法模型设计、训练和验证 的标准接口、特性库和工 (b)混淆事实、误导用户、绕过鉴权的风险。人工智能系统及输出内容 等未经标识,导致用户难以识别交互对象及生成内容来源是否为人工智能系统, 难以鉴别生成内容的真实性,影响用户判断,导致误解。同时,人工智能生成 图片、音频、视频等高仿真内容,可能绕过现有人脸识别、语音识别等身份认 证机制,导致认证鉴权失效。 (c)不当使用引发信息泄露风险。政府、企业等机构工作人员在业务工 作中不规范、不当使用人工智能服务,向大模型输入内部业务数据、工业信息, 定时间段公众主流意识,进而向用户推送程式化、定制化信息及服务,“信息茧房” 效应进一步加剧。 (b)用于开展认知战的风险。人工智能可被利用于制作传播虚假新闻、- 7 - 人工智能安全治理框架 图像、音频、视频等,宣扬恐怖主义、极端主义、有组织犯罪等内容,干涉他 国内政、社会制度及社会秩序,危害他国主权;通过社交机器人在网络空间抢 占话语权和议程设置权,左右公众价值观和思维认知。 3.2.4 伦理域安全风险0 码力 | 20 页 | 3.79 MB | 1 月前3
Rust 程序设计语言 简体中文版 1.85.0165 9. 错误处理 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 9.1. 用 panic! 处理不可恢复的错误 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 9.2. 用 Result 处理可恢复的错误 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 12.3. 重构以改进模块化与错误处理 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .0 码力 | 562 页 | 3.23 MB | 24 天前3
共 3 条
- 1













