TVM工具组绝赞招聘中 TVM CAFFE 前端 2019·11·16绝赞招聘中 TVM 在平头哥 • 工具链产品 平头哥芯片平台发布的配套软件中, TVM 是工具链产品的重要组成部分: 负责将预训练好的 caffe 或者 tensorflow 的模型,转换到 LLVM IR,最后生成可以在无剑 SoC 平台上 执行的二进制。绝赞招聘中 为何添加 caffe 前端? 客户需求 评估 评估阶段:客户用于评估芯片的网络,caffe 模型占很大比重。 竞品已支持 caffe 前端 当前各大芯片厂商的部署工具大多数都支持,支持 caffe 前端有利于提高竞争力。 开源社区 存量的开源 caffe 网络模型众多,TVM 直接支持 caffe 让大家更方便尝试 caffe 资源。绝赞招聘中 当前进度 无 caffe 依赖 from_caffe 直接导入 caffe 模型文件,不需要预先安装 flatten / normalize / crop / proposal / roipooling / permute / priorbox绝赞招聘中 未来 命令行工具 将 caffe 模型转换的功能,通过一组命令行工具提供,命令行工具支持 windows / linux 平台。 支持更多 caffe op / net 随着客户需求和社区发展,提供更多的 caffe 分支变种的 op / net0 码力 | 6 页 | 326.80 KB | 5 月前3
开源中国 2023 大模型(LLM)技术报告基础设施、应用现状,以及相关的工具和平台。 2 / 32 LLM Tech Map 向量数据库 数据库向量支持 大模型框架、微调 (Fine Tuning) 大模型训练平台与工具 基础设施 LLM Agent 备案上线的中国大模型 知名大模型 知名大模型应用 大模型 算力 工具和平台 LLMOps 大模型聚合平台 开发工具 AI 编程 插件、IDE、终端 插件、IDE、终端 代码生成工具 编程语言 3 / 32 LLM 技术背景 Transformer 架构和预训练与微调策略是 LLM 技术的核心,随着大规模语言数据集的可用性和计算能 力的提升,研究者们开始设计更大规模的神经网络,以提高对语言复杂性的理解。 GPT (Generative Pre-trained Transformer) 的提出标志着 LLM 技术的飞速发展,其预训练和微调的 向量数据库/数据库向量支持 为大模型提供高效的存储和检索能力 大模型框架及微调 (Fine Tuning) 大模型框架提供基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节 大模型训练平台&工具 提供了在不同硬件和环境中训练大语言模型 所需的基础设施和支持 编程语言 以 Python 为代表 5 / 32 LLM 基础设施:向量数据库/数据库向量支持 向量数据库是专门用于存储和检索向量数据的数据库,它可以为0 码力 | 32 页 | 13.09 MB | 1 年前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单能做什么? 要怎么做? 效果如何? 一 能做什么? 数据挖掘 数据分析 数据采集 数据处理 数据可视化 AIGC 数据应用 通过编写爬虫代码、访问数据库、读取文件、调用API等方式,采 集社交媒体数据、数据库内容、文本数据、接口数据等。 通过数据清洗、数据集成、数据变换、特征工程等方式,实 现数据纠错、数据整合、格式转换、特征提取等。 对数据进行诊断、预测、关联、聚类分析,常用于问题 论。 结论 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 数据挖掘 1、读取即将上映的2025年电影数据集 2、对数据集进行深入分析和数据挖掘 任务 DeepSeek R1 能够准确对数据进行分类,从多个维度进行梳理和分析,借助可视化图表进行数据挖掘,基于分析结 果提供可行建议,但整体数据挖掘深度较浅,缺少对不同类型数据直接关联性的探究。 提示词 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 数据挖掘 Claude 3.5 sonnet 基于数据集,在整体数据概括后提供多个 深入数据挖掘方向,根据需求输入研究倾 向,高效生成多个维度的数据分析,语言 简洁,挖掘深度较浅。 Kimi k1.5 提供数据的潜在用途方向,深入分 析过程中,从多个维度(如时间、0 码力 | 85 页 | 8.31 MB | 8 月前3
人工智能安全治理框架 1.0辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如 有异常难以快速修正和溯源追责。 (b)偏见、歧视风险。算法设计及训练过程中,个人偏见被有意、无意引入, 或者因训练数据集质量问题,导致算法设计目的、输出结果存在偏见或歧视, 甚至输出存在民族、宗教、国别、地域等歧视性内容。 (c)鲁棒性弱风险。由于深度神经网络存在非线性、大规模等特点,人 工智能易受复杂多变运行环 理不当、非授 权访问、恶意攻击、诱导交互等问题,可能导致数据和个人信息泄露。 3.1.3 系统安全风险 (a)缺陷、后门被攻击利用风险。人工智能算法模型设计、训练和验证 的标准接口、特性库和工具包,以及开发界面和执行平台可能存在逻辑缺陷、- 5 - 人工智能安全治理框架 漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。 (b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、 边界传递等风险。 (c)供应链安全风险。人工智能产业链呈现高度全球化分工协作格局。 但个别国家利用技术垄断和出口管制等单边强制措施制造发展壁垒,恶意阻断 全球人工智能供应链,带来突出的芯片、软件、工具断供风险。 3.2 人工智能应用安全风险 3.2.1 网络域安全风险 (a)信息内容安全风险。人工智能生成或合成内容,易引发虚假信息传播、 歧视偏见、隐私泄露、侵权等问题,威胁公民生命财产安全、国家安全、意识0 码力 | 20 页 | 3.79 MB | 1 月前3
【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502政企、创业者必读 国内DeepSeek最前沿资料 政企、创业者必读 《DeepSeek给我们带来的创业机会》 360集团创始人 周鸿祎 3 政企、创业者必读政企、创业者必读 一张图读懂一堂DeepSeek课政企、创业者必读 AI给了一个比互联网更大的机会 互联网是连接平台,人工智能是生产力 互联网是赋能性技术,生产力属性较弱 人工智能既能单兵作战,也能外部赋能 互联网 21 DeepSeek出现之前的十大预判 之八 智能体推动大模型快速落地 能够调用各种工具,具有行动能力 调用企业专业知识,更懂企业 将日常重复性业务流程形成Playbook,实现流程自动化 通过目标拆解,多次调用大模型以及专家模型协同,形成 慢思考能力 传统软件是辅助人的工具,Agent是能够自主工作的数字员工,是新的生产力政企、创业者必读 22 DeepSeek出现之前的十大预判 建立强大生态,成为全球人工智能根技术,无推广情况下各国 政府、企业、云厂商纷纷接入,获得全球最大影响力 改变中美竞争格局:美国是闭源封闭垄断思路,中国领导开源 文化,加速中国领先地位 中国人民使用的AI工具先进性已超过美国,普及率超过美国, 使用AI人口超过美国总人口,且直接用上最先进的DeepSeek-R1 DeepSeek颠覆式创新——开源 33政企、创业者必读 新时代下的集中力量办大事0 码力 | 76 页 | 5.02 MB | 5 月前3
清华大学 普通人如何抓住DeepSeek红利文体转换 个性化推荐 翻译与转换 多语言翻译 异常检测 多源信息融合 知识与推理 知识图谱构建 流程优化 数据可视化 数据分析 趋势分析 多模态交互 任务执行 任务协调 工具调用 格式转换 关系抽取 语言理解 文案写作 代码注释 故事创作 通用问答 专业领域问答 因果推理 知识推理 问答系统 逻辑推理 自然语言处理 文本生成与创作 建议生成 场景2:文科生快速上手编程 加载数据集:使用datasets库加载SQuAD数据集,这个数据 集包含了大量基于2020年之前数据生成的问答对。 提取问题:从数据集中提取问题,并使用set去重。 检查问题数量:确保提取的问题数量至少为10万个。 保存问题:将问题保存到CSV文件生成的真实答案问题.csv中。 要生成10万个存在真实答案的问题,并且基于2020年之前的 数据,可以使用现有的公开问答数据集(如SQuAD 合问题,以达到10万个的问题数量。 这 些 数 据 集 包 含 大 量 的 问 答 对 , 例 如 使 用 d a t a s e t s 库 (Hugging Face的datasets库)来加载SQuAD数据集 (Stanford Question Answering Dataset),这个数据集 是一个著名的问答数据集,基于维基百科数据生成,并且数 据是2020年之前的。 AI幻觉问题抽取:多数据集 问题加载 探讨大语0 码力 | 65 页 | 4.47 MB | 8 月前3
国家人工智能产业综合标准化体系建设指南(2024版)网络强国 和数字中国发挥重要的支撑作用。人工智能产业链包括基础 层、框架层、模型层、应用层等 4 个部分。其中,基础层主 要包括算力、算法和数据,框架层主要是指用于模型开发的 深度学习框架和工具,模型层主要是指大模型等技术和产 品,应用层主要是指人工智能技术在行业场景的应用。近年 来,我国人工智能产业在技术创新、产品创造和行业应用等 方面实现快速发展,形成庞大市场规模。伴随以大模型为代 基础数据服务标准。规范人工智能研发、测试、应用等 过程中涉及数据服务的要求,包括数据采集、数据标注、数据治 理、数据质量等标准。 2. 智能芯片标准。规范智能芯片相关的通用技术要求,包 括智能芯片架构、指令集、统一编程接口及相关测试要求、芯片 数据格式和协议等标准。 3. 智能传感器标准。规范单模态、多模态新型传感器的接 口协议、性能评定、试验方法等技术要求,包括智能传感器的架 构、指令、数据格式、信息提取方法、信息融合方法、功能集成 计 算能力评估、技术要求、稳定性要求和业务服务接口等标准。 6. 系统软件标准。规范人工智能系统层的软硬件技术要求, 包括软硬件编译器架构和优化方法、人工智能算子库、芯片软件 运行时库及调试工具、人工智能软硬件平台计算性能等标准。 7. 开发框架标准。规范人工智能开发框架相关的技术要求, 包括开发框架的功能要求,与应用系统之间的接口协议、神经网 络模型表达和压缩等标准。 8. 软硬0 码力 | 13 页 | 701.84 KB | 1 年前3
DeepSeek图解10页PDF料用心打磨且开源,是为了帮助更多人了解获取 AI 知识,严禁拿此资料引流、出书、等形式的商业活动 通用性更强。大模型和我们自己基于某个特定数据集(如 ImageNet、20News- Group)训练的模型在本质上存在一些重要区别。主要区别之一,大模型更 加通用,这是因为它们基于大量多样化的数据集进行训练,涵盖了不同领域 和任务的数据。这种广泛的学习使得大模型具备了较强的知识迁移能力和 多任务处理能力,从而展现 。相比之下, 我们基于单一数据集训练的模型通常具有较强的针对性,但其知识范围仅 限于该数据集的领域或问题。因此,这类模型的应用范围较为局限,通常只 能解决特定领域或单一任务的问题。 Scaling Laws 大家可能在很多场合都见到过。它是一个什么法则呢?大 模型之所以能基于大量多样化的数据集进行训练,并最终“学得好”,核 心原因之一是 Scaling Laws(扩展规律)的指导和模型自身架构的优势。 训练目标是最小化预测误差,使其能更好地完成语言任务。 2.3.2 监督微调(Supervised Fine-Tuning, SFT) 在预训练之后,通常需要对模型进行监督微调(SFT):使用人工标注的数 据集,让模型在特定任务上优化表现。调整参数,使其更符合人类需求,如 问答、对话生成等任务。 2.3.3 强化学习(Reinforcement Learning, RL) 采用强化学习(RL)方法进行0 码力 | 11 页 | 2.64 MB | 8 月前3
普通人学AI指南. . . . . . . . . . 6 1.4.2 单位 B 和 T . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2 AI 工具梳理 6 2.1 问答 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.1.1 ChatGPT . . . . . . . . 8 2.2.6 Midjourney . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.3 AI 视频工具 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.3.1 Sora (OpenAI 公司) . . . . . . . . . . . . . . . 9 2.3.4 腾讯智影 . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.3.5 度加创作工具 . . . . . . . . . . . . . . . . . . . . . . . . . 9 1 2.3.6 Spike Studio . . . . . . . . . . . .0 码力 | 42 页 | 8.39 MB | 8 月前3
Deepseek R1 本地部署完全手册适配V3/R1模型,性能对标NVIDIA A100 等效A100(BF16) 2. 国产硬件推荐配置 模型参数 推荐⽅案 适⽤场景 1.5B 太初T100加速卡 个⼈开发者原型验证 14B 昆仑芯K200集群 企业级复杂任务推理 32B 壁彻算⼒平台+昇腾910B集群 科研计算与多模态处理 四、云端部署替代⽅案 1. 国内云服务商推荐 平台 核⼼优势 适⽤场景 硅基流动 官⽅推荐API,低延迟,⽀持多模态模型 GPU利⽤率低:升级⾼带宽内存(如DDR5 5600+)。 扩展交换空间: 六、注意事项与⻛险提示 1. 成本警示: 70B模型:需3张以上80G显存显卡(如RTX A6000),单卡⽤户不可⾏。 671B模型:需8xH100集群,仅限超算中⼼部署。 2. 替代⽅案: 个⼈⽤户推荐使⽤云端API(如硅基流动),免运维且合规。 3. 国产硬件兼容性:需使⽤定制版框架(如昇腾CANN、沐曦MXMLLM)。 llama-gguf-split0 码力 | 7 页 | 932.77 KB | 8 月前3
共 14 条
- 1
- 2













