 Google 《Prompt Engineering v7》in action, you need to write some code. In code Snippet 1 I am using the langchain framework for Python, together with VertexAI (google-cloud-aiplatform) and the google-search-results pip packages. Prompt SERPAPI_API_KEY. Next let’s write some Python code, with the task for the LLM to figure out: How many children have a famous dad that performs in the band Metallica. Python from langchain.agents import load_tools for file names, ideally it should work as a separate application with an UI. As a starting point, Python would be a better language for a (web) application than Bash. LLMs can help with translating code0 码力 | 68 页 | 6.50 MB | 6 月前3 Google 《Prompt Engineering v7》in action, you need to write some code. In code Snippet 1 I am using the langchain framework for Python, together with VertexAI (google-cloud-aiplatform) and the google-search-results pip packages. Prompt SERPAPI_API_KEY. Next let’s write some Python code, with the task for the LLM to figure out: How many children have a famous dad that performs in the band Metallica. Python from langchain.agents import load_tools for file names, ideally it should work as a separate application with an UI. As a starting point, Python would be a better language for a (web) application than Bash. LLMs can help with translating code0 码力 | 68 页 | 6.50 MB | 6 月前3
 DeepSeek-V2: A Strong, Economical, and Efficient
Mixture-of-Experts Language Modellinear computations across different experts. In addition, MLA is also optimized based on an improved version of FlashAttention-2 (Dao, 2023). We conduct all experiments on a cluster equipped with NVIDIA H800 comprising 1.2M instances for helpfulness and 0.3M instances for safety. In comparison to the initial version, we improve the data quality to mitigate hallucinatory responses and enhance writing proficiency strates substantial improvements in GSM8K, MATH, and HumanEval evaluations compared with its base version. This progress can be attributed to the inclusion of our SFT data, which comprises a considerable0 码力 | 52 页 | 1.23 MB | 1 年前3 DeepSeek-V2: A Strong, Economical, and Efficient
Mixture-of-Experts Language Modellinear computations across different experts. In addition, MLA is also optimized based on an improved version of FlashAttention-2 (Dao, 2023). We conduct all experiments on a cluster equipped with NVIDIA H800 comprising 1.2M instances for helpfulness and 0.3M instances for safety. In comparison to the initial version, we improve the data quality to mitigate hallucinatory responses and enhance writing proficiency strates substantial improvements in GSM8K, MATH, and HumanEval evaluations compared with its base version. This progress can be attributed to the inclusion of our SFT data, which comprises a considerable0 码力 | 52 页 | 1.23 MB | 1 年前3
 OpenAI 《A practical guide to building agents》also implement the same concepts using your preferred library or building directly from scratch. Python 1 2 3 4 5 6 weather_agent = Agent( name= instructions= tools=[get_weather], ) , agents. Well-documented, thoroughly tested, and reusable tools improve discoverability, simplify version management, and prevent redundant definitions. Broadly speaking, agents need three types of tools: here’s how you would equip the agent defined above with a series of tools when using the Agents SDK: Python 1 2 3 4 5 6 7 8 8 10 11 12 from import def agents Agent, WebSearchTool, function_tool0 码力 | 34 页 | 7.00 MB | 6 月前3 OpenAI 《A practical guide to building agents》also implement the same concepts using your preferred library or building directly from scratch. Python 1 2 3 4 5 6 weather_agent = Agent( name= instructions= tools=[get_weather], ) , agents. Well-documented, thoroughly tested, and reusable tools improve discoverability, simplify version management, and prevent redundant definitions. Broadly speaking, agents need three types of tools: here’s how you would equip the agent defined above with a series of tools when using the Agents SDK: Python 1 2 3 4 5 6 7 8 8 10 11 12 from import def agents Agent, WebSearchTool, function_tool0 码力 | 34 页 | 7.00 MB | 6 月前3
 OpenAI - AI in the Enterprisea good fit. The Indeed team tested the previous job matching engine against the GPT-powered version with the new, customized context. The performance uplift was significant: A 20% increase in job developers unify and accelerate their AI application builds. Verdi integrates language models, Python nodes, and APIs to create a scalable, consistent platform that uses natural language as a central0 码力 | 25 页 | 9.48 MB | 5 月前3 OpenAI - AI in the Enterprisea good fit. The Indeed team tested the previous job matching engine against the GPT-powered version with the new, customized context. The performance uplift was significant: A 20% increase in job developers unify and accelerate their AI application builds. Verdi integrates language models, Python nodes, and APIs to create a scalable, consistent platform that uses natural language as a central0 码力 | 25 页 | 9.48 MB | 5 月前3
 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单1、阅读网页源代码,提取特定网页内容; 2、撰写python脚本; 3、提取并合并网址; 4、提取网址内容; 5、写入文件。 任务 你需要完成以下两个任务: 1.阅读网页【网址】源代码【对应网页源代码】。提取所 有包含“春运2025丨X月X日,全社会跨区域人员流动量完 成X万人次”的网址进行去重、筛选,合并成网址列表 2.撰写python脚本,基于步骤1输出的网址列表提取所有网 址内容“截至目前 量、公路人员流动量、水路客运量、民航客运量等)”完 成数据提取并写入文件“2025春运数据.txt” Open AI o3mini 响应速度快,能够高效提 取所有需求链接,输出完 整可运行python脚本,代 码运行后生成文件,但数 据采集结果为空。 DeepSeek R1 能够提取所有网址并进行 筛选、去重,所撰写代码 运行后完成数据爬虫任务, 所获取数据准确,少量数 据有所遗漏。 长文本(15000token):暂时 无法给出答复。 【所需阅读文本】请根据以上文本完成以下三个任务:1、阅读 文本内容;2、整理集成可视化的数据表格;3、按照日期规范排 序(直接分析并输出结果,不使用python) 提示词 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 文本数据集成  一般文本处理任务中,DeepSeek0 码力 | 85 页 | 8.31 MB | 8 月前3 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单1、阅读网页源代码,提取特定网页内容; 2、撰写python脚本; 3、提取并合并网址; 4、提取网址内容; 5、写入文件。 任务 你需要完成以下两个任务: 1.阅读网页【网址】源代码【对应网页源代码】。提取所 有包含“春运2025丨X月X日,全社会跨区域人员流动量完 成X万人次”的网址进行去重、筛选,合并成网址列表 2.撰写python脚本,基于步骤1输出的网址列表提取所有网 址内容“截至目前 量、公路人员流动量、水路客运量、民航客运量等)”完 成数据提取并写入文件“2025春运数据.txt” Open AI o3mini 响应速度快,能够高效提 取所有需求链接,输出完 整可运行python脚本,代 码运行后生成文件,但数 据采集结果为空。 DeepSeek R1 能够提取所有网址并进行 筛选、去重,所撰写代码 运行后完成数据爬虫任务, 所获取数据准确,少量数 据有所遗漏。 长文本(15000token):暂时 无法给出答复。 【所需阅读文本】请根据以上文本完成以下三个任务:1、阅读 文本内容;2、整理集成可视化的数据表格;3、按照日期规范排 序(直接分析并输出结果,不使用python) 提示词 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 文本数据集成  一般文本处理任务中,DeepSeek0 码力 | 85 页 | 8.31 MB | 8 月前3
 开源中国 2023 大模型(LLM)技术报告Tuning) 大模型框架提供基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节 大模型训练平台&工具 提供了在不同硬件和环境中训练大语言模型 所需的基础设施和支持 编程语言 以 Python 为代表 5 / 32 LLM 基础设施:向量数据库/数据库向量支持 向量数据库是专门用于存储和检索向量数据的数据库,它可以为 LLM 提供高效的存储和检索能力。通过数据向量化,实现了 在 在企业环境中处理模型部署和系 统集成方面常见。JavaScript 适用于 Web 环境的 LLM 应用。 13 / 32 LLM 基础设施:编程语言 2023 年是大语言模型 (LLM) 之年,Python 作为人工智能领域使用度最高的编程语言,在 2023 年到底有多火? 从各种开发者报告、编程语言榜单来看。只要出现有关编程语言流行度的排名, ,而 Java、C/C++ 等 同样在 LLM 开发中发挥关键作用的语言紧随其后。 开发中发挥关键作用的语言紧随其后。 14 / 32 LLM 基础设施:编程语言  2023 年 9 月面向大众开放 创业公司 Modular AI 开 发  结合了 Python 的易用性以及 C 语言的  支持与任意 代码  性能是 Python 的 倍 Mojo�与其他语言性能对比 (图源:https://www.modular.com/max/mojo) 15 / 32 大模型应用现状0 码力 | 32 页 | 13.09 MB | 1 年前3 开源中国 2023 大模型(LLM)技术报告Tuning) 大模型框架提供基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节 大模型训练平台&工具 提供了在不同硬件和环境中训练大语言模型 所需的基础设施和支持 编程语言 以 Python 为代表 5 / 32 LLM 基础设施:向量数据库/数据库向量支持 向量数据库是专门用于存储和检索向量数据的数据库,它可以为 LLM 提供高效的存储和检索能力。通过数据向量化,实现了 在 在企业环境中处理模型部署和系 统集成方面常见。JavaScript 适用于 Web 环境的 LLM 应用。 13 / 32 LLM 基础设施:编程语言 2023 年是大语言模型 (LLM) 之年,Python 作为人工智能领域使用度最高的编程语言,在 2023 年到底有多火? 从各种开发者报告、编程语言榜单来看。只要出现有关编程语言流行度的排名, ,而 Java、C/C++ 等 同样在 LLM 开发中发挥关键作用的语言紧随其后。 开发中发挥关键作用的语言紧随其后。 14 / 32 LLM 基础设施:编程语言  2023 年 9 月面向大众开放 创业公司 Modular AI 开 发  结合了 Python 的易用性以及 C 语言的  支持与任意 代码  性能是 Python 的 倍 Mojo�与其他语言性能对比 (图源:https://www.modular.com/max/mojo) 15 / 32 大模型应用现状0 码力 | 32 页 | 13.09 MB | 1 年前3
 普通人学AI指南Figure 14: 第一次提问:你是谁,用中文回答 发第二条消息,”Python 代码,冒泡排序,代码 + 解释”,回答响应非常快, 如图 15所示: Figure 15: 第二次提问:Python 代码,冒泡排序 再告诉它,用中文回答,返回中文回答结果,如图 16 所示: 16 Figure 16: Python 代码,冒泡排序,中文回答 如果想用中文回复,保险的做法,每次问答时,提问最后加一个中文回复这 Figure 38: MaxKB 界面-知识库配置 34 然后点击创建知识库按钮,就会出来下面页面,如图 39所示: Figure 39: MaxKB 界面-知识库配置续 因为平时做一些 Python 副业接单,我们做过的副业需求文档、单子交付文 件都传入到这个知识库里面,因为都是在本地构建,放心使用,如图 40所示: Figure 40: MaxKB 界面-知识库配置续 35 这里的 这里的知识库系统有两种,一种是通用型,也就是自己的文档本地上传,另 一种是 web 站点,用某些网站作为知识库构建的数据来源。在这里根据我的需 求,应该选择通用型。 然后点击进入选择文件夹这里,上传我的 Python 副业代码文件,说明文档, 数据格式可以是 txt、word、pdf、ppt 等,在确定需要上传的文档后,点击图 41中右下角的“创建并导入”按钮。 Figure 41: MaxKB 界面-知识库配置续0 码力 | 42 页 | 8.39 MB | 8 月前3 普通人学AI指南Figure 14: 第一次提问:你是谁,用中文回答 发第二条消息,”Python 代码,冒泡排序,代码 + 解释”,回答响应非常快, 如图 15所示: Figure 15: 第二次提问:Python 代码,冒泡排序 再告诉它,用中文回答,返回中文回答结果,如图 16 所示: 16 Figure 16: Python 代码,冒泡排序,中文回答 如果想用中文回复,保险的做法,每次问答时,提问最后加一个中文回复这 Figure 38: MaxKB 界面-知识库配置 34 然后点击创建知识库按钮,就会出来下面页面,如图 39所示: Figure 39: MaxKB 界面-知识库配置续 因为平时做一些 Python 副业接单,我们做过的副业需求文档、单子交付文 件都传入到这个知识库里面,因为都是在本地构建,放心使用,如图 40所示: Figure 40: MaxKB 界面-知识库配置续 35 这里的 这里的知识库系统有两种,一种是通用型,也就是自己的文档本地上传,另 一种是 web 站点,用某些网站作为知识库构建的数据来源。在这里根据我的需 求,应该选择通用型。 然后点击进入选择文件夹这里,上传我的 Python 副业代码文件,说明文档, 数据格式可以是 txt、word、pdf、ppt 等,在确定需要上传的文档后,点击图 41中右下角的“创建并导入”按钮。 Figure 41: MaxKB 界面-知识库配置续0 码力 | 42 页 | 8.39 MB | 8 月前3
 清华大学 普通人如何抓住DeepSeek红利素数位数关系理论及其思考—— 邵宇捷 各思路具体化及 Python验算 人类提供已有参考案例(拉马努金数、 阿姆斯特朗数等) AI提出可能思路 要求AI迭代调整或人 类介入提供具体设想 AI发现魔法数字的一般过程 思路可用,并非刻 意构造 有刻意构造嫌疑 方案可行 输出结果及理论 体系化 方案不可行 Python验算 无符合数字 有符合数字 如何使用DeepSeek处理生活中的事务 依赖提示语补偿能力短板(如要求分 步思考 、提供示例) 。 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务 、需快速执行 “用Python编写快速排序函 数, 输出需包含注释 。 ” 结果精准高效 限制模型自主优化空 间 需求导向 描述问题背景与目标, 由模型规划解决路径 复杂问题 、需模型自主 推理 通用模型 需明确约束目标,避免自由发挥 “写一个包含‘量子 ’和‘沙漠 ’ 的短篇小说 ,不超过200字 ” 开放式指令(如“ 自由创作 ”) 代码生成 推理模型 简洁需求,信任模型逻辑 “用Python实现快速排序 ” 分步指导(如“先写递归函数 ”) 通用模型 细化步骤, 明确输入输出格式 “先解释快速排序原理,再写出代 码并测试示例 ” 模糊需求(如“写个排序代码 ”) 多轮对话0 码力 | 65 页 | 4.47 MB | 8 月前3 清华大学 普通人如何抓住DeepSeek红利素数位数关系理论及其思考—— 邵宇捷 各思路具体化及 Python验算 人类提供已有参考案例(拉马努金数、 阿姆斯特朗数等) AI提出可能思路 要求AI迭代调整或人 类介入提供具体设想 AI发现魔法数字的一般过程 思路可用,并非刻 意构造 有刻意构造嫌疑 方案可行 输出结果及理论 体系化 方案不可行 Python验算 无符合数字 有符合数字 如何使用DeepSeek处理生活中的事务 依赖提示语补偿能力短板(如要求分 步思考 、提供示例) 。 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务 、需快速执行 “用Python编写快速排序函 数, 输出需包含注释 。 ” 结果精准高效 限制模型自主优化空 间 需求导向 描述问题背景与目标, 由模型规划解决路径 复杂问题 、需模型自主 推理 通用模型 需明确约束目标,避免自由发挥 “写一个包含‘量子 ’和‘沙漠 ’ 的短篇小说 ,不超过200字 ” 开放式指令(如“ 自由创作 ”) 代码生成 推理模型 简洁需求,信任模型逻辑 “用Python实现快速排序 ” 分步指导(如“先写递归函数 ”) 通用模型 细化步骤, 明确输入输出格式 “先解释快速排序原理,再写出代 码并测试示例 ” 模糊需求(如“写个排序代码 ”) 多轮对话0 码力 | 65 页 | 4.47 MB | 8 月前3
 亿联TVM部署32bit tensorflow , a workround from FrozenGene a. python/tvm/contrib/ndk.py options = options if options else [ “-shared”, “-fPIC”, “-m32”] b. python tensorflow_blur.py to get the .log c. Use the .log log, with target=“llvm –mcpu=i686 –mtriple=i686-linux-gnu” then TVM_NDK_CC=“clang –m32” python tf_blur.py�����������������������������������- DWORD WINAPI TestThreadProc(LPVOID lpParameter) { THREAD_DATA0 码力 | 6 页 | 1.96 MB | 5 月前3 亿联TVM部署32bit tensorflow , a workround from FrozenGene a. python/tvm/contrib/ndk.py options = options if options else [ “-shared”, “-fPIC”, “-m32”] b. python tensorflow_blur.py to get the .log c. Use the .log log, with target=“llvm –mcpu=i686 –mtriple=i686-linux-gnu” then TVM_NDK_CC=“clang –m32” python tf_blur.py�����������������������������������- DWORD WINAPI TestThreadProc(LPVOID lpParameter) { THREAD_DATA0 码力 | 6 页 | 1.96 MB | 5 月前3
 Bring Your Own Codegen to TVMOption 1: Operator-Level Annotation ● Implement a Python template to indicate if an op can be supported by your codegen ● Template path: python/tvm/relay/op/contrib/ Bring Your Own Codegen to TVMOption 1: Operator-Level Annotation ● Implement a Python template to indicate if an op can be supported by your codegen ● Template path: python/tvm/relay/op/contrib/- /extern_op.py 2: Graph-Level Annotation ● Implement a Relay IR visitor to annotate a subgraph ● Module path: python/tvm/relay/op/contrib/ - /graph_annotator.py ● Apply the annotator to a workload: 0 码力 | 19 页 | 504.69 KB | 5 月前3
共 18 条
- 1
- 2













