清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单1、阅读网页源代码,提取特定网页内容; 2、撰写python脚本; 3、提取并合并网址; 4、提取网址内容; 5、写入文件。 任务 你需要完成以下两个任务: 1.阅读网页【网址】源代码【对应网页源代码】。提取所 有包含“春运2025丨X月X日,全社会跨区域人员流动量完 成X万人次”的网址进行去重、筛选,合并成网址列表 2.撰写python脚本,基于步骤1输出的网址列表提取所有网 址内容“截至目前 量、公路人员流动量、水路客运量、民航客运量等)”完 成数据提取并写入文件“2025春运数据.txt” Open AI o3mini 响应速度快,能够高效提 取所有需求链接,输出完 整可运行python脚本,代 码运行后生成文件,但数 据采集结果为空。 DeepSeek R1 能够提取所有网址并进行 筛选、去重,所撰写代码 运行后完成数据爬虫任务, 所获取数据准确,少量数 据有所遗漏。 长文本(15000token):暂时 无法给出答复。 【所需阅读文本】请根据以上文本完成以下三个任务:1、阅读 文本内容;2、整理集成可视化的数据表格;3、按照日期规范排 序(直接分析并输出结果,不使用python) 提示词 测试结果受到数据样本、测试环境、AI抽卡、提示词模板等因素影响,仅供参考,无法作为决策制定、质量评估或产品验证的最终依据。 文本数据集成 一般文本处理任务中,DeepSeek0 码力 | 85 页 | 8.31 MB | 8 月前3
普通人学AI指南2:安装 Llama 下载 Llama3,打开新的终端/命令行窗口,执行以下命令: ollama run llama3 程序会自动下载 Llama3 的模型文件,默认是 8B,也就 80 亿参数版本,个 人电脑完全可以运行。等待安装完成,如图 12 所示。 14 Figure 12: Ollama 里下载 Llama3 界面 以上就已经安装完毕,到现在大模型已经在本地部署完成。 3.1 Figure 14: 第一次提问:你是谁,用中文回答 发第二条消息,”Python 代码,冒泡排序,代码 + 解释”,回答响应非常快, 如图 15所示: Figure 15: 第二次提问:Python 代码,冒泡排序 再告诉它,用中文回答,返回中文回答结果,如图 16 所示: 16 Figure 16: Python 代码,冒泡排序,中文回答 如果想用中文回复,保险的做法,每次问答时,提问最后加一个中文回复这 镜像的名称,其中 lobehub 是镜像 仓库的名称,lobe-chat 是具体的镜像名称。latest:表示拉取该镜像的最新版本 (tag)。如果没有指定版本标签,Docker 默认会拉取 latest 标签的版本。执行这 条命令后,Docker 会将 lobehub/lobe-chat 镜像的最新版本下载到你的本地系 统,以便你可以使用它创建和运行 Docker 容器。 然后再运行一条命令就可以了: docker0 码力 | 42 页 | 8.39 MB | 8 月前3
DeepSeek从入门到精通(20250204)分 析 与 修 复 建议 • 代 码 性 能 优 化 提 示 技术文档处理 • API文档生成 • 代码库解释与示 例生成 代码生成 • 根 据 需 求 生 成 代 码片段(Python、 JavaScript) • 自 动 补 全 与 注 释 生成 常规绘图 如何使用DeepSeek? https://chat.deepseek.com 如何从入门到精通? 当 题,需分步验证结果)。 从“下达指令”到“表达需求” 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务、需快速执行 “用Python编写快速排序函 数,输出需包含注释。” ✅ 结果精准高效 ❌ 限制模型自主优化空 间 需求导向 描述问题背景与目标, 由模型规划解决路径 复杂问题、需模型自主 推理 “我需要优化用户登录流程, 过度约束逻辑(如“按时间顺序列出”) 通用模型 需明确约束目标,避免自由发挥 “写一个包含‘量子’和‘沙漠’ 的短篇小说,不超过200字” 开放式指令(如“自由创作”) 代码生成 推理模型 简洁需求,信任模型逻辑 “用Python实现快速排序” 分步指导(如“先写递归函数”) 通用模型 细化步骤,明确输入输出格式 “先解释快速排序原理,再写出代 码并测试示例” 模糊需求(如“写个排序代码”) 多轮对话 通用模型0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通分 析 与 修 复 建议 • 代 码 性 能 优 化 提 示 技术文档处理 • API文档生成 • 代码库解释与示 例生成 代码生成 • 根 据 需 求 生 成 代 码片段(Python、 JavaScript) • 自 动 补 全 与 注 释 生成 常规绘图 如何使用DeepSeek? 网页端:https://chat.deepseek.com APP:DeepSeek 题,需分步验证结果)。 从“下达指令”到“表达需求” 策略类型 定义与目标 适用场景 示例(推理模型适用) 优势与风险 指令驱动 直接给出明确步骤或 格式要求 简单任务、需快速执行 “用Python编写快速排序函 数,输出需包含注释。” ✅ 结果精准高效 ❌ 限制模型自主优化空 间 需求导向 描述问题背景与目标, 由模型规划解决路径 复杂问题、需模型自主 推理 “我需要优化用户登录流程, 过度约束逻辑(如“按时间顺序列出”) 通用模型 需明确约束目标,避免自由发挥 “写一个包含‘量子’和‘沙漠’ 的短篇小说,不超过200字” 开放式指令(如“自由创作”) 代码生成 推理模型 简洁需求,信任模型逻辑 “用Python实现快速排序” 分步指导(如“先写递归函数”) 通用模型 细化步骤,明确输入输出格式 “先解释快速排序原理,再写出代 码并测试示例” 模糊需求(如“写个排序代码”) 多轮对话 通用模型0 码力 | 103 页 | 5.40 MB | 8 月前3
DeepSeek图解10页PDF下图4所示: 图 4: Ollama 软件启动 deepseek-r1 界面 1.3 DeepSeek 本地运行使用演示 基于上面步骤搭建完成后,接下来提问 DeepSeek 一个问题:请帮我分析 Python 编程如何从零开始学习?,下面是它的回答,首先会有一个 think 标签,这里面嵌入的是它的思考过程,不是正式的回复: 图 5: deepseek-r1 回复之思考部分 等我们看到另一个结束标签 模型。其训练方式结合了强化学习(RL)与监督微调(SFT),创造 了一种高效训练,高推理能力 AI 模型的方法。 整个训练过程分为核心两阶段,第一步训练基于 DeepSeek-V3 论文中的基 础模型(而非最终版本),并经历了 SFT 和基于纯强化学习调优 + 通用性 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 料用心打磨且开源,是为了帮助更多人了解获取0 码力 | 11 页 | 2.64 MB | 8 月前3
人工智能安全治理框架 1.0检测,设计有效、可靠的对齐算法,确保价值观风险、伦理风险等可控。 (e)研发者应结合目标市场适用法律要求和风险管理要求,评估人工智 能产品和服务能力成熟度。 (f)研发者应做好人工智能产品及所用数据集的版本管理,商用版本应 可以回退到以前的商用版本。 (g)研发者应定期开展安全评估测试,测试前明确测试目标、范围和安 全维度,构建多样化的测试数据集,涵盖各种应用场景。 (h)研发者应制定明确的测试规则和方法,包括人工测试、自动测试、0 码力 | 20 页 | 3.79 MB | 1 月前3
Deepseek R1 本地部署完全手册《Deepseek R1 本地部署完全⼿册》 版权归:HomeBrew Ai Club 作者wechat:samirtan 版本:V2.0 更新⽇期:2025年2⽉8⽇ ⼀、简介 Deepseek R1 是⽀持复杂推理、多模态处理、技术⽂档⽣成的⾼性能通⽤⼤语⾔模型。本⼿册 为技术团队提供完整的本地部署指南,涵盖硬件配置、国产芯⽚适配、量化⽅案、云端替代⽅ 国际接⼊渠道(需魔法或外企上⽹环境 ) 英伟达NIM:企业级GPU集群部署(链接) Groq:超低延迟推理(链接) 五、完整671B MoE模型部署(Ollama+Unsloth) 1. 量化⽅案与模型选择 量化版本 ⽂件体 积 最低内存+显存需 求 适⽤场景 DeepSeek-R1-UD- IQ1_M 158 GB ≥200 GB 消费级硬件(如Mac Studio) DeepSeek-R1-Q4_K_M0 码力 | 7 页 | 932.77 KB | 8 月前3
清华大学第二弹:DeepSeek赋能职场2021年全国知识图谱与语义计算大会-医疗科普知识答非所问识别 第一名 互联网虛假新闻检测2019全球挑战赛-虛假新闻多模态检测 第一名 中国法研杯CAIL2020司法人工智能赛 第一名 DeepSeek的三种模式 平台 地址 版本 备注 英伟达NIM微服务 https://build.nvidia.com/d eepseek-ai/deepseek-r1 671B(全量模型) 网页版直接使用,支持API调用,注册送1000点数,免费体验。0 码力 | 35 页 | 9.78 MB | 8 月前3
Google 《Prompt Engineering v7》in action, you need to write some code. In code Snippet 1 I am using the langchain framework for Python, together with VertexAI (google-cloud-aiplatform) and the google-search-results pip packages. Prompt SERPAPI_API_KEY. Next let’s write some Python code, with the task for the LLM to figure out: How many children have a famous dad that performs in the band Metallica. Python from langchain.agents import load_tools for file names, ideally it should work as a separate application with an UI. As a starting point, Python would be a better language for a (web) application than Bash. LLMs can help with translating code0 码力 | 68 页 | 6.50 MB | 6 月前3
DeepSeek-V2: A Strong, Economical, and Efficient
Mixture-of-Experts Language ModelProblem: Evaluate $\log_21$. Solution: Table 27 | An example of MATH. 45 PROMPT You are an expert Python programmer, and here is your task: Write a function to find the similar elements from the given two tuple(set(test_tup1) & set(test_tup2)) return (res) [DONE] You are an expert Python programmer, and here is your task: Write a python function to identify non-prime numbers. Your code should pass these tests: range(2,int(math.sqrt(n)) + 1): if n % i == 0: result = True return result [DONE] You are an expert Python programmer, and here is your task: Write a function to find the largest integers from a given list0 码力 | 52 页 | 1.23 MB | 1 年前3
共 19 条
- 1
- 2













