清华大学 普通人如何抓住DeepSeek红利(Pass@1) 国产 十 免费 十 开源 十 强大 Accuracy/Percent le (%) AI https://chat.deepseek.com Z u N e P 6 7 K w S v L C q Y 4 Y V 1 T 8 0 u m B k 是引入偏误信息后的意见动态变化。使用大模型模 拟多个虚拟代理,讨论“气候变暖”、“转基因食 品的安全性”和“疫苗的有效性和安全性”三个具 有科学共识的话题。 实验一在无偏误信息条件下,代理通过社交网络进 行每日对话,记录最终信念状态和信息传播路径。 实验二改变初始信念分布,探讨初始条件对结果的 影响。实验三引入10%代理发布的偏误信息,观察 其对信念动态的影响。50个代理人在30天内共生成 194699条对话。 194699条对话。 50个智能体的在线社区模拟仿真 场景3:多智能体在线社区模拟 p 为了观测偏误信息加入后50个代理意 见动态的具体呈现,研究通过依存关系 构造三个科学共识的语义图谱,并和无 偏误状态进行对比。对每个科学共识议 题,选择图中最有代表性的40个实体 (基于节点的度)。 p 在自然语言处理中,依存关系是用于描 述句子中词与词之间的关系,帮助揭示 句子的句法结构。包括nsubj(名词性0 码力 | 65 页 | 4.47 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单,实现 从提纲到段落再到文章的迭代式生成,为用户生成内容大纲及高质量长文本。 产品 概况 功能亮点 功能亮点 资料整合与文章生成:能够浏览网络,搜集大量文献, 并通过基于主题的多个智能代理,将这些文献转化为连 贯的文章或研究论文,长度可达数万字。 模拟对话与问题生成:模拟文章写作前的调研过程,通 过发掘话题研究中的多样视角,模拟具有不同视角的作 者向话题专家提出问题的对话,并基于这些对话整理收 I学术 研究。 用户体验对比:使用步骤 PubScholar平台官网:https://pubscholar.cn/ 输入关键词:进入官网后,在搜索框键入关键词进行文献检索。 选取文章:勾选想要分析的20篇文献。 综述生成:点击生成综述,等待2-3分钟即可下载综述报告。 元知AI综述工具官网:https://yuanzhi.zeelin.cn/#/ 选择版本:根据需求选择工 知网研学平台官网:https://aiplus.cnki.net/sumup/sumup 输入关键词:进入官网后,在搜索框键入关键词进行文献检索。 选取文章:勾选想要分析的20篇文献。 综述生成:点击生成综述,等待2-3分钟即可下载综述报告。 PubScholar平台 元知AI综述工具 知网研学平台 斯坦福STORM 斯坦福STORM官网:https://storm.genie0 码力 | 85 页 | 8.31 MB | 8 月前3
开源中国 2023 大模型(LLM)技术报告的提出标志着 LLM 技术的飞速发展,其预训练和微调的 方法为语言任务提供了前所未有的性能,以此为基础,多模态融合的应用使得 LLM 更全面地处理各种 信息,支持更广泛的应用领域。 图源:https://postgresml.org/docs/.gitbook/assets/ml_system.svg 4 / 32 LLM 基础设施 01 03 02 04 向量数据库/数据库向量支持 据西南证券研究发展中心预测,2025 年向量数据库渗透率约 为 30%,则全球向量数据库市场规模约为 99.5 亿美元, 。 2023 年前四个月,向量数据库公司融资额 ,超过了 2022 年的总和 (图源:https://www.cbinsights.com/research/generative-ai-infrastructure- vector-database/) 7 / 32 LLM 基础设施:大模型框架及微调 数网络,这些框架通常设计得易于水平扩展, 支持在多个处理器或多个服务器上并行处理。 :它们提供工具来有效地加 载、处理和迭代大型数据集,这对于训练大 型模型尤为重要。 国产深度学习框架 OneFlow 架构 (图源:https://www.oneflow.org/a/chanpin/oneflow/) 9 / 32 LLM 基础设施:大模型框架及微调 (Fine Tuning) 想要微调一个模型,一般包含以下关键步骤:0 码力 | 32 页 | 13.09 MB | 1 年前3
Deepseek R1 本地部署完全手册token/秒(混合推理) 3. 部署步骤(Linux示例) 1. 安装依赖⼯具: # 安装llama.cpp(⽤于合并分⽚⽂件) /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" brew install llama.cpp 2. 下载并合并模型分⽚: llama-gguf-split --merge DeepSeek-R1-UD-IQ1_M-00001-of-00004.gguf DeepSeek-R1-UD-IQ1_S.gguf curl -fsSL https://ollama.com/install.sh | sh FROM /path/to/DeepSeek-R1-UD-IQ1_M.gguf PARAMETER num_gpu 28 # 每块RTX 接⼊细节请阅读详细⽂档硅基流动社 区。 全球企业个⼈渠道附表 1. 秘塔搜索:https://metaso.cn 2. 360纳⽶AI搜索:https://www.n.cn/ 3. 硅基流动:https://cloud.siliconflow.cn/i/OBklluwO 4. 字节跳动⽕⼭引擎:https://console.volcengine.com/ark/region:ark+c0 码力 | 7 页 | 932.77 KB | 8 月前3
DeepSeek-V2: A Strong, Economical, and Efficient
Mixture-of-Experts Language Modelversatility and utility in a wider range of scenarios. References AI@Meta. Llama 3 model card, 2024. URL https://github.com/meta-llama/llama3/bl ob/main/MODEL_CARD.md. J. Ainslie, J. Lee-Thorp, M. de Jong, Y checkpoints. arXiv preprint arXiv:2305.13245, 2023. 21 Anthropic. Introducing Claude, 2023. URL https://www.anthropic.com/index/introd ucing-claude. J. Austin, A. Odena, M. Nye, M. Bosma, H. Michalewski USA, February 7-12, 2020, pages 7432–7439. AAAI Press, 2020. doi: 10.1609/aaai.v34i05.6239. URL https://doi.org/10.1609/aaai.v34i05.6239. M. Chen, J. Tworek, H. Jun, Q. Yuan, H. P. de Oliveira Pinto0 码力 | 52 页 | 1.23 MB | 1 年前3
Google 《Prompt Engineering v7》Prompt Engineering February 2025 38 To run this sample you must create a (free) SerpAPI key from https://serpapi.com/manage- api-key and set an environment variable SERPAPI_API_KEY. Next let’s write some Google, 2023, Gemini by Google. Available at: https://gemini.google.com. 2. Google, 2024, Gemini for Google Workspace Prompt Guide. Available at: https://inthecloud.withgoogle.com/gemini-for-google- space-prompt-guide/dl-cd.html. 3. Google Cloud, 2023, Introduction to Prompting. Available at: https://cloud.google.com/vertex-ai/generative-ai/docs/learn/prompts/introduction-prompt-design. 4. Google0 码力 | 68 页 | 6.50 MB | 6 月前3
清华大学第二弹:DeepSeek赋能职场备注 英伟达NIM微服务 https://build.nvidia.com/d eepseek-ai/deepseek-r1 671B(全量模型) 网页版直接使用,支持API调用,注册送1000点数,免费体验。 微软Azure https://ai.azure.com 671B(全量模型) 需注册微软账户并创建订阅,免费部署,支持参数调节。 亚马逊AWS https://aws.amazon models-now-available-on- aws 671B(全量模型) 需注册AWS账户,填写付款方式,免费部署。 Cerebras https://cerebras.ai 70B 邮箱注册,速度快,宣称比GPU方案快57倍。 Groq https://groq.com/groqclou d-makes-deepseek-r1- distill-llama-70b-available 70B0 码力 | 35 页 | 9.78 MB | 8 月前3
XDNN TVM - Nov 2019Optimization Framework Tensor Graph to Xilinx Tensor Graph Frontend Deep Learning Frameworks https://github.com/xilinx© Copyright 2018 Xilinx TVM as Unified ML Front End >> 6 Relay (and NNVM) Xilinx Performance Pipelines ˃ References to our latest results: https://github.com/Xilinx/AI-Model-Zoo (embedded i.e. ZC104/Ultra96) https://github.com/Xilinx/ml-suite/blob/master/examples/caffe/Benchmark_README by slowest one ˃ Performance results based on Xilinx own runtime pipeline available in github (https://github.com/Xilinx/ml-suite/blob/master/examples/deployment_modes/mp_classify.py) Streamlined multi-process0 码力 | 16 页 | 3.35 MB | 5 月前3
Deploy VTA on Intel FPGALinux Kernel DEPLOY VTA ON INTEL FPGA https://pynq.readthedocs.io/en/v2.0/pynq_package/pynq.xlnk.html Configure Linux kernel Download Linux kernel from https://github.com/altera-opensource/linux-s Edition Step 2: Download SDCard Image from Terasic (Require Registration) Step 3: Get files from https://github.com/liangfu/de10-nano-supplement Step 4: Extract the files Step 4.1: Replace the zImage0 码力 | 12 页 | 1.35 MB | 5 月前3
Gluon DeploymentWeb Services, Inc. or its Affiliates. All rights reserved. Amazon Trademark Deploy GluonCV Models https://arxiv.org/pdf/1907.02154.pdf© 2019, Amazon Web Services, Inc. or its Affiliates. All rights reserved or its Affiliates. All rights reserved. Amazon Trademark Like GluonCV? Go build! https://gluon-cv.mxnet.io https://github.com/dmlc/gluon-cv© 2019, Amazon Web Services, Inc. or its Affiliates. All rights0 码力 | 8 页 | 16.18 MB | 5 月前3
共 22 条
- 1
- 2
- 3













