Gitea v1.21.1 中文文档文档内容由网友们编写和整理,书栈网难以确认文档内容知识点是否错漏。如果您在阅读文档获取知识的时候, 发现文档内容有不恰当的地方,请向我们反馈,让我们共同携手,将知识准确、高效且有效地传递给每一个人。 同时,如果您在日常工作、生活和学习中遇到有价值有营养的知识文档,欢迎分享到书栈网,为知识的传承献上 您的一份力量! 如果当前文档生成时间太久,请到书栈网获取最新的文档,以跟上知识更新换代的步伐。 内容来源:Gitea https://about /usr/share/zsh/_gitea ,或在您的 .zshrc 中引用。 具体情况可能会有所不同,这些脚本可能需要进一步的改进。 完成以上步骤后,可以通过两种方式运行 Gitea: 学习创建 Linux 服务 1. GITEA_WORK_DIR=/var/lib/gitea/ /usr/local/bin/gitea web -c /etc/gitea/app.ini 您可以通过停止程序,替换 Ingress、MySQL、MariaDB、持久存储等),请前往阅读:Gitea Helm Chart 您也可以通过 helm show 命令导出 README.md 和配置文件 values.yaml 进行学习和编辑,例如: 1. helm show values gitea/gitea > values.yaml 2. helm show readme gitea/gitea > README.md0 码力 | 303 页 | 3.88 MB | 1 年前3
2021 中国开源年度报告杨丽蕴:我国开源人才后备力量足、基数大。 我国高校越来越重视开源人才的培养 , 越来越多的学生参与到开 源开发中,开源人才培养周期前置,越来越多的学校开设开源课程,希望后续可以实现在学习计算机、编译原 理、软件工程等理论知识的同时,让学生学习掌握开源开发模式、理解认同开源文化。 参与者职位分布 产品经理,9,2% CTO/CEO 公司负责人,26,5% CTO/CEO 公司负责人 产品经理 教师 开发者 39% 和 25%。 专家点评 段夕华: 科技型初创公司用开源来实现技术能力展现,吸引潜在合作伙伴,这个趋势不容忽视。这其中国内 最为抢眼的就是 PingCAP/TiDB,其开源策略、战术均值得大家学习借鉴。 堵俊平:这两年,一个很明显的趋势是越来越多的初创企业参与开源。这一方面得益于 ToB 赛道成为市场和 政策导向的热点,另一方面开源所代表的开放式创新也被投资界所认可。尤其是开源与数据(数据库 在社区的交流方式中,Github Issue、微信和邮件列表目前最为普遍。 专家点评 堵俊平:在欧美,邮件列表和 Issue 是开源开发者交流的主要方式,这样既可以公开、透明,又可以把讨论的 过程沉淀下来,降低后加入者的学习成本。国内开发者当前习惯在微信群中讨论问题,但受限于微信群的规模 以及非公开的讨论问题的方式,需要聊天机器人等辅助工具才能达成开源社区的沟通需要。 34 4.7 开源社区中重要的角色 受访者0 码力 | 132 页 | 14.24 MB | 1 年前3
2021 中国开源年度报告杨丽蕴:我国开源人才后备力量足、基数大。 我国高校越来越重视开源人才的培养,越来 越多的学生参与到开源开发中,开源人才培养周期前置,越来越多的学校开设开源课程, 希望后续可以实现在学习计算机、编译原理、软件工程等理论知识的同时,让学生学习掌 握开源开发模式、理解认同开源文化。 Yang Liyun: China's open source talent reserve is sufficient; the [Expert Comment] 段夕华: 科技型初创公司用开源来实现技术能力展现,吸引潜在合作伙伴,这个趋势不 容忽视。这其中国内最为抢眼的就是 PingCAP/TiDB,其开源策略、战术均值得大家学习 借鉴。 Duan Xihua: Technology startups use open source to show their technical capabilities and 【专家点评】/ [Expert Comment] 堵俊平:在欧美,邮件列表和 Issue 是开源开发者交流的主要方式,这样既可以公开、 透明,又可以把讨论的过程沉淀下来,降低后加入者的学习成本。国内开发者当前习惯在 微信群中讨论问题,但受限于微信群的规模以及非公开的讨论问题的方式,需要聊天机器 人等辅助工具才能达成开源社区的沟通需要。 Du Junping: In Europe0 码力 | 199 页 | 9.63 MB | 1 年前3
00 Deepseek官方提示词号运载火箭最短发射间隔纪录。 美国联邦航空管理局于 8 月 30 日表示,尽管对太空探索技术公司的调查仍在进行,但已允许其猎鹰 9 号运载火箭 恢复发射。目前,双方并未透露 8 月 28 日助推器着陆失败事故的详细信息。尽管发射已恢复,但原计划进行五天 “ ” 太空活动的 北极星黎明 (Polaris Dawn)任务却被推迟。美国太空探索技术公司为该任务正在积极筹备,等 待美国联邦航空管理局的最终批准后尽快进行发射。 - 输入 :一段新闻文本。 - 输出 :只输出新闻文本所属的种类,不需要额外解释。 USER 美国太空探索技术公司(SpaceX)的猎鹰 9 号运载火箭(Falcon 9)在经历美国联邦航空管理局(Federal Aviation Administration,FAA)短暂叫停发射后,于当地时间 8 月 31 日凌晨重启了发射任务。 11. 宣传标语生成:让模型生成贴合商品信息的宣传标语。0 码力 | 4 页 | 7.93 KB | 8 月前3
DeepSeek图解10页PDF. . . . . . . . . . . . . . . . 7 2.3.2 监督微调(Supervised Fine-Tuning, SFT) . . . . . . 7 2.3.3 强化学习(Reinforcement Learning, RL) . . . . . . . 7 3 DeepSeek-R1 精华图解 . . . . . . . . . . . . . . . . . R1-Zero 的中间推理模型 . . . . . . . 8 3.1.2 核心创新 2:通用强化学习 . . . . . . . . . . . . . . . 8 3.2 含 R1-Zero 的中间推理模型训练过程 . . . . . . . . . . . . . . 9 3.3 通用强化学习训练过程 . . . . . . . . . . . . . . . . . . . . . . 10 Ollama 软件启动 deepseek-r1 界面 1.3 DeepSeek 本地运行使用演示 基于上面步骤搭建完成后,接下来提问 DeepSeek 一个问题:请帮我分析 Python 编程如何从零开始学习?,下面是它的回答,首先会有一个 think 标签,这里面嵌入的是它的思考过程,不是正式的回复: 图 5: deepseek-r1 回复之思考部分 等我们看到另一个结束标签 think 后,表明它的思考已经结束,下面一行0 码力 | 11 页 | 2.64 MB | 8 月前3
Moonshot AI 介绍ormer-XL和XLNet两篇重要 论⽂的第⼀作者;两位联合创始⼈周昕宇和吴育昕都有10000+的GoogleScholar引⽤。 b. 团队成员囊括NLP,CV,RL(强化学习),Infra⽅⾯新⽣代⼈才,主导了很多有世界影响⼒的⼯ 作,吸引了来⾃Google、Meta、Amazon等全球领先科技公司的海外⼈才加⼊: i. ⼤模型⽅⾯。团队成员发明了RoPE相对位 本性能逼近全监督学习的⾼效对⻬⽅法。 ii. 视觉⽅⾯。团队成员发明了MoCo,引爆了基于对⽐学习的视觉预训练范式,也是过去三年 CVPR引⽤量最⾼的⼯作;发明了ShuffleNet,最⾼效的视觉⽹络结构之⼀;主导开发了 detectron2,⼀个被⼴泛使⽤的视觉开源项⽬并被集成到Meta全线VR/AR产品中。 iii. 强化学习⽅⾯。团队成员作为⼀作提出了基于关系学习的少样本⽅法,得到斯坦福⼤学、 Google、MIT、Amazon等团队的使⽤和扩展,并获得过OpenAIRL联创及负责⼈John Schulman亲⾃邀请加盟。 iv. 基础设施⽅⾯。团队核⼼成员曾带领数⼗⼈从零开发世界领先的深度学习框架,也具备数千 卡集群全⾃动化硬件运维告警、数百亿特征检索、⼤规模(数⼗PB数据、百万台机器)分 布式系统数量级性能优化的经验。 c. ⽬前团队⼈数超过80⼈,每个⽉都有在全球某个领域有显著影响⼒的⼈加⼊。0 码力 | 74 页 | 1.64 MB | 1 年前3
2024 中国开源开发者报告Insight 2024 中国开源开发者报告重点聚焦大模型,本章节以大模 型 LLM 开发技术栈作为切入点,将深入探讨以下中国 AI 大模型领域的代表性开源项目社区。 这些开源项目社区覆盖了深度学习框架、向量数据库、AI辅 助编程、LLM 应用开发框架、模型微调、推理优化、LLM Agent,以及检索增强生成(RAG)等多个关键技术栈。 为了更全面客观地展示中国大模型 LLM 开发技术栈的开源 通个人用户。OpenAI 在 ChatGPT 上一个重要且成功的操作就是把大模型从学术界、工业界直接推向了普通个体,让 C 端用户切 实感受到了大模型的可能性与魅力。这一点被国内的大模型厂商广泛学习。在 B 站刷视频,国 内知名的那几个大模型厂商的广告,你一个也不会落下。 受到大家的认可与喜爱固然重要,但对于 C 端用户,有两个需要时刻牢记的问题:一是 C 端用户是没有忠诚度的,谁免费就 是目前已知最好的智能体底层技术。 智能体作为学术术语由来已久,从上世纪的“符号、专家系统”【1】,到十年前风头无两的 强化学习(代表作 AlphaGo【3】),再到现在的 LLM,agent 底层技术经历了三个大的阶段。 符号系统的缺点在于过于依赖人工定义的“符号”和“逻辑”,强化学习苦于训练数据的匮 乏和“模态墙”,而 LLM 一次性解决这些问题。 人类语言就是一种高度抽象、跨模态、表达力充分的符号系统,同时它作为知识的载体,自0 码力 | 111 页 | 11.44 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单推理能力:核心突破,专项升级 推理能力 • 强化学习驱动:DeepSeek R1-Zero 是首个完全基于强化学习(RL) 训练的推理模型,无需任何监督微调(SFT)步骤,打破传统模型依 赖大量标注数据的惯例。DeepSeek-R1 采用强化学习作为核心训练 方法,显著提升了模型的推理能力和语言表达的可读性。 • 推理能力专项提升:在除了利用强化学习模型结合跨领域训练提升模 型综合技能以外, 展 示 推 理 路 径 自 我 修 正 DeepSeek R1 的核心突破在于其通过强化学习驱动的推理能力。该 模型在训练过程中,通过强化学习技术,显著提升模型的推理能力, 使其在数学、编程和自然语言推理等任务上表现出色。 传统依赖: 大规模监督微调(SFT) 创新思路: 强化学习(RL)驱动 推理效率 • 长思维链支持:DeepSeek R1 支持长链推理,能够生成数万字的 点,解决强化学习训练初期的不稳定问题,规范模型的输出格 式和推理链条,使其更符合人类可读性。 • 数据来源与特点:这些数据部分来源于清理后的R1-Zero 输出, 还包括人工后处理的长思维链(CoT)数据。其数量相对较少 但质量高,经过精心设计,具有良好的可读性和结构化特点。 • 对模型训练的影响:冷启动数据为模型训练奠定了坚实的基础, 使模型在后续的强化学习阶段能够更稳定地学习和优化。它解0 码力 | 85 页 | 8.31 MB | 8 月前3
2023 中国开源开发者报告发展的新阶段。LLM Agent 是一种基于 LLM 的智能代 理,它能够自主学习和执行任务,具有一定的“认知能力 和决策能力”。LLM Agent 的出现,标志着 LLM 从传 统的模型训练和应用模式,转向以 Agent 为中心的智能 化模式。LLM Agent 打破了传统 LLM 的被动性,使 LLM 能够主动学习和执行任务,从而提高了 LLM 的应用 范围和价值;它为 LLM 的智能化发展提供了新的方向, 快速迭代发展,诸如 Dify.AI 的 LLMOps、Milvus 的向量 数据库、CodeGeeX 与 Comate 的 AI 编程、对 LLM Prompt 的研究、OneFlow 的深度学习框架。 值得一提的还有华为的盘古大模型,其中盘古气象大模型是 首个精度超过传统数值预报方法的 AI 模型,速度相比传统 数值预报提速 10000 倍以上,能够提供全球气象秒级预 报。盘古大模 GPT-2和GPT-3模型开发的前研究人员组建, 专注于开发通用 AI 系统和语言模型,并秉持负责任的 AI 使用理念。 李彦宏称:“无论是哪家公司,都不可能靠突击几个月就能做出这样的大语 言模型。深度学习、自然语言处理,需要多年的坚持和积累,没法速成。” 长度是 Llama 1 的 2 倍,并采用了分组查询注意力机制。具体来说,Llama 2 预训练模型是在 2 万亿的 token 上训练的,微调0 码力 | 87 页 | 31.99 MB | 1 年前3
开源中国 2023 大模型(LLM)技术报告LLM 技术报告 大语言模型(LLM) 技术作为人工智能领域的一项重要创 新在今年引起了广泛的关注。 LLM 是利用深度学习和大数据训练的人工智能系统,专门 设计来理解、生成和回应自然语言。这些模型通过分析大量 的文本数据来学习语言的结构和用法,从而能够执行各种语 言相关任务。以 GPT 系列为代表,LLM 以其在自然语言 处理领域的卓越表现,成为推动语言理解、生成和应用的引 擎。 LLM tructure- vector-database/) 7 / 32 LLM 基础设施:大模型框架及微调 (Fine Tuning) 大模型框架指专门设计用于构建、训练和部署大型机器 学习模型和深度学习模型的软件框架。这些框架提供了 必要的工具和库,使开发者能够更容易地处理大量的数 据、管理巨大的网络参数量,并有效地利用硬件资源。 微调(Fine Tuning)是在大模型框架基础上进行的一个 :为了处理大型数据集和大规模参 数网络,这些框架通常设计得易于水平扩展, 支持在多个处理器或多个服务器上并行处理。 :它们提供工具来有效地加 载、处理和迭代大型数据集,这对于训练大 型模型尤为重要。 国产深度学习框架 OneFlow 架构 (图源:https://www.oneflow.org/a/chanpin/oneflow/) 9 / 32 LLM 基础设施:大模型框架及微调 (Fine Tuning)0 码力 | 32 页 | 13.09 MB | 1 年前3
共 149 条
- 1
- 2
- 3
- 4
- 5
- 6
- 15













