• pdf 文档 Trends Artificial Intelligence 推荐

    0 码力 | 340 页 | 12.14 MB | 4 月前
    3
    文档系统阐述了人工智能(AI)的发展趋势,涵盖了技术进步、应用扩展、投资增长和全球竞争加剧等方面。文中强调了AI的潜在益处,如提高生产效率、促进科学研究和解决全球性问题,同时也探讨了其可能带来的风险,包括就业影响、安全问题和伦理挑战。此外,文档展示了AI性能的显著提升,尤其是在大型语言模型(LLMs)和图像生成领域,例如OpenAI的ChatGPT和StyleGAN2的应用。
  • pdf 文档 OpenAI - AI in the Enterprise 推荐

    0 码力 | 25 页 | 9.48 MB | 5 月前
    3
    文档阐述了OpenAI在企业环境中的应用,展示了AI技术在提升工作效率、自动化操作和增强产品体验方面的潜力。成功部署AI的关键在于开放实验心态、严格评估和安全保障。通过案例展示,文档提到OpenAI的Operator能够实现复杂流程的端到端自动化,提高效率。同时,企业如Lowe’s通过细化AI模型,显著提升了产品搜索的准确性,错误检测率提高了60%。文档还强调了数据安全和隐私保护,确保企业内容不用于模型训练,合规性和访问控制措 施。
  • pdf 文档 Gluon Deployment

    0 码力 | 8 页 | 16.18 MB | 5 月前
    3
    该文档主要介绍了使用TVM部署GluonCV模型的过程,并提到了AWS在TVM领域的贡献。文档还展示了GluonCV模型的性能对比,包括在AWS DeepLens、Acer aiSage和NVIDIA Jetson Nano上的表现。此外,文档包含了 tuyển dụng信息,正在Shanghai, Beijing和Shenzhen招聘 Applied Scientist和SDE positions,并提供了实习机会。
  • pdf 文档 Deploy VTA on Intel FPGA

    0 码力 | 12 页 | 1.35 MB | 5 月前
    3
    文档详细介绍了在Intel FPGA上部署VTA(Vector Tile Accelerator)的过程。主要包括硬件和软件的配置步骤,涵盖了开发环境的搭建、Linux内核的配置、CMA(Contiguous Memory Allocation)内存分配的实现以及Chisel VTA的 datapath配置。部署过程中需要使用DE10-Nano开发板,并通过Quartus Prime 18.1 Lite Edition以及TVM框架进行交叉编译和硬件配置。最终通过运行测试脚本验证VTA的功能。文档还提到了摩尔定律的放缓背景以及多厂商支持的重要性。
  • pdf 文档 Bring Your Own Codegen to TVM

    0 码力 | 19 页 | 504.69 KB | 5 月前
    3
    文档介绍了如何将自定义代码生成器集成到TVM框架中,包括实现构建逻辑、运行时分发器以及标注和分割图表等内容。用户可以通过实现外部函数或图级注释器,将支持的算子或子图划分到自定义代码生成器。文档还提供了相关代码示例和开发步骤,以帮助用户在TVM中集成自定义硬件加速器或优化算子。
  • pdf 文档 OpenAI 《A practical guide to building agents》 推荐

    0 码力 | 34 页 | 7.00 MB | 6 月前
    3
    文档系统阐述了构建智能agent的实践指南,包括agent的定义、核心组件(模型、工具、指令)以及设计基础。强调了选择模型时需注意任务复杂度、延迟和成本的平衡,并通过建立性能基准逐步优化。文档还介绍了如何通过明确的指令和工具定义来提升agent的可靠性和一致性,讨论了复杂工作流中的(agent)编排方法,并提供了创建多个agent的实际指导。
  • pdf 文档 Google 《Prompt Engineering v7》 推荐

    0 码力 | 68 页 | 6.50 MB | 6 月前
    3
    本文档系统探讨了提示工程(Prompt Engineering)的各个方面,包括多种提示技术如零样本、少样本、系统提示、角色提示、上下文提示、Chain of Thought、自洽性和树状思维等。文档详细介绍了如何设计高质量的提示以指导大型语言模型(LLM)生成准确输出,并提供了最佳实践,如提供示例、设计简单、明确输出要求等。此外,还讨论了模型配置的优化、提示迭代和文档记录的重要性,以及在编码和多模态提示中的应用。
  • pdf 文档 DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model

    0 码力 | 52 页 | 1.23 MB | 1 年前
    3
    文档介绍了DeepSeek-V2,一种高效且经济的混合专家模型。该模型通过多头潜层注意力(MLA)显著提升了推理效率,并通过DeepSeekMoE架构降低了训练成本。实验表明,DeepSeek-V2在多个基准测试中表现优异,特别是在推理、编码和数学任务方面。论文还详细讨论了模型的架构设计、训练方法和对齐策略,并提供了与其他模型的性能对比数据。
共 8 条
  • 1
前往