 第29 期| 2023 年9 月- 技术雷达许多组织正在部署自托管式大语言模型。这往往是出于安全或隐私方面的考虑,有时是因为需要在边缘设备上 运行模型。开源示例包括 GPT-J、GPT-JT 和 Llama。这种方法提供了更好的模型控制,以进行特定用途的微调, 提高了安全性和隐私性,以及离线访问的可能性。尽管我们已经帮助一些客户自托管开源大语言模型用于代码 生成,但我们建议在决定自托管之前仔细评估组织的能力和运行这类大语言模型的成本。 技术 © 的界面提供对 OpenAI 的 GPT-4、GPT-35-Turbo 和嵌入模型的访问。这些模型可以适应如内容生成、汇总、语义搜索和自然语言到代码 的转换的任务,也可以通过少量学习和超参数的定制进行微调。与 OpenAI 自己的 API 相比,Azure OpenAI 服 务受益于 Azure 企业级的安全性和合规性,同时也在更多的区域可用,哪怕每个较大的地理区域的可用性是有 限的。 平台 础设施方面的繁琐工作。Pinecone 可在数十亿向量数据的规模上,提供过滤后的查询结果,且延迟较低。我们 的团队发现,对于存储团队知识库或服务台门户内容等使用场景,相较于针对对复杂的 LLM 进行微调,使用数 据库提供商,特别是 Pinecone 会更便利,且上手很快。 41. wazero 评估 wazero 是使用 Go 编写的一个零依赖的 WebAssembly(WASM)运行时。尽管运行时本身与语言无关,我们0 码力 | 43 页 | 2.76 MB | 1 年前3 第29 期| 2023 年9 月- 技术雷达许多组织正在部署自托管式大语言模型。这往往是出于安全或隐私方面的考虑,有时是因为需要在边缘设备上 运行模型。开源示例包括 GPT-J、GPT-JT 和 Llama。这种方法提供了更好的模型控制,以进行特定用途的微调, 提高了安全性和隐私性,以及离线访问的可能性。尽管我们已经帮助一些客户自托管开源大语言模型用于代码 生成,但我们建议在决定自托管之前仔细评估组织的能力和运行这类大语言模型的成本。 技术 © 的界面提供对 OpenAI 的 GPT-4、GPT-35-Turbo 和嵌入模型的访问。这些模型可以适应如内容生成、汇总、语义搜索和自然语言到代码 的转换的任务,也可以通过少量学习和超参数的定制进行微调。与 OpenAI 自己的 API 相比,Azure OpenAI 服 务受益于 Azure 企业级的安全性和合规性,同时也在更多的区域可用,哪怕每个较大的地理区域的可用性是有 限的。 平台 础设施方面的繁琐工作。Pinecone 可在数十亿向量数据的规模上,提供过滤后的查询结果,且延迟较低。我们 的团队发现,对于存储团队知识库或服务台门户内容等使用场景,相较于针对对复杂的 LLM 进行微调,使用数 据库提供商,特别是 Pinecone 会更便利,且上手很快。 41. wazero 评估 wazero 是使用 Go 编写的一个零依赖的 WebAssembly(WASM)运行时。尽管运行时本身与语言无关,我们0 码力 | 43 页 | 2.76 MB | 1 年前3
共 1 条
- 1













