OpenAI推出了GPT-3.5 Turbo和GPT-4的微调功能。

搜索
AI-TNT
正文
资源拓展
OpenAI推出了GPT-3.5 Turbo和GPT-4的微调功能。
2023-08-27 20:15

OpenAI推出了GPT-3.5 Turbo和GPT-4的微调功能。

OpenAI推出了语言模型的微调功能,该功能支持模型GPT-3.5 Turbo和GPT-4。


这项微调功能允许开发人员根据特定用途对模型进行定制,然后在大规模上部署这些定制模型。此举的目标是弥合人工智能能力与实际应用之间的差距,开启高度专业化AI交互的新时代。


通过早期测试,经过微调的GPT-3.5 Turbo展现出非凡的成果,其在某些狭窄任务上不仅能够与基础GPT-4的能力相匹敌,甚至在特定领域还能超越。


所有发送到微调API的数据进出都属于客户,确保敏感信息得到保护,不会被用于训练其他模型。


微调功能的推出引起了开发人员和企业的广泛兴趣。自GPT-3.5 Turbo推出以来,定制模型以创造独特用户体验的需求逐渐增长。


微调功能在多个应用场景中带来了各种可能性,其中包括:


更精准的可操控性:现在开发人员可以通过微调模型使其更精确地遵循指令。例如,一个希望在特定语言下获得一致回应的企业可以确保模型始终使用该语言回答。

可靠的输出格式:AI生成的响应保持一致的格式非常重要,特别是对于代码补全或生成API调用等应用。微调可以提升模型生成适当格式响应的能力,从而提升用户体验。

自定义语气:微调功能允许企业调整模型输出的语气,以与品牌声音保持一致。这确保了一种始终如一、与品牌风格一致的沟通方式。

微调的GPT-3.5 Turbo的一个重要优势是其扩展的标记处理能力。它能够处理4k个标记,是之前微调模型能力的两倍,开发人员可以缩小提示的大小,从而实现更快的API调用并降低成本。

为了达到最佳效果,微调功能可以与提示工程、信息检索和函数调用等技术相结合。OpenAI还计划在接下来的几个月中引入支持函数调用和gpt-3.5-turbo-16k的微调功能。

微调过程包括数据准备、文件上传、创建微调任务以及在生产中使用微调模型等多个步骤。OpenAI正在研发用户界面,以简化微调任务的管理。


微调的定价结构由两部分组成:初始训练成本和使用成本。


训练成本:每1000个标记0.008美元

使用输入成本:每1000个标记0.012美元

使用输出成本:每1000个标记0.016美元


此外,OpenAI还宣布了更新的GPT-3模型 - babbage-002和davinci-002,为现有模型提供替代,并支持进一步的定制微调。


这次功能的推出再次展示出了OpenAI致力于满足企业和开发人员独特需求的人工智能解决方案的初衷。


原作者为 Ryan,内容转载于 AINEWS

1
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

2
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

IOS下载
安卓下载
微信群
沪ICP备2023015588号