share_log

2024.07.23 「Phi-3」「Llama-3」「GPT-4o mini」などの 小規模言語モデルを使用して生成AIの回答精度を向上させる 「SLMファインチューニング」カスタムサービスを開始

2024年7月23日开始提供“学贷美Fine Tuning”定制服务,使用“Phi-3”、“Llama-3”、“GPT-4o mini”等小型语言模型来提高生成人工智能答案的准确性。

Headwaters ·  07/22 11:00

2024.07.23 推出 “SLM 微调” 自定义服务,使用 “Phi-3”、“Llama-3” 和 “GPT-4O mini” 等小规模语言模型提高生成式 AI 的响应精度

 负责人工智能解决方案业务的Headwaters株式会社(总部:东京新宿区;代表董事:篠田洋介;以下简称 “Headwaters”)已开始为促进生成式人工智能商业用途的公司提供 “SLM Fine Tuning” 定制服务。
该服务是一项通过使用开源人工智能基础架构模型 “Phi-3”、“Llama-3” 和以 “GPT-4O mini” 为中心的小规模语言模型(可以从微软公司提供的 “Azure AI 模型目录” 中选择)来提高生成式人工智能的响应精度的服务,对于在生成式人工智能创建的句子的准确性方面认为业务用途严格的公司来说,这是一项有用的服务。
大
Headwaters使用Azure OpenAI服务、企业生成式人工智能、LLM(大型语言模型:大型语言模型)、利用Headwaters技术能力的RAG(检索增强代)系统、SLM(小型语言模型:小语言模型:SLM:小型语言模型:SLM:小型语言模型:我们已经开发了许多解决方案,例如使用(小规模语言模型)的边缘人工智能。
在商业使用生成式人工智能时,许多客户说 “我想使其与技术术语、行业术语和内部术语兼容”,“我想在出现特定关键字时提出建议和建议”,“我想提高响应准确性”,以及 “我想提高响应准确性”,Headwaters到目前为止也一直在寻找这些问题的解决方案。
为了回应这样的声音,Headwaters推出了一项 “SLM微调” 定制服务,该服务以微软的SLM “Phi-3”、Meta的 “Llama-3” 和OpenAI的 “GPT-4O mini” 为中心。
■RAG 问题
通常,为了让每个公司在业务中使用LLM,需要根据每个公司的业务数据、独特的提示等对LLM进行自定义,作为一种自定义方法,它可以分为两种类型:RAG和微调,但是微调非常困难,需要有效的数据,并且在性价比方面取得良好平衡的情况下从RAG入手的情况已成为主流。
另一方面,作为一种挑战感,RAG也存在不足以完成特定任务的场景,例如 “通过让人们引用过多的数据而陷入困境(错误答案)”,“处理想要使用生成式人工智能提高正确答案率的案例”,以及 “处理公众不熟悉的内部术语、行业术语和技术术语”。
因此,Headwaters将利用SLM作为 “对内部术语、行业术语和技术术语的支持” 和 “提高正确答案率的支持” 来解决问题。
■SLM的特点
SLM 的主要特征是 “减轻 LLM 的权重”,但另一个特征是 “处理的数据量很小”。
通过在可持续土地管理中准备 “应优先于其他知识的知识”,例如 “特定行业的术语和细微差别” 和 “不应错误的答案”,作为可持续土地管理的学习数据,可以将生成不准确或不相关信息的风险降至最低。
此外,由于与LLM相比,SLM减少了计算资源,因此它具有很高的运营成本效率,并且具有缩短响应时间和降低能耗等优点。
SLM通过利用微软提供的 “Phi-3” 来考虑与微软Azure和Copilot+电脑的兼容性,并使用基于Meta的 “Llama-3” 开发的日语学习模型来解决日语支持,这是SLM的弱点,而OpenAI的 “GPT-4O mini” 则用于解决运营成本和速度方面的问题。
微调本质上是昂贵的,现在可以通过 “使用带有少量数据的 SLM”,以比 LLM 微调更低的成本提供。
微调最初需要数据科学方面的专业知识,但是通过将多年积累的机器学习知识与多个人的Kaggle奖得主的知识相乘以后,在明确区分LLM与内部术语和行业术语的方法中,已经取得了多项实施结果,准确性的提高也得到了证实。
Headwaters正在努力通过利用SLM微调和微软Fabric提供先进的RAG服务,以及通过结合由微软Azure组成的生成式人工智能平台 “SyncLect Generative AI” SLM微调来进行SLM微调,从而进一步提高成本效益。我们将在制造业、金融、广播和医疗保健行业等需要相对较高正确响应率的企业公司中使用生成式人工智能,并为使用生成式人工智能的客户提供服务平台支持。
■关于未来
展望未来,我们计划通过扩大我们的SLM服务阵容来开发以下解决方案。
・使用多模态 SLM “GPT-4o mini”、“Phi-3 Vision” 和 “Florence-2” 进行多任务边缘视频分析
・生成的 AI 不会将个人信息带到云端 x 本地
・与离线环境兼容的本地 SLM
・在 Copilot+ 电脑上运行的 Windows AI 应用程序
・在移动设备上运行的设备上 SLM 应用程序... 等
Headwaters已将联盟战略设定为其中长期战略的支柱,我们正在共同努力,通过与客户公司成为业务合作伙伴来扩大生成式人工智能经济区。通过将生成式人工智能整合到客户业务中并让客户相互交流,我们将更接近一个更熟悉和理所当然地使用生成式人工智能的世界。
请注意,此事件对公司当前财务业绩的影响微乎其微。如果将来出现需要披露的事项,我们将立即通知您。
■什么是 SLM(小型语言模型)
SLM(小型语言模型)是一种比 LLM(大型语言模型)更小、更轻的语言模型。可以进行快速训练和推理,提高资源效率,并且性价比极佳。此外,它适用于资源受限的设备和边缘计算,并具有多种特性,例如安全和高度机密。在生成式人工智能领域,小型语言模型的可能性正引起人们的关注,小规模语言模型的采用也越来越多。
■什么是微调(微调)
微调是一种向已经训练过的模型添加新层,然后重新学习整个模型的方法。由于模型可以重复使用,因此与从头开始学习相比,可以在更短的时间内用更少的数据构建模型。
■什么是 Phi-3
它是微软提供的开源小语言模型 (SLM)。它展现了最高水平的功率和成本效率,超过了各种语言、推理、编码和数学基准中类似规模和更高级的模型。

■什么是 GPT-4O mini
它是 OpenAI 提供的多模态语言模型 “GPT-4O” 的小模型。对于开发人员而言,该模型的使用成本比 “GPT 3.5” 便宜60%或更多,除了提高准确性外,速度也明显更快。
■什么是 Azure AI 模型目录
它是可立即使用的顶级基础设施模型,可加速开发主要的开源生成的人工智能模型,例如OpenAI、Meta、Mistral AI、Stability AI和Hugging Face。
■什么是 RAG(检索增强生成)
检索增强生成 (RAG) 是一种将大规模语言模型 (LLM) 与外部数据库和信息源联系起来的新技术。搜索外部知识源并进行增强的句子生成。
■什么是 Copilot+ PC
Copilot+ 电脑是一款专用于实时翻译和图像生成等人工智能密集型流程的计算机芯片,是一款全新的 Windows 11 PC,配备了每秒可执行超过 40 万亿次运算 (TOPS) 的超高速神经处理单元 (NPU)。

■参考文献
推出使用微软Fabric作为数据平台的 “高级RAG” 服务
o.jp/news/gen_ai_soft_fabric_advanced_rag.ht
开发了工业边缘一代人工智能解决方案 “LLaVa Edge Vision”

开始验证用于生成式 AI x 边缘 AI 的小规模语言模型 SLM 和图像语言模型 VLM

关于 Azure OpenAI 服务参考架构高级合作伙伴认证

■关于商标
微软、Windows 和 Azure 是美利坚合众国微软公司和其他国家的注册商标或商标。
Windows 的正式名称是微软视窗操作系统。
其他专有名称,例如提到的产品名称,是其各自公司的商标或注册商标。
<公司信息>
公司名称:Headwaters Co., Ltd.
地点:东京都新宿区西新宿 6-5-1 新宿岛塔四楼 163-1304
代表:首席执行官篠田洋介
成立时间:2005/11
网址:
<有关此事的咨询>
Headwaters 有限公司
电子邮件:info@ml.headwaters.co.jp

前一篇文章

声明:本内容仅用作提供资讯及教育之目的,不构成对任何特定投资或投资策略的推荐或认可。 更多信息
    抢沙发