700亿参数!IBM将提供类ChatGPT开源模型Llama 2
来源:AIGC开放社区
图片来源:由无界 AI生成
8月10日,IBM在官网宣布,将在watsonx.ai和数据平台中,提供700亿参数开源大语言模型Llama 2。(免费试用地址:https://dataplatform.cloud.ibm.com/registration/stepone?context=wx)
Llama 2是科技、社交巨头Meta在上个月开源的一款类ChatGPT大语言模型并允许商业化。Llama 2是在Llama基础之上构建而成,拥有70亿、130亿和700亿三种参数,可用于开发各种生成式AI产品,是目前最强开源大语言模型之一。
watsonx.ai隶属于watsonx,是IBM的大语言模型、生成式AI开发平台,提供预训练、微调、数据验证、部署、基础模型开发等一站式开发平台。前不久美国宇航局(NASA)便与IBM合作,在watsonx.ai平台中训练、微调了地理空间大模型Prithvi。
随着ChatGPT的火爆出圈,开源AI大模型如雨后春笋般飞速发展,每天都有大量产品上传至Hugging Face、GitHub等开源平台中。
但如何高效使用、开发这些模型对于中小企业和个人开发者来说并不容易。为了帮助开发者们简化开发环境、提升开发效率IBM推出了watsonx.ai。
watsonx.ai主要由基础模型、提示实验室、数据科学和MLOp和Tuning Studio(即将推出)四大块组成。
基础模型:该功能简化了模型的选择与下载,用户可以在watsonx.ai直接访问Hugging Face平台上的热门开源AI大模型,例如,本次提供的Llama 2,以及IBM自训练的不同用途、大小、架构的模型。
提示实验室 :可帮助开发者对模型的生成提示进行训练和微调。只需要几次示例甚至无需数据,就能完成一系列自然语言处理的微调,例如,文本问答、内容生成、摘要、文本分类和提取等。
数据科学和MLOp :通过与各种API、SDK和模型库的连接,可自动化从开发到部署的整个AI模型生命周期,极大简化了开发配置与资源连接。
Tuning Studio :这是一个快速微调功能,通过使用标记数据调整基础模型的准确性和性能。该功能将很快在后续的watsonx.ai版本中推出。
IBM表示,为了进一步帮助企业加速应用生成式AI和大模型,组建了一个由1000多名专业的生成式AI专家的“AI卓越中心”,可提供模型微调、部署、维护等一站式开发,并且IBM会把用户隐私、数据安全放在第一位,提供安全可靠的AI服务。