A16z宣布开源 AI 资助计划,首批支持8个开源人工智能社区
来源:阿法兔研究笔记
原标题:《A16Z 刚刚官宣支持8个开源人工智能社区》
A16Z相信,人工智能具有拯救世界的力量,而繁荣的开源生态系统,对于构建建设并实现这个未来,至关重要。
值得庆幸的是,开源生态系统正在逐步开始发展,大家现在看到的开源项目和模型,可以与闭源方案相媲美。数以百计的小型团队和个人,正在不断给这些开源模型做出贡献,从使这些模型更加有用、易用和高性能。
正是这些项目和付出,共同推动了开源AI技术的发展,并帮助更多人对新技术有了更深入、更全面的了解。
这些开源项目包括:
对基础 LLM 进行指令调整:instruction-tuning base LLMs
取消对 LLM 输出的审查:removing censorship from LLM outputs
为低功率机器优化模型:optimizing models for low-powered machines
为模型推理构建新颖的工具:building novel tooling for model inference
研究 LLM 的安全问题:researching LLM security issues;
等等,然而,这些项目背后的人员往往没有足够的资源来完成或长期保持他们的工作。这种情况,在AI领域比传统计算机基础设施领域更为严重,因为即使是对模型进行基本的 fine-tuning,也需要大量的 GPU 计算资源,尤其是当开源模型变得越来越大时。
**
**
为了弥补这一资源缺口,A16Z今天宣布了 a16z 开源 AI 资助计划,A16Z将通过资助(而非投资或 SAFE 票据)的方式,为一小部分开源开发者提供支持,让他们有机会在没有经济回报压力的情况下继续工作。
这里公布了首批资助对象和资助项目:
Jon Durbin(Airoboros):instruction-tuning LLMs on synthetic data
**
**
Eric Hartford:fine-tuning uncensored LLMs
**
**
Jeremy Howard(fast.ai):fine-tuning foundation models for vertical applications
**
**
Tom Jobbins(TheBloke):quantizing LLMs to run locally
**
**
Woosuk Kwon和Zhuohan Li(vLLM):library for high-throughput LLM inference
**
**
Nous Research:new fine-tuned language models akin to the Nous Hermes and Puffin series
obabooga:web UI and platform for local LLMs
**
**
Teknium:synthetic data pipelines for LLM training
感谢他们为这个领域做出的贡献,正是这些开源社区的开发者,促进了人工智能领域的开放合作、学习和进步。
参考资料:https://a16z.com/2023/08/30/supporting-the-open-source-ai-community/