智通财经APP获悉,除了宣布新一代GH200 Grace Hopper超级芯片平台的到来,英伟达(NVDA.US)还推出了一个新的AI服务——AI Workbench,这是一个易于使用的统一工具包,让开发人员能够在 PC 或工作站上快速创建、测试和自定义预训练的生成式 AI 模型,然后将其扩展到几乎任何数据中心、公共云或NVIDIA DGX™ 云。
(相关资料图)
据了解,AI Workbench旨在使人工智能开发更加精简、高效和可访问。通过统一的平台,调整、扩展和部署AI模型所涉及的复杂性可能会得到缓解,并允许开发人员为特定用例利用AI的全部潜力。
在最近的一次活动中,该公司展示了使用Stable Diffusion XL生成自定义图像,以及使用AI Workbench开发的用于医学推理的微调Llama 2。
企业人工智能发展的挑战
开发生成式人工智能模型涉及多个阶段,每个阶段都有挑战和需求。
从选择预训练的模型,例如大型语言模型(Large Language model, LLM)开始,开发人员通常希望为特定的应用程序调整模型。
这个过程需要一个可以处理各种计算需求的基础设施,并与GitHub、Hugging Face、NVIDIA NGC和自托管服务器等工具无缝集成。
而这过程需要机器学习、数据处理技术、Python和TensorFlow等框架方面的专业知识。管理凭证、数据访问和组件之间的依赖关系的复杂性也随之增加。
随着敏感数据的激增,安全性是至关重要的,需要强有力的措施来确保机密性和完整性。
最重要的是,管理跨不同机器和平台的工作流增加了复杂性。
AI Workbench有哪些优势?
首先,AI Workbench是个易于使用的开发平台,包含JupyterLab、VS Code等工具和GitHub等服务。AI Workbench 通过提供单一平台来管理数据、模型和计算资源,支持跨机器和环境的协作,从而简化了开发流程。
其次,该平台可增强协作。该项目结构有助于自动化围绕版本控制、容器管理和处理机密信息的复杂任务,同时还支持跨团队协作。
另外,AI Workbench 部署是客户端-服务器模型,使扩展过程更容易。用户能够开始在其工作站中的本地计算资源上进行开发,并随着训练作业的规模扩大而转向数据中心或云资源。
最后,AI Workbench 与 GitHub、NVIDIA NGC 和 Hugging Face 等服务和 Git 服务器集成,用户可以使用 JupyterLab 和 VS Code 等工具跨平台和基础设施进行开发,具有高度的可重复性和透明度。
因此,对于希望探索强大的生成式人工智能世界的企业来说,它可能是加速采用和整合的关键垫脚石。
总结
总的来说,英伟达推出的AI Workbench对企业来说尤其重要,因为它为定制、可扩展性和经济高效的解决方案提供了新的途径,从而简化了开发过程。
通过解决技术专长、数据安全和工作流程管理方面的挑战,英伟达的工具包可能会改变企业在各种应用中利用人工智能的游戏规则。