人工智能开放计算平台-DeepLink,作为芯片与深度学习框架适配的“桥梁”,根本性实现软硬件解耦,建设开放的软硬件适配生态。遵守此标准可以实现主流框架与芯片高效适配,极大降低算力使用门槛,减少技术阻力。从而打破算力和框架的垄断,实现算力要素多样化。并且通过编译的力量,提升整体的训练效率。基于DeepLink,上下游厂商通过一次适配即可深度接入算法生态,为人工智能软硬上下游合作共建起到关键纽带作用。
DeepLink2.0 以1.0版本为基础,从场景支持、互联能力、易用性和性能优化四个方向扩展软硬件适配版图。从原本只涵盖AI技术框架、接口层的结构中,逐步扩展了AI并行框架层和计算层:
- AI并行框架:DeepLink2.0支持开源轻量级AI加速框架InternEvo,支持无需大量依赖关系的模型预训练;同时支持微调工具库XTuner、推理部署工具箱LMDeploy。
- 计算层:逐步建设triton编译生态,针对硬件特性进行扩展功能加持。
- 接口层:着力于异构互联方案的建设,通过跨域异构互联可实现不同算力性能的芯片自由组合,而无需依赖单一高算力芯片“抱团”。
目前,DeepLink已与10余家硬件企业展开合作,在多个计算平台实现了多个模型的训练和推理适配。