国产平台无问芯穹免费送百亿token,多元算力助力大模型定制

科技动态 2024-03-31 16:39 阅读:17

想要应用大模型,却总是遇到算力不足的困扰?别担心,国产平台无问芯穹从今日起免费送百亿token,让开发者们可以轻松精调20多种开源模型,同时享受极具性价比的多元算力服务。

大模型落地并非缺乏场景,而是因为算力不足而遇到困难。无问芯穹认为,中国市场已经拥有丰富的应用场景,关键在于解决行业内持续遭遇的算力难题。因此,无问芯穹推出了基于多芯片算力底座的Infini-AI大模型开发与服务平台,从3月31日起正式开放全量注册,为所有实名注册的个人和企业用户提供百亿tokens免费配额。

在这个平台上,开发者可以体验、对比各种模型能力和芯片效果,通过简单拖拽各种参数按钮的动作,精调出更贴合业务的大模型并部署在无穹Infini-AI上,以非常优惠的千token单价向用户提供服务。

目前,无问芯穹已支持了多个模型和计算卡,支持多模型与多芯片之间的软硬件联合优化和统一部署。第三方平台或自定义训练的模型也可以无缝迁移托管到无穹Infini-AI,并获得细粒度定制化的按token计费方案。

无问芯穹联合创始人兼CEO夏立雪表示,未来平台将支持更多模型与算力生态伙伴的产品上架,降低AI应用的落地成本,让更多大模型开发者能够花小钱、用大池,持续推动行业发展。

算力难题有解法了!无问芯穹在短短不到一年的时间内,成功跑通多种计算卡上的性能优化,为大模型的应用提供了更多可能性。通过与各个模型、芯片伙伴建立强信任关系,无问芯穹致力于帮助所有做大模型的团队控制变量,让用户在使用算力服务时不会感受到底层算力的品牌差异。

无问芯穹的联合创始人兼CTO颜深根表示,大模型落地依赖算法、算力、数据和系统,而算力决定了大模型的速度,设计优良的系统则能释放更多硬件潜力。团队曾搭建过数万片GPU级的大规模高性能AI计算平台,具备万卡纳管能力,并成功搭建了云管系统,实现跨域多云间的统一调度。

未来,无问芯穹将继续努力将软硬件一体联合优化进行到底,大幅降低大模型在各个场景中的落地成本,让更多好用的AI能力更好、更平价地走进更多人的生活。无问芯穹的端侧大模型专用处理器LPU也将在未来推出,为大模型在各种端侧硬件上提供更高效的能效与速度。