百亿tokens免费额度,清华系明星AI公司的羊毛薅起来
【/h/]免责声明:本文来自微信官方账号量子比特(ID:QbitAI),作者:云忠,经站长之家授权转载发布。
【/h/]百亿代币补贴,4月起免费!
【/h/]这次的羊毛来自清华AI公司,企业和个人都可以收获。
【/h/]这家公司成立于2023年5月,目标是为大规模模型软件和硬件集成创建最佳计算解决方案。
【/h/]刚刚,它发布了一个基于多芯片计算基础的无穹顶Infini-AI大型模型开发和服务平台,供开发者体验和比较各种模型和芯片效果。
【/h/]大模特浪潮涌动后,有人调侃:
【/h/]与“造福人类”相比,大模型应该首先呼吁“给我现场”。
【/h/]然而,吴昕欣琼认为,在互联网时代快速发展之后,中国市场并不缺乏应用场景。
【/h/]大型模型落地的难点在于行业不断遇到的算力问题。
【/h/]我们应该首先呼吁“解决问题”,而不是“给我现场”。
【/h/]不问核心穹顶在做什么,就是这么一回事。
让开发者花小成本、用好工具和充沛算力
【/h/]今天,无限芯穹顶发布了基于多芯片计算底座的无穹顶Infini-AI大模型开发与服务平台。
【/h/]还宣布从3月31日起正式开启全面注册,所有实名注册的个人和企业用户将免费获得100亿代币额度。
【/h/]开发人员可以在此平台上体验和比较各种模型功能和芯片效果。
【/h/]只需简单拖拽各种参数按钮,无需穹顶即可在Infini-AI上准确调出并部署更适合业务的大型模型;然后以几千代币的非常优惠的单价向用户提供服务。
【/h/]目前,无穹顶Infini-AI已支持20多款机型,包括百川2 2、ChatGLM2、ChatGLM3、ChatGLM3闭源模型、Llama2、Qwen和Qwen1.5系列,以及AMD、壁画、寒武纪、燧原、天智鑫、牧溪和摩尔线程。
【/h/]第三方平台或定制的训练和微调模型也可以在没有dome的情况下无缝迁移和托管到Infini-AI,并可以通过token获得细粒度的定制计费方案。
【/h/]“我们对型号品牌和芯片品牌的覆盖范围将继续增加。随着时间的推移,Infini-AI的性价比优势将越来越突出。”芯库联合创始人兼CEO夏李雪表示,未来,Infini-AI还将支持更多模型和计算生态合作伙伴的产品上架,让更多大型模型开发者“花小钱、用大池”,持续降低AI应用的落地成本。
【/h/]一个月前,猎聘伙伴在一些城市发布了AI驱动的数字面试官产品,更多的AI功能正在准备中。
【/h/]这是无芯穹顶提供的弹性算力应用方案,基于无芯穹顶平台上开源的大型模型进行了微调。
【/h/]与市场上的其他方案相比,它实现了更高的推理加速,并大大降低了新功能的成本。夏说,这个效果让无极团队非常有信心。
【/h/]因此,除了开启全员报名外,大算力需求端的测试邀请也正式启动,在算法和硬件上提供更具性价比的算力和更深层次的算力优化服务。
那些遇到算力难题的企业
【/h/]想要在成熟场景中应用大模型的企业发现了算力却无法使用,无法做出差异化产品来升级业务。
【/h/]想要打造AI原生应用的企业难以承受计算成本,工具链不好用,产品启动和生产比例不合理。
【/h/]随着业务的发展,自行训练模型的企业往往找不到或负担不起所需体量的算力,业务运营成本过高。
【/h/]截至2023年底,我国算力总规模达到每秒197万亿次浮点运算,位居世界第二,近五年年均增速近30%。
【/h/]这么大的涨幅,为什么行业还是觉得特别难计算?
【/h/]背后的原因是AI行业的发展恰逢工程师红利爆发,加速了中国大模型行业的蓬勃发展,需求端“嗷嗷待哺”。然而,市场上仍有大量算力资源没有被收集和充分利用,缺乏系统性的“大模型原生”商业模式,将算力供给转化为符合市场需求的产品和服务。
算力性价比大幅提升,源自多芯片优化实力
【/h/]“市场上存在大量不活跃的有效算力,硬件本身的差距正在迅速缩小,但人们在使用时总会遇到‘生态问题’。”夏说,这是因为硬件的迭代速度总是比软件慢,价格也比软件高。软件开发人员不希望除了自己的研发工作之外还有其他“变量”,因此他们总是倾向于直接使用生态成熟的芯片。
【/h/]Questionless Core Vault希望帮助所有制作大模型的团队“控制变量”,即在使用Questionless Core Vault的计算服务时,用户不需要或感受不到底层计算能力的品牌差异。
【/h/]成立不到一年的core dome如何在如此短的时间内完成各种计算卡上的性能优化?
【/h/]2022年底,大规模模型引发社会广泛关注后,夏李雪及其导师王宇认为,国内整体算力水平与国际先进水平仍有明显差距,仅仅依靠芯片技术升级或多芯片技术迭代是不够的。有必要建立一个大规模的模型生态系统,以便将不同的模型自动部署到不同的硬件上,并有效利用各种计算能力。
【/h/]一年后,Wonder-free宣布了在NVIDIA的GPU和AMD芯片上实现的优化结果,在大型模型任务上实现了2-4倍的推理速度。
【/h/]随后,AMD中国宣布与Wuxian Core Vault达成战略合作关系,双方将共同致力于提升商业AI应用的性能。
【/h/]两年后,奇境科技在发布会上展示了其在10种芯片上的性能优化数据,每张卡都显示其取得了目前业界最佳的性能优化效果。
【/h/]“我们已经与各种型号和芯片合作伙伴建立了牢固的信任关系,”夏李雪说。“一方面来自于我们针对大型模型的计算优化实力,另一方面我们非常注重保护合作伙伴的数据安全。核心金库将保持中立,不会与客户产生利益冲突,这是我们业务发展的基础。”
做“大模型原生”的加速技术栈与系统
【/h/]“Transformer统一了本轮的模型结构,并呈现出持续应用突破的趋势。”王宇在开幕致辞中表示,“过去我们是一家AI 1.0时代的公司,只能做一小部分AI任务。今天与过去不同,大模式的结构是统一的,生态建立的硬件壁垒正在‘变薄’。”
【/h/]得益于全球兴起的人工智能浪潮和中国市场的独特机遇,仙境正面临巨大的技术机遇。
【/h/]Transformer基于并行计算架构设计。模型越大,智能效果越好,使用的人越多,需要的计算量就越大。
【/h/]“核心穹顶正在做的是‘大模型原生’的加速技术栈。”武文核心金库联合创始人兼首席技术官严圣恩表示,大型模型的落地取决于算法、计算能力、数据和系统。计算能力决定了大型模型的运行速度,设计良好的系统可以释放更多的硬件潜力。
【/h/]无Core Vault团队搭建了上万个GPU级大规模高性能AI计算平台,具备Wankana tube能力,并成功搭建了基于自营集群的云tube系统,实现了跨域多云之间的统一调度。
One More Thing
【/h/]“在端侧,人们更倾向于在人机交互的界面上快速放下大型模型的能力,以提高实际体验。”武文Core Vault的联合创始人兼首席科学家戴国浩认为,在未来,只要有计算能力的地方,就会有AGI级别的智能。两端的智能来源是大型专用处理器LPU。
【/h/]大型模型处理器LPU可以提高大型模型在各种终端硬件上的能效和速度。
【/h/]戴在发布会上向观众展示“一卡通跑大模式”。他的团队在今年1月初推出了全球首款基于FPGA的大型号处理器。通过大模型高效压缩的软硬件协同优化技术,将LLaMA2-7B模型的FPGA部署成本从4卡降至1卡,性价比和能效比均高于同工艺GPU。未来,IP这种没有core dome的端侧大型号专用处理器可以模块化集成到各种端侧芯片中。
【/h/]“从云到端,我们要把软硬件的联合优化进行到底。大幅降低大型模型在各种场景下的落地成本,让更多有用的AI能力更好、更便宜地进入更多人的生活。”戴国浩宣布不带穹顶的LPU将于2025年上市。