近日在(Invited Talk)中“国内唯一”的大模型玩家智谱AI,今天又放出了一个好消息: 现在我家的大模型开放平台,1元=1000000 tokens! 具体而言,这次价格调整的对象,是智谱AI的GLM-3-Turbo: 之前:0.005元 / 千tokens 现在:0.001元 / 千tokens 换算一下,就是1元=1000000tokens;而同样是百万tokens,ChatGPT的价格是这样的: 什么概念呢? 相当于花1元钱就能写1万条小红书(以350字计算)。 这个大动作,一下子就让智谱AI成为入门级里最便宜的那一个;而且它还特别提供用户tokens优惠计划:送! 开放平台新注册用户获赠从500万tokens提升至2500万tokens(包含2000万GLM3-Turbo和500万GLM4)。 除此之外,GLM-3 Turbo Batch批处理API进一步便宜50%——0.0005/千 tokens。 值得一提的是,这不是智谱AI第一次对价格进行调整。 早在去年10月份,它就面向开发者把调用API的价格砍掉了一个数量级。 不过有一说一,如果说大模型是AIGC时代的“商品”,那么性价比必然是一个硬指标。 所以智谱AI,用起来又如何呢? 价格便宜了,能力还上去了 没错,除了价格调整的消息之外,智谱AI官方还表示: 包括GLM-3 Turbo在内的GLM系列将迎来更新,正在部分开放测试中,即将和广大开发者和应用者见面。 至于目前的效果,我们在智谱AI大模型MaaS开放平台便可以直接体验一番。 例如在“体验中心”,我们可以先将模型设置为GLM-3-Turbo,然后问它一个专业且复杂的问题: 请你作为一名经济学的资深教授,帮助我解决一些写论文问题。我是一名经济学的学生,我想写一篇论文方向是人工智能与经济学的论文,但我不知道具体的选题方向。你能结合研究热点,给我一些有思想有深度、提供新知的选题吗? 请注意,你的回答禁止出现经济学、人工智能与经济学等词语。 不难看出,在特定领域中,GLM-3-Turbo的能力是可以做到合格上岗。 而这在智谱AI大模型MaaS开放平台还只是“开胃菜”一般的存在,主打的就是一个方方面面。 多模态大模型GLM-4就是其中之一,他可以在不牺牲任何NLP任务性能的情况下,实现视觉语言特征的深度融合。 并且已经在10余个国际标准图文评测数据集上取得SOTA。 在多模态理解方面,GLM-4可以看复杂图片并回答做多种视觉问题: 在代码能力方面,也可以让它用Python画一个爱心: 烧“脑”的逻辑推理也不在话下: 而具体到性能指标,打开方式是这样的: 在上海人工智能实验室发布的大模型开源开放评测体系司南(OpenCompass 2.0)中,GLM-4 综合排名第二,仅次于GPT-4 Turbo 。 在清华SuperBench大模型综合能力评测框架中,GLM-4与国际一流模型水平接近。 除了通用大模型之外,智谱AI的开放平台还提供术业有专攻的大模型的能力。 例如用户可以调用第二代CodeGeeX代码大模型,作为一个AI编程助手,可以实现代码生成与补全、注释生成、代码翻译等任务: 更高阶的能力,比如在IDE里针对具体代码做问答,CodeGeeX代码大模型也是可以实现: 在图像生成领域,智谱AI的开放平台在未来还将提供了CogView模型的API。 用户不仅可以用简单的自然语言Prompt来生成高质量图片: 还可以对特定图片进行“以文改图”: 除了在上述大方面的能力之外,智谱AI的开放平台在细节上针对“定制化”和“本地化”也是下足了功夫。 提供了可以完成用户意图理解、复杂指令规划以及自由调用GLM生态中多种模型能力的工具集。 不过最重要的一点是,智谱AI的开放平台在操作上也是极其的简单——就是调用一个API的事儿。 大模型,开始卷“普惠” 从上述种种能力和操作上的展示来看,智谱AI正在释放一种大模型要“卷”的新信号——普惠。 首先,最为直接的就是价格调整策略。 普惠的一个前提就是调用API的价格要做到够亲民,唯有如此才能够把市场打出去;这一点在国外大模型玩家们博弈过程中便有过体现。 在法国Mistral AI推出Mistral Large之际,它便用比GPT-4更便宜的API接口价格的“姿势”入局,在大模型性价比上给了OpenAI不小的冲击。 加上微软当时还入股了Mistral AI,不仅给钱还给算力,一度被传为“微软钦点的OpenAI备胎”。 聚焦国内,正如我们刚才提到的,智谱AI在去年10月便已经调整过一次价格,而就在上个月,阿里云也官宣核心产品大规模调整,为的也是提升市场的渗透率。 是颇有一种“得市场者得天下”的感觉了,而且就目前使用情况来看,也是得到了市场不小的认可。 据智谱AI官方数据显示: *截止目前,用户数有数十万的企业和开发者,并且在持续快速增长,过去的半年每日tokens消耗增长超过一百倍。 *官方开发的三个调用工具,网页检索、函数调用以及知识库,自从 1 月上线以来调用次数已经超过3亿次。 对此,“红衣大叔”周鸿祎也给出了他的评价: 其次,在卷价格的背后,还需得有实力上的底气,毕竟对于性价比这事,“性”字是在排在“价”字之前的,只有好用才会有人买账。 在这一方面,讲真,智谱AI也是有够卷的;单是从今年的发展进程来看,智谱AI在大模型上的新研究、新进展就没有停过。 先后在 LLM、多模态、长文本、对齐、评测、推理加速、Agent 等大模型的方方面面都做出了诸多成果: 2月6日:发布让多模态模型具有操作链的CogCOM 3月8日:发布更快、更精细的文生图模型CogView3 3月30日:提出了Pre-training Loss作为语言模型“涌现能力”的指标 4月3日:在 GLM-4 中融入了RLHF技术 4月4日:提出自动网页导航的Agent,AutoWebGLM …… 不仅如此,就在昨天ICLR 2024的特邀演讲环节中,智谱AI针对通往AGI的道路规划,也亮出了自己的“三步走”——分别是发布GLM-4.5、引入GLM-OS以及GLM-zero。 总而言之,现在大模型公司要卷的不能再只是技术实力了,市场占有率、价格等因素也逐渐成为了关键的考量因素,由此方可形成普惠的一个闭环: 大模型需要用户的使用→得到反馈后优化→性能和收益的增长可让大模型更优惠→再吸引更多人来用。 不过有一说一,大模型们开始卷谁更“快、好、省”,用户们是真的赚到了。 (责任编辑:) |