国内的AI厂商活得不大好……
大家好,我是很帅的狐狸
昨天我跑去一家AI厂商找朋友聊天
听他们吐槽了现在的行业现状
今儿跟你们分享一些有意思的信息
本文会回答——
- 为什么国内AI厂商都在打价格战?
- 为什么国内AI创业公司大多活得不大好?【主观】
- 国内AI创业公司的机会在哪?
昨天听到的抱怨,主要还是「价格战」。
豆包、Kimi、智谱清言、星火,包括最近上架APP的腾讯元宝,都免费了。
而百度的文心一言4.0居然还要收费,我交了一个月就不打算继续续费了……
另一方面,各家大模型的API也在打价格战。
稍微解释下API——简单说就是程序员们可以通过调用厂商提供的API,让自己的程序也有对应大模型的能力。
第一个下场搅浑水的是幻方量化的DeepSeek。
中文能力不输GPT-4,价格却只有它的1%(百万tokens输入1元,token即AI可以处理的最小单位)。
接着是字节旗下的豆包。
百万tokens输入降到了8毛(Pro 32k),Pro 128k版也只要5块。
接着其他大厂也跟上了——
通义千问对标GPT-4的Qwen-Long百万token输入降到了5毛;百度文心一言直接把ENIRESpeed、ENIRELite这两个相对较水的模型给免费了;讯飞接着把星火Lite永久免费开放,顶配的Spark3.5 Max也降到了21元/百万tokens。
可能也是因为这样,百度也不得不在想着其他变现手段……
Anyway,虽然国内模型便宜不少,不过我认识的不少不差钱的工程师们,在生产环境还是偏好最贵(但效果最好)的GPT-4…
另一方面,to-B的定制项目也在卷——
AI厂商的朋友告诉我,除了大厂,创业公司们也打价格战打得火热。
听到了个有意思的案例是——
某银行招标一个场景大模型,腾X开价1,170万,通XXX开价790万,最后智XXX开价120万,成单了。
作为创业公司,这也不算不能理解的选择——
做to-B市场,万事开头难,需要有标杆案例,所以就算是亏钱也愿意接单。
另一方面,不少创业公司还不知道to-B的难做——毕竟手上刚融了一大堆钱,打标时没啥心理负担,中一个亏一个。
这轮「AI+」的逻辑跟9年前提出的「互联网+」其实很类似——大家都是拿着锤子找钉子,或者说,是拿着技术找场景。
不过跟「互联网+」超级无敌不一样的一点是——此时此刻并没有类似智能手机这样的新终端。
换句话说,不像当年,坑位很多——市场供不应求,用户们都在找新应用。
现在用户的手机装满应用,该占的坑都被占了。
用户要换APP,迁移成本会很高——
比如要搬数据,比如要学新应用怎么用(prompt并不是每个人都很擅长)。
当你的「AI+」场景带来的价值增量,并没有高于迁移成本时,用户宁愿坐等现有APP厂商,看看过几个月它们能不能迭代出AI能力。
另一方面,基于大模型带来的价值增量,相对还是比较有限。
毕竟,就现有的大模型技术,就算用上了RAG、外接了搜索引擎,还是不可避免会有AI幻觉的出现——
你也不希望让AI帮你点份外卖,结果它搞错了地址或数量。
当然,电商场景大多还只是小钱,如果还想用它来做医疗或投资决策,要克服的心理障碍就更大了…
Anyway,从结果来看,新App并没有撬动平台企业们对流量的垄断——毕竟并没有多出新的坑位来。
所以对于找场景的创业公司来说,对比9年前的「互联网+」时代,机会还是少了挺多的。
昨天跟AI厂商里的朋友也聊到了这点——
我们认识就是在15年「双创」的时候。
那时候创业的,除了叫得上号的一些大牛,还有很多不怕虎的小牛犊(包括当年的我们)。
而现在的AI创业公司,大多都是AI 1.0时代的老人,或是学术背景较强的专业人士。
所以看清这点的人,都没有急着做to-C应用,甚至连某些大厂(比如腾讯)也是先深耕B端场景。
更多的聪明人在to-B市场疯狂内卷,加上有数据和算力优势的大厂躬身入场,价格战自然是避免不了的。
那……对于创业公司来说,机会在哪呢?
逻辑推导来看的话……
第一个机会,是迁移成本低的工具。
举个例子,比如文章总结类的AI工具。
这类工具每次使用都是独立的,也不依赖我以前的历史使用数据。
所以我现在已经完全离不开Elmo Chat这款Chrome插件了(贾扬清的产品)。
它的总结效果比Kimi Copilot之类的好,而且还免注册免登录。
当然,对于这类工具也有它的弱点——
一是没啥变现机会。
只能等到竞品都死光了,可以开始插广告;或是推新功能,让自己变成全家桶。
比如类似功能的Monica,基本上什么场景都覆盖了,所以有一部分重度用户会很快把免费次数给用完。
截图/
二是迁移成本低。
用户一旦发现有更好用的工具或是平替,马上就卸载了。
假设现在Elmo Chat强制要我付费的话,我肯定马上改用其他家的产品。
第二个机会,是「只有我做得到」的场景。
比如Kimi一开始选的「长文本处理」的场景,营销上也主打这点。
不过Kimi在3月份开始卷到了200万字上下文后,文心一言、360智脑、通义千问也都开始卷长文本了(通义千问更是直接卷到了1000万字)。
而在4月份,Google提出了Infini-Transformer架构,可以让LLM处理无限长的上下文;差不多同一时间,Meta(脸书母公司)也提出了一种无限长文本技术。
换句话说,之后长文本处理变成了大模型标配,Kimi原有的优势忽然就没有了。
因此呢,创业公司跟大厂斗「只有我做得到」,确实不是那么容易的事情…
哦你可能发现了,上面这两点简单说就是「人无我有,人有我优」……
但在AI时代吧,要做到这两点,始终要靠别人没有的数据基础才行,所以难度真不是一丁点…
这可能也是为什么尽管很烧钱,大家还是在打价格战的底层原因——靠价格优势争取来更多的用户使用数据,之后才能让自己一直保持数据优势。
文章来源于“狐狸君”,作者“很帅的狐狸”
发评论,每天都得现金奖励!超多礼品等你来拿
登录 后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则