发布日期:2025-03-30 20:57 点击次数:125
从这里初始聊八月未央 自慰,
Sam Altman在X上头说自家的图像模子太受接待,导致GPU过载(原话是,“GPUs are melting”...GPU快烧溶化了);需要截止使用次数来支吾推理的需求。
这若是放在半年,一年前,通盘芯片/算力链应该狂升;然而市集却仍然在讨论微软减单,英伟达中国(FT的那篇报说念);
市集当今很熊,好音信不若何升,坏音信(就算是谣喙)狂跌。
不外咱们先退一步,不聊市集,聊聊GPT图像模子带来了什么样的叙事变化。
GPT图像模子带来的叙事变化1/ AI图像生成不是新的东西(不外此次OAI用了auto-regressive vs 之前大家用的diffusion)。不外AI图像生成,从意见到大范畴哄骗需要袭击一些门槛。第一个门槛是prompt,指示词弗成太复杂,让鄙俗用户通过一系列“半编程言语式”的指示词去改图,不施行也很低效;第二个是门槛是成果,生成的东西一股AI味,或者缺胳背少腿,都只可四肢念是一种“玩物”,而非“哄骗”;
2/ 此次Open AI的图像模子似乎跨过了这两个门槛。因何见得?望望X上头的盛况就知说念,大家(无论是专科的从业者,或者外行人)都在共享我方用GPT生成的图像。第一,指示词浮浅(用当然言语就不错修改);第二,成果好(没太多AI味,是以让东说念主更有共享欲;是以才在X病毒式传播);
3/ 之后对百行万企会有无数的变化;比方酬酢媒体,以后一又友圈不需要找像片配图了,可能不错径直给一个按钮AI生成;比方PPT,之后不需要一堆死气千里千里的排版,不错创意无尽;比方好意思图秀秀,比方电子书,比方网站假想...你不错想出好多,这里我就不赘述。AI自己便是一个通用时刻,不错和无数行业去杠杆。
4/ 不外这里我想相等挑出告白业来聊聊(告白和电商是互联网TAM最大的两个行业);当高质地+浮浅的文生图/文生视频擢升后,推选算法可能会变得愈加详尽。
为了可视化愈加显明,我作念了几张很丑的图片。大家不要在意。
曩昔的告白业,告白和内容拘泥的叠在一说念(纸质媒体期间+流派互联网期间);告白匹配用户的效用不高。告白有限+渠说念拘泥+告白TAM和告白巨头范畴不大(比如电视+流派网站)
出动互联网期间,初始流行“千东说念主千面”的说法,机器算法推选,把合适的告白推给合适的用户。告白有限+渠说念活泼+告白TAM和告白巨头延长(比如META+腾讯)
AI期间,高质地的文生图让告白本钱骤降,表面上你不错生成“无尽量告白”(比如小米SU7,不错有漫画版+后生版+生意东说念主士版+北京版+23岁的北京版+25岁的山东女生版+心爱看雷总版+心爱看马斯克版;甚特场地情况下,每一个东说念主都不错看到一个皆备不同版块的小米SU7告白);告白无尽+渠说念活泼+告白TAM再次延长(为了告白效用,更有钱的巨头会不会愈加用劲地卷推选算法?这里大家我方想)
市集关于AI的算力一直放在AI自己(图中的“AI生成”),而淡薄了围绕在AI身边的其他算力。望望这张图(要作念好那前合后仰的红线,“AI定位”推选算法需要浮滥若干算力?)。
5/ 我这种无名小卒说的话无论用八月未央 自慰,那咱们望望老黄的表述(我径直用AI机翻了)。
底下引述Jenson,
我将倒着说。这个臆测可能被低估了,但咱们进行了臆测。让我告诉你为什么……当你浏览互联网、新闻、视频、音乐,以及推选给你的家具时,因为你知说念,互联网少见万亿——我不知说念有若干万亿,丝袜内射但如实是数万亿的信息——而你的手机唯一 3 英寸见方,因此他们将扫数这些信息压缩到如斯小的空间的能力,是通过一个系统,一个叫作念推选系统的惊东说念主系统。
I’ll go backwards. The estimate is probably understated, but we estimated it. And let me tell you why…when you run the internet, the news, the videos, the music, the products that are being recommended to you because as you know, the internet has trillions — I don’t know how many trillions, but trillions of things out there — and your phone is 3-inches square, so the ability for them to fit all of that information down to something, such a small real estate, is through a system, an amazing system called recommender systems.
这些推选系统曾经皆备基于 CPU 步伐。但最近挪动到深度学习以及当今的生成式 AI,如实使这些推选系统径直参预了 GPU 加快的轨说念。它需要 GPU 加快来处理镶嵌。它需要 GPU 加快来进行最隔壁搜索。它需要 GPU 加快来从头排序,况兼它需要 GPU 加快来为您生成增强信息。
These recommender systems used to be all based on CPU approaches. But the recent migration to deep learning and now generative AI has really put these recommender systems now directly into the path of GPU acceleration. It needs GPU acceleration for the embeddings. It needs GPU acceleration for the nearest neigh bor search. It needs GPU acceleration for the re-ranking and it needs GPU acceleration to generate the augmented information for you.
是以 GPU 当今在推选系统的每一个才略中都发达着述用。正如你所知说念的,推选系统是地球上最大的单一软件引擎。险些每个主要公司都必须运行这些大型推选系统。每当你使用 ChatGPT 时,它正在进行推理。每当你听到 Midjourney 以及他们为消费者生成的各式内容时,当你看到 Getty,咱们与 Getty 和 Adobe 的 Firefly 所作念的责任时。这些都是生成模子。这个列表还在连续。正如我提到的,这些在一年前都不存在,100%是新的。
So GPUs are in every single step of a recommender system now. And as you know, recommender system is the single largest software engine on the planet. Almost every major company in the world has to run these large recommender systems. Whenever you use ChatGPT, it’s being inferenced. Whenever you hear about Midjourney and just the number of things that they’re generating for consumers, when you when you see Getty, the work that we do with Getty and Firefly from Adobe. These are all generative models. The list goes on. And none of these, as I mentioned, existed a year ago, 100% new.
6/ 上头老黄的说法可能稍稍有些进击易连结(ermm..老黄一直都有点乱)...我按照我方的连结,便是画出上头的图。
国产视频a在线观看v咱们聊AI推理,AI生成,继续仅仅聊“文生图”的这个“推理算力”,没聊到“把生成的图”,推选到对哄骗户里的这个“算力”;然而按照一个相比自洽的逻辑想路,咱们应该从告白的TAM(推选越灵验率,告白主ROI越高,TAM就越大),算到推选算法的TAM(“用AI来定位”),再算到文生图、文生视频的TAM(“用AI来生成”),再来展望算力需求。
8/ Meta的Dave Wehner曾经经说过,
推选内容,推选告白,都需要多数的算力(尤其是当今处于从CPU向GPU过度的阶段);
这是Meta的Mark Zukerberg的说法,
9/ 有时辰和一些一又友聊天,大家都在一个房间里,咱们看似都在聊AI,然而聊的是不同的东西。
比如咱们在3月19日这篇公众号提到的。
10/ 你也在用钱买capex,你也有ai开销;然而我的开销是为了推选算法(腾讯meta之类),你的开销是为了云狡计(AWS阿里之类),他的开销是为了给平台减本钱(比如电商平台给告白商AI器具);咱们聊的东西都不通常,浮浅径直去相比1200亿vs1000亿,80B或者100B,又有什么意旨呢?
最近市集的一些厌烦早上星球微信群发完,一个一又友来找我聊了一会;我用对话式的口头呈现,
A:awz/azure如故在按照20%网上的增速在跑,咱们说的并不是funky的AI哄骗/变现收入,而是愈加有可见度的云狡计收入(多家处罚层屡次提到,云狡计仍然受限于硬件);AI capex莫得太过分的泡沫;云狡计有一个愈加显明的capex逻辑,那便是不亏就行(比如只消能赚回5-6年的GPU折旧价钱);从这个角度看,你很难说这几家云厂开销有什么大问题(就算有,他们的欠债表+现款流也能皆备撑抓);
B:没错,不外英伟达增速的二阶导数酿成负数了;仍然增长,然而大家共鸣是连续增长,然而增速镌汰了;
A:最近大家都仅仅在跑分上袭击(比如grok),然而如果短暂有东说念主在算法/新的层面袭击了呢?那另外那几家会不会怕,会不会加码武备竞赛?如果你不以为时刻会在这里罢手袭击,那算力是升如故跌?
B:这个时刻袭击不错是朝上,也不错是是向下。比如deepseek,从本钱上“向下”袭击,那咱们有jevons paradox,但需要看哄骗能弗成赶上;若是能从能力上“朝上”袭击,那么算力逻辑就不错照蓝本旅途走;当今大家都是在阴霾自面射飞镖,没东说念主有时真正知说念下一个时刻袭击的旅途。
A:OAI曾经用3000亿估值融资了,看似好多,然而恰是因为时刻袭击还没成为定数(要否则就不是3000亿这样低廉了);
B: 这里咱们弗成假定一级市集的订价是正确的。本色上一级二级,包括产业界,大家都是在摸索中订价。
临了是一些大家相比关怀的蔡崇信 + FT + 微软的信息我转头了一些Q&A,
如何连结蔡崇信说的好意思国AI存在泡沫?
好意思国AI产业主要风险:
本钱高企多数模子闭源哄骗开导渐渐→高价导致擢升磨叽数据中心建树长久或供过于求(好意思国年建5-6GW vs 中国3.3GW,受限于电力穷乏)生意模式已披露问题弗成单纯连结成为“花的多”便是蹂躏,便是泡沫;而是北好意思的本钱结构+哄骗丰富度需要属意。
FT那篇,中国禁H20如何连结?
从关联部门的角度,他们可能以为国产芯片推感性能已达标(用谈判的角度来看,H20这里咱们能给压力,我方又不会耗费太多);互联网公司仍热衷英伟达,但电信公司等被要求撑抓原土替代;若关税谈判袭击,这个H20叙事可能会更强(苹果+特斯拉和制造业相关千丝万缕,不要必要时辰不搞;小公司搞了没啥影响力,英伟达酿成关税谈判的一个好“谈判办法”,有点中国版tiktok的真义,trump也把tiktok和关税放在一说念谈);这个新闻外洋无意汉典,然而原土早早有所耳闻。微软TD COWEN的那篇(音信刚出来不久星球就给了报告),
微软之后有了声明;“现存投资已充分欢欣面前及增长中的客户需求...虽会策略性地逶迤部分区域基础设施,但扫数地区都将保抓强盛增长...这使咱们能向畴昔增长界限调配资源”;这个和2月底那次传言没什么大的辩认。
主要如故因为市集厌烦太熊,看什么都是“半杯水空”,而非“半杯水满”;
接下来的一些AI催化剂。起原:180K,原文标题:《从GPT的图像模子八月未央 自慰,到巨量的推理需求》
风险指示及免责条件 市集有风险,投资需严慎。本文不组成个东说念主投资提议,也未研究到个别用户特地的投资狡计、财务情状或需要。用户应试虑本文中的任何意见、不雅点或论断是否相宜其特定情状。据此投资,背负自诩。