D Talk | 开发者到底需要什么样的算力平台?


点击关注,获取AI 算力行业洞察

D Talk 是丹摩智算分享AI信息与认知的全新栏目。

我们在这里谈论最新的AI行业观察,接地气的实践认知,也在这里与丹摩产品用户、关键意见领袖相聚。我们相信学习、记录、分享是最有效的成长路径之一,希望我们在行业的实践,能给每一个对AI怀有热情的人带来一些启迪。


下内容来自丹摩智算内容运营Yuki,公众号「产品二姐」主理人和AI相关行业从业者习习。


9月13日凌晨,OpenAI 的推理模型,也就是期待已久的 Strawberry 发布!

小编紧急召集产品二姐和习习,进行了D Talk 关于OpenAI-o1系列模型的「彩蛋访谈」。

D Talk | 开发者到底需要什么样的算力平台?

00

彩蛋访谈


OpenAI草莓系列模型发布:
媒体和OpenAI的狂欢,开发者的旁观 

Q:今天凌晨OpenAI 宣布,正式发布一款 OpenAI o1-preview 的推理模型,同时发布的还有一个更小、成本更低的版本o1 mini,两位有关注吗?有什么想法?


产品二姐: 心心念念的草莓终于发布,看了不同的报道,我有两点感想:首先媒体和openAI在狂欢、开发者在旁观


为什么这么说呢

借用我们接下来的谈话中会提到的类比:大小模型就像「宰牛和杀鸡」。我理解openAI这次的计划就是在做一把「超级宰牛刀」,从自家评测来看确实各方面提升很大,比如完美解决了「农夫要把狼、羊、白菜都带过河的问题」,当然这种提升也包括价格。至于真正是否具有宰牛能力,还要放在真实的牛场里测一测,我们等待时间的考验吧。

而媒体大众却习惯于用这把牛刀去杀小鸡, 关于9.11和9.8哪个更大、或者是strawberry到底有几个r的这类问题,经过各种调戏,草莓也被玩不懂了。

媒体大众和研究者们走向了上天入地两个极端:

  • 大众希望学霸能下地,接地气;

  • 学霸在拼命挑战上天,触摸科学高度。

但作为应用开发者,我更关注天地之间的应用,至于strawberry 有几个r,农夫要如何把狼、羊、白菜都带过河,都有点偏激了。其实这也恰恰是应用开发者的机会:如何根据用户的指令上下文来决定什么时候用宰牛的大气势,什么时候用杀鸡的小把式。似乎OpenAI自己是不太会做这件事了。

另外一个感想是:openAI指出了一条确定性很强的技术精进道路:Self-RL(自我强化学习)。

我还没来及细细研究Self-RL,但最近一段时间确实看到了一些AI自我进化的观点和项目,比如前几天,西云组织的一场峰会上,波形智能分享的 《Symbolic Learning Enables Self-Evolving Agents》也是一种自我进化,还有斯坦福的开源项目DSPy是在对提示词的自我进化。这些似乎都代表着在预训练、SFT的初始化训练之后,各路模型进入常态化的强化学习状态。就像自动驾驶,不管在实验道路上经过多少次评测,都要拉出来跑跑,边跑边训才能走向大众。

从自动驾驶诞生到现在,至少经过了几十年的沉淀。今天,我们终于看到它正在攻破技术、伦理、法律、道德的一道道防线,开始走向千家万户。大模型的时间可能会快一些,毕竟ta对安全、生命的威胁不像自动驾驶那么直接,但它仍然需要时间。作为开发者,我们不必等它完美才开始应用它,我相信只有跟着ta一起成长才是更快的成长方法。

习习:草莓发布最直观的感受是大模型也不继续全靠scaling law往上堆模型尺寸,而是通过强化学习这种多样的技术路线去提升能力了;

另一点还是比较期待对下游的带动,大模型文科生开始进军理科了,数理能力的加强会对整个模型能力提升还是比较重要嘛,也期待能给像AI for science还有应用落地等场景带来更多应用的想象空间嘛,但具体提升了多少帮助多大,可能还需要一段时间才能判断。

D Talk | 开发者到底需要什么样的算力平台?


01

大小模型之争:
并非对立,而是相互融合,协同发展

Q:关于大小模型,一直都是AI领域里非常有争议的话题,两位有什么看法?
产品二姐:作为一个独立开发者,我觉得过去「AI一天,人间一年」这种阶段,会逐渐冷静下来。我看到了很多和我一样的独立开发者,开始微调自己的模型,而不仅仅是使用大厂的API。
通常意义上来讲,大小模型更多是通过模型的参数来定义。小模型,比如说千问的70亿模型,这算是小模型;那么大模型就指的是类似GPT4这样 (传说中大概有万亿参数的一个量级)。就像历史上的大型机和小型机,现在很多云厂商,阿里、谷歌、Azure、微软,还有亚马逊云,相当于大型机,而千家万户的个人电脑就是小型机,历史上也曾有过大小计算机之争,但它最后还是融合、并存
习习:从最开始几年前大模型出来,初期大家是去卷它的尺寸嘛,那时候叫「大力出奇迹」。到今年开始看到一个趋势,从 GPT 开始,还有很多家公司,尝试在从最初的「做大做强」转去「做小做精」。无论从模型本身的性价比考虑,还是单从实用性出发,如果大家希望AI 能够像我们最初设想的那样,去走进千家万户,出现一些小模型和垂类模型还是非常必要的。我们现在可以观察到很多企业,尤其Developer个人开发者和 SMB 的初创企业,大家非常明确的知道:需要用性价比更高的模型,用在特定场合解决特定问题的模型,更能把模型成本打薄,进而让模型更普及。所以我感觉只有这些大模型卷尺寸肯定还是不够的,还会需要很多垂类模型大小协同去组成整个计算生态
如果有一天能够 AI 走进千家万户,大模型真的能在我们的生活中作为copilot甚至Agent,在我们的每一个行为中它都能帮上忙,那很可能是大小模型协同、端边协同的。
Q:我们很期待垂类的大模型出来之后,它能去改变我们整个应用的生态。那可不可以理解为,不存在大小模型之争,而是说我们需要去探讨怎么样去把它们融合得更好?
习习:对,我觉得小模型最大的优势是成本低;现在讨论,我们会考虑成本,除了训练成本,还要考虑推理的成本和流程改动的成本
很多垂类模型只需本地化部署,比如智能制造为例,一个较小的垂直领域模型,用于识别特定任务,可能仅需一台设备。然而,采用端到端的大型云端模型解决整个产业链问题时,考虑的不仅是本地部署与API调用的对比,还有整个产业链和工作流解决方案中AI模型部署的复杂度和难度
成本评估不仅涉及API调用与小模型的对比,而是需要综合考虑软件、硬件、需求匹配度、投入时间、部署难度、产业链整合、稳定性等因素,以确定最易实现的方案。
Q:有个比较有意思的比喻,把大小模型比喻成「小模型杀鸡,大模型宰牛」两位怎么看待这个比喻?
产品二姐:这个例子我觉得很形象,在我的概念里面,原来大模型和小模型它就是参数的大小,会引起它对算力的变化。比如说你有 1B 的参数,你光要把十亿的参数量,这些数存在显存和卡里面,它都是要消耗比较大的内存的。
小模型如同杀鸡,简单且资源需求小;而大模型则似杀牛,需要团队协作和高效的资源管理。多卡协同工作时,通信效率和资源损耗是关键因素,单纯增加资源并不总能带来线性的性能提升。
这个时候我怎么能够最大能力的让它达到最佳效果?也就是这些杀牛的人如何快速的从各个方向把牛给抓住,然后再用一把大刀砍下去,这个成本也是需要算力平台公司去考虑。

02
企业构建专属小模型:
做小做精,成本比想象中低很多
Q:二姐之前有提到过「蜘蛛大脑」「狗狗嗅觉」,对于一个公司去构建他们自己小模型,这之间有什么样的联系吗?
产品二姐:这是我听过的一个很有意思的播客分享的内容。这个播客的嘉宾是学脑科学的,他会去看小动物的大脑。比如小蜘蛛,它的大脑可能只有几百万个,而人的大脑可能有万亿个。但是小蜘蛛特别能织丝,或者它特别能找到方向,不管风怎么刮,它永远都能织成一个漂亮的蜘蛛网,那说明它就是更专。假设在工作中,蜘蛛就是用来织丝的,那它可能织丝就比人和大模型织的还要好。狗狗的嗅觉也是一样,它可能在神经区的某个区域,对嗅觉特别灵敏,它就可以比通用的人工智能、我们自己通用的大脑厉害多了。

D Talk | 开发者到底需要什么样的算力平台?

习习:我觉得蜘蛛大脑和狗狗嗅觉的那个例子其实还蛮有意思的。之前我也想过怎么比较简单地去解释、训练、微调和推理几件事情。人类基因中蕴含的生物演化模型,经过几十亿年的进化,为我们预设了基础能力。我们的日常学习则是强化学习和模型微调,而考试或比赛则像是对训练成果的最终检验,将所学应用于实际。这个比喻揭示了人类演化与机器学习过程之间的相似性。
我之前还看到过一个观点,它比喻人类本身,或者说人类写在自己基因里的其实是一个几十亿年生物演化成的一个大模型,给我们每个人都预制了一个大模型,它的微调有点类似于我们在每个人后来的成长和发展中都会选择一个自己擅长的领域,然后在那个领域不断的练习,不断学习,然后从而在某一项领域取得正特别好的成绩。最明显的像全红婵在内置的模型基础上,通过不断的练习,在跳水方面取得了非常好的成绩。
D Talk | 开发者到底需要什么样的算力平台?
自然界的自然筛选都很像一个预训练。我们的一些学习,是一个微调的过程;推理更像是一次去考试或者一次去比赛,我们用之前训练和微调取得的一些好的成果去进行一个最终的检验,或者最终去输出一些真正的结果和应用。这个例子让我想到人的自然演化,蛮有意思的。
产品二姐:我觉得习习这个比喻非常好,我有了另外一个受启发的点。我们的大脑进化了几百万年,才进化成我们现在这个样子,但是人工智能实际上诞生了也就几十年,现在进化成这个样子已经真的是非常厉害了。
当我们真的进化出来一个还是比较强的大脑的时候,就会有社会的力量来去训练它,最后人类和模型相互的去促进,慢慢的去发展。就是这是我觉得未来人和机器之间是,它是一个相互辅佐、相互前进的一个过程。
习习:人脑是一个非常精密的仪器,它对于算力的需求其实很少,很多人说我们一个脑子里内置一个几百 B 的参数,每小时耗 5 瓦。无论是模型训练、微调还是模型,现在的推理显然离这个过程还有非常大的距离。我们之前也说 GPT 它可能性能已经马上就要追上人脑了,但它的功耗距离人脑还有很长一段路要走
Q:两位在微调模型过程中,实际开销如何呢?
产品二姐:我觉得用的真的比想象中少。最开始我使用0.5B参数的模型在本地电脑运行非常慢,但通过GPU加速,比如P40或T40芯片,一两分钟就跑完了。
所以我对开发者的建议就是微调,如果你只是用来练习的话,网上有很多开源的项目可以用来去启动。你直接去买算力,肯定是比你自己本地跑一两个小时是要好得多,可能也就花了几毛钱到一块钱的样子。
微调本身是一个「炼丹」的属性,当你学会了怎么微调,或者你体验到这个微调的效果之后,接下来你就应该去为你的业务目的去开始服务。如果你的目的是为了让它回答更准确,还是为了让它识别某个东西,还是为了让它真正的 take action?这些你都可以在类似 Huggingface上找到很多示例。你可以直接去学习,去搜索就可以了,这是我给大家做的一个建议。
习习:我早年是学 AI 的,我们当时很典型的就是以实验室为单位去购买服务器成本是非常高的。很多先进的模型,目前还停留在算法层面或理论层面,很大的概率我认为仍然是算力不足;或者说整个大模型火了以后,很多人手热——我自己有一定的开发能力,我有热情和兴趣,我拿一个模型过来练练,在这个情况下你花大几十万、几百万去买GPU,对于很多人来说是还是成本很高。
因此,现在不论是个人开发者还是学生,肯定会考虑租的模式,像丹摩智算平台,还有比如二姐提到的 Huggingface 开源模型,还有大量的数据集,还有开发者工具,对于小白很友好,相对的成本没有那么高。如果从这个层面来看,大模型走入千家万户确实指日可待。
这里插入一条硬广
现在丹摩智算平台拥有非常丰富的 GPU 各类资源,并且价格非常实惠,能让大家以一个非常低的成本来试用!

D Talk | 开发者到底需要什么样的算力平台?


丹摩目前也有一系列活动,包括开学季GPU半价节、1000元算力代金券招募体验官等!如果大家感兴趣的话,可以点击上方logo或者官网链接,免费试试!

03
智算平台的理想图景:
资源充足,一键微调
Q:二位都是丹摩的真实用户,想问问体验感如何呢?
产品二姐:作为一个丹摩的用户,我知道丹摩的价格是不错的,并且现在也有优惠。另外一个就是我知道丹摩好像也有很充足的后备力量对吧?
习习:是的,正好我前段时间刚去过丹摩智算位于宁夏中卫的机房,去看了看我们现在新建的机房和储备的供应
首先宁夏中卫是一个非常适合旅游和部署算力中心的地方,它有较强大的自然能和比较优越的自然条件,可以通过大量的光伏发电、风力发电去节约很多的能量成本。同时宁夏也有「东数西算」的概念,这也是很多人现在做 AI 行业,尤其是做 Infra 行业,在实际上回归本地大家会去考虑的点。从中卫飞回北京的路上,能看到目之所及都是大片的光伏板,不止是我们丹摩的家,还是很多运营商的算力中心,都在越来越多的转向低碳环保可持续的绿色能源
目前丹摩已经上线了大量的4090、P40、L40,还有最新上架的 H800(据说还是半价), 丹摩平台有一个非常稳定的一个供应链,有非常强的供应能力从 AI Infra 的角度去支撑整个的 AI 行业。

D Talk | 开发者到底需要什么样的算力平台?

Q:两位在使用丹摩后,有什么建议吗?或者对于类似的GPU平台有什么期待吗?
产品二姐:丹摩是有实力的,我作为丹摩的真实用户,也是一个开发者的角度,我觉得丹摩需要适应不同的场景。就比如刚才我们谈到说企业对于 AI模型的开发,需要微调的频次特别频繁。从一个完全不懂微调的小白,到现在我们开始上手做一些微调,然后看到效果,这个过程中其实也蕴含着对丹摩智算平台的一些隐性的需求。
当我们开始着手训练AI模型时,首先得选一个简单、成本又低的例子来练手。比如说,我们的目标是调整一个情绪判断模型,那就需要收集大量的数据,比如Twitter上的评论或者亚马逊的产品评价,让模型学会区分正面、负面或是中性的情绪。在过去,这些数据的标注工作都是由人工来完成的,但现在,我们有了更高级的大模型,它们可以自动完成这些任务,这就是数据集准备的现代化方式
数据集准备好之后,我们还得构建一个基准线,也就是用这些数据来测试一下我们准备微调的小模型在未经训练前的表现如何。这就像是给模型一个初步的考试,看看它能得多少分。如果分数很低,那可能就得考虑换个模型了。接下来,我们得挑选一个合适的开源模型。这就像是找到了一个有潜力的种子,只要稍加培养,就能茁壮成长。如果微调后的模型能达到80分以上,那就意味着我们的努力是有成效的。为了准备数据集,我们可以借助大模型的力量。比如给模型一些例子,让它生成更多类似的例子。这样,我们就有了足够的数据来进行训练。
开源模型的世界里,有很多工具可以帮助我们进行微调,比如Llama Factory这样的微调框架。它支持多种数据格式,我们只需要按照它的要求格式化数据,然后选择一个合适的微调模型和方法就可以了。对于大多数开发者来说,Lora微调是一个不错的起点。在Llama Factory中,微调就像是一个即插即用的电脑部件,你只需要选择你想要使用的方法,然后点击运行,它就会开始微调工作。微调完成后,模型会给出评分,这个过程会有一个大概的时间估计。在微调的过程中,我们也希望平台能提供一种可视化的监控方式,让我们能够实时看到模型的表现,比如loss函数是如何逐渐下降并收敛的。
最后,微调通常是在单卡上进行的。在这个过程中,我们可能会遇到一些技术挑战,比如内存问题。但根据我们的经验,大型模型在高性能硬件上运行通常是比较顺畅的。我们也希望平台能提供更多的监控工具,让微调过程更加透明和可控。

D Talk | 开发者到底需要什么样的算力平台?

Yuki:我听懂了,二姐就想要一个「一键微调」平台。光是大模型的黑箱还不够,二姐还希望把这些其他的步骤也都黑箱进去。这边数据输进去,那边模型输出来,就是一键无痛微调。
习习:哈哈,这让我想起在AI领域,有句很有名的话:「算法工程师70%的时间都在处理数据」。我们大部分时间都在寻找、整理和标注数据。现在有些大模型开始自动化这一过程,未来我觉得有望进一步减轻人工负担。
数据处理完成后,我们通常会进入超参数设置阶段,选择一个合适的模型框架,并在我们的数据集上进行初步测试。测试后,如果效果不理想,我们可能会更换框架;如果效果可以接受,我们就会进行参数调整,优化模型,看看是否能进一步提升性能。
训练小型模型和微调的过程非常相似。然而,如果从0开始预训练大型模型就没那么简单了,因为部署一个大型集群并花费大量时间进行训练,如果结果不理想,修改的成本会非常高。
据我的了解,国内真正有大型模型端到端训练经验的人才并不多,因为训练的成本太高。这使得大型模型训练的工程难度和需求急剧上升。有时候我在想,如果只有1万张图片,无论是人工标注还是模型自动标注,都相对简单。但如果有1亿张图片,就需要10个图片工程师进行预训练,光是统一这10人的标准就需要开会讨论,对齐颗粒度两周,哈哈。
因此,如何将1亿张图片存储在服务器上,以及如何高效地在众多CPU和GPU之间传输参数和梯度,都是极具挑战性的问题。尽管如此,微调和传统小模型训练之间仍存在一定的相似性,这让我们看到了一键训练的潜力。当然,实现一键训练大型模型仍有很长的路要走。

开发者所期待的智算平台:

D Talk | 开发者到底需要什么样的算力平台?

1. 降低开发门槛:

提供简单、低成本训练场景:帮助企业快速入门,进行初步尝试。

自动化数据集准备:利用大模型自动生成数据,减少人工标注负担,提高数据质量。

2. 提升开发效率:

丰富的开源模型库:方便开发者选择合适的模型,并进行微调。

多种微调框架支持:例如Llama Factory,提供即插即用功能和可视化监控,简化开发流程。

一键微调功能:自动化数据准备、模型选择、参数设置等步骤,降低开发门槛。

3. 优化开发体验:

可视化监控工具实时观察模型表现,例如loss函数变化,及时调整参数。

解决技术挑战:例如内存问题,提供更多监控工具,保证微调过程透明可控。

4. 针对企业需求:

频繁微调:企业需要频繁微调模型以保证产品准确性,平台应提供便捷的微调工具和资源。

数据飞轮效应: 企业可通过数据积累和模型优化构建业务壁垒,平台应提供数据存储和分析工具。

Q:关于一键微调,从具体实际操作上是不是还有难度?
产品二姐:我要替产品经理说句话,当一键微调上线之后,我觉得产品经理可以不用求算法工程师去微调
首先,在 AI 时代,数据集的重要性其实是不言而喻的,因为我们现在所有的算法可以说是被神经网络统一了。我这个话说的有点夸张,但是我觉得它是目前的一种现象,全世界所有的算法工程师主流的算法都是透明的,它的底层就是神经网络,就只有一种算法。其实这个时候大家相当于在同一条起跑线上。
第二个就是算力。它现在之所以成为一个壁垒就—— GPT5 为什么还没出来?其实就是英伟达的卡,它还没生产出来,就是说要做 GPT 5。英伟达的卡出来之后他还要组个集群。因此在算力上面,目前也是有一些壁垒的。
另外一个就是数据,可以说数据是唯一一个可以被小个体、小微个体、小企业抓住的东西。如果说现在是用数据去定义这个模型的话,把这个小模型作为一种产品,我们原来是用产品经理,是用一些业务逻辑来去构建这个产品;那么将来产品经理可能就是用来定义数据集去构建这个产品。举个例子,有同样的一段话,我放在这个场景里面,它应该输出这个内容,我放在另外一个场景里面,它应该输出另外一个内容。那这个时候就是产品经理去定义说在什么场景下应该用这个模型,什么场景下应该用那个模型,这样就变成了说你怎么通过数据堆去定义你的产品。
在这里这里我们会进入一个数据的飞轮,我的数据越好,用户使用的越多,然后模型越好,数据越好,用户使用的越多,最后它就构成了一个正向的一个数据飞轮。我觉得这是所有小微企业构建自身业务壁垒的方式,因为大企业可以用技术压倒你,但大企业并没有小微企业的数据。
D Talk | 开发者到底需要什么样的算力平台?
习习:算力这个东西不是一般的人能玩得起的。在算法层面虽然大家模改的框架比较多,但其实感觉不光是为了它提升的性能,还有很多是为了整个模型的稳定性。这就好像最开始说的,不论是训练还是微调,这个数据是你给它的练习册,你如果给它《5 年高考,3 年模拟》,它一定就研究透了,也肯定能在这方面考的不错。但是如果你给它二百本儿童画本,然后你让它去参加高考,肯定是对不上的。
很多时候这个模型在某项任务上性能如何,最依赖的可能就是你给的数据质量,这也很符合我们对于训练和推理的一个直观理解。你教全红婵练跳水,也只能让她去比跳水,你让她去比举重,肯定是没有一个很理想的结果的。
Yuki:这个数据飞轮和数据对于模型的影响,前段时间我跟一位 AI 行业资深的从业者和做向量数据库的一个朋友聊天,他给出了一个非常有意思的概念,对于从传统机器学习到大模型的时代的一个很好的概括。他说从传统编程到神经网络,再到现在大模型,其实是一个数据的占比越来越大,编程逻辑的占比越来越小的过程。
习习:是的,我之前和宽带公司田总讨论的时候,他提出「数建Dataware」这个概念。他认为,在传统数据处理时代,数据在逻辑层面的作用并不显著,它们主要被视为静态的存储值。然而,随着神经网络技术的发展,数据开始被用来提取特征,而现代大型模型的性能在很大程度上依赖于数据的质量。我们都认同,我们可能正处于一个数据智能为核心,或者称之为「数件」的时代,这也许标志着软件工程的一个全新阶段。
04
Software 2.0 VS Software 1.0:
我们还有多远的距离?
Q:对于现在大家讨论的Software2.0,二位的理解是什么?
产品二姐:Software 2.0,在我看来,代表了自1956年以来人工智能领域两大流派的融合。虽然不能说随着数据在模型中的重要性日益增加,基于规则的人工智能就会消失,但确实,传统的基于规则的AI技术仍然有其存在的价值。
这种融合的必要性可以通过一个普遍现象来说明,即「Code Interpreter」的应用。比如你想要创建一个网页,并且希望这个网页能够根据用户的交互变化颜色。在过去,这需要开发者编写具体的业务逻辑代码。但现在,通过大模型,你只需描述你的需求,模型就能自动生成相应的代码,实现前端页面的动态渲染。这个过程展示了AI如何理解自然语言指令,并将其转换成Software1.0时代的规则,实现了规则与数据的和谐融合。
从历史上看,1956年以来,人工智能领域主要分为两大流派:符号主义和连接主义。符号主义派发展出了各种计算机编程语言,而连接主义则专注于神经元之间的连接。这两大流派在过去几十年中一直各自独立发展,甚至有些图灵奖得主因为理念不同而产生分歧。但现在,它们终于融合在一起,就像两条小溪最终汇入同一条大河
我常常在想,我觉得我们很幸运,能够在我现在职业生涯还没有结束的时候遇到这样一个契机。人生可能真的没有这么几次的机会,我觉得对于大家来说也是去赶在时代浪潮的这个前沿是个非常好的机会。
习习:我们都要工作到 65 岁,哈哈。我们有这一轮的机会,下一轮的机会,还有下下一轮的机会。我们必能经历AI Workflow、AI Copilot 到 AI Agent

D Talk | 开发者到底需要什么样的算力平台?

Q:如果未来还想赶上这波浪潮,有没有什么比较好的建议给大家呢?
习习:我毕业后正好是 AlphaGo 火之后相对的 AI 低谷,所以也离开过这个行业一段时间。最近又重新去了解这个行业,其实很多时候最早回来是出于 FOMO,就是 fear of missing out。最开始我来回看这件事情,是出于一个焦虑导向,就像二姐刚才举的例子,我们在追这个时代的浪潮,并且很多时候是非常焦虑的,怕被这个时代落下。尤其是我们这些要工作到 65 岁的人。
我们很难预测 AI 行业会发展成什么样子,它会不会受很多各种各样因素的影响,或者说它是我们所谓的 AGI ,AI Agent 去代替人工,它是一个三年、五年、十年,还是一个甚至更长的时间才能够实现。这些事情让我们很难去判断这个趋势会变成什么样子。目前来看是会对我们的生活多多少少产生一些影响;这些影响可能会是非常有趣的,无论是最早使用 GPT 去讲段子也好,或者让他去生成一个梗图也好,或者现在像 GPT 或者 Kimi 这些软件,他们的英语翻译能力越来越强,会对我真正的生活产生帮助。
只要你开始去用,开始去试,开始去打破自己之前习惯的思维方式的舒适圈,去尝试一下 Software2.0,去接触这个时代,就会发现它就像年轻人使用智能手机一样,并没有太高的门槛,而它的门槛会越来越低,可以使用的人会越来越多,可能进来以后会发现很多东西,那我觉得一旦踏进了这一步,开始去看大家干什么,就已经跟上这个时代了,因为还有很多人他还没有开始。其实是个蛮好玩的事情,这个行业真的挺有意思的,先搞搞看,毕竟 GPU 还可以靠租,这个门槛其实并不高的。
Q:两位认为大模型会是下一场泡沫吗?
习习:个人感觉现在大模型还是有一些泡沫在的,虽然论文和demo看起来很漂亮,但实际落地还是有很多难点,人类的接受度也并不高。这有点像量子计算或核裂变提供能量的概念,很多人都听说过,但实际上从学术界到被普及,可能会是需要很长时间才能实现
同时,AI还面临着强烈的挑战类的接受度并不高,这让我们担心它可能只是一场自娱自乐的游戏,或者是一个遥不可及的未来梦想。我们担心AI的发展可能只是学术界的自嗨,或者是一个需要很长时间才能实现的远景。
产品二姐:当时有一个强化学习在生活中有一个很好的案例。应该就是iRobot公司的Roomba系列就是通过强化学习算法优化其清洁路径,以提高清扫效率。这类机器人通过不断学习和适应家庭环境,能够自主规划清洁路线,减少重复劳动,从而为用户节省时间。现在好像看起来强化学习用的比较多的就是AlphaGo。
习习:我想起来我当时做的方向是医学图像,我非常担心这个行业,哪怕它的性能已经够好。人们要花多长时间才能够接受这件事情?就有点像现在有些人对自动驾驶不太信任,认为有一些鸡肋,感觉社会去接受它需要一个很长的过程。但这次和之前还不太一样,那就是大家会对这个东西有点过度期待。很多人看到大模型以后就觉得他必然什么都能做,但显然它在性能上,尤其在 ToB 的行业中去做一些事情还是会有一定局限性
其实我觉得一个新的技术的出来,必然会有一些人去过度宣传这个技术。不论是从跟资本博弈的角度去考虑,还是人民的兴奋程度上,我感觉很多技术出来,人们会过度宣传这个技术,或者过度评估这个技术,它必然就会导致一些泡沫
Q:对于新出现的技术在人潮中产生的不同反应,二位怎么看待?
产品二姐:我特别反感很多的视频里面说:“哇,你看这个视频这个是怎么厉害!”其实真正的经过我们尝试之后,其实也就是个 demo 的样子,给大家反倒造成了很多很多的焦虑。
习习:我倒觉得可以两面看这件事情,这个泡沫也有一点好处,它会让更多的普通人去逐渐接受。因为一个产品的推出它是需要技术和市场都做好准备。很多时候如果没有这个泡沫,可能技术做好了准备,但市场还没有做好程度去接受这件事情。
当时做医学的时候,我们的那个误判率大概在10%。其实医生的误判率可能也很高,但是大家很难去接受一个机器对人的误判。或者说一些法律政策它没有办法去定义,就好像现在自动驾驶撞的人我很难去界定责任一样。我觉得一些宣传和推广也可以在一定程度上去让市场和人们大家对它有一个过度预期,可能它会慢慢这个市场就会做好准备去接受这件事情。
对未来抱有一个比较乐观的状态,包括投资人会让大家对未来有一个比较乐观的期许。对于外界人士来说,这也是一个资本和市场做好准备去接受这个产品和这种商品的一个事,但是从业者本身还是要清醒。因为很多时候业内的人像二姐,她作为一个资深的产品经理,她肯定要把一个技术的边界摸清楚,这是设计出一个好的产品的前提。
产品二姐:可能这就是浪潮的魅力,一个浪过来,它一定有泡沫和浪花,虽然这个浪花有时候会消失,但是我们不能因为这个浪花就不去做这个事情。从我去年到现在一年在浪里边冲了一段时间之后,至少我目前我是非常有信心的,我相信这个浪潮它还会持续下去,尽管它的媒体上面它可能会有一段时间的下降。
Q:二姐可以总结一下自己的经历和收获吗?
产品二姐:在过去的一年里,我对互联网时代到移动互联网,再到AI时代的转变有了深刻的认识。对于产品经理而言,这种转变意味着需求挖掘的方式正在经历一场范式革命。
网上有个段子说,「我们应该先看到钉子,然后去找锤子」,但实际情况往往是,当新技术和新时代的产品出现时,我们总是「拿着锤子去找钉子」,因为需要钉子的人并不知道锤子的存在,他们只能在自己的想象中构建解决方案,而不知道有更好的方法。
我记得奔驰的创始人的妻子,她是史上第一个完成了汽车的一次长途旅行,从她的家回到她的娘家,经历了 100 公里的旅程。那个时候她走在路上的时候,所有的人都用异样的目光来去看这个奇怪的机器,甚至有就觉得这可能是一个魔鬼,就远离她。这个时候你看她就是在用这样一个锤子去找,说我是不是有更快的方式来到达我的娘家,她就会去勇敢地尝试。所以,作为产品经理,我们不应该害怕拿着锤子找钉子,而应该不断尝试,探索锤子能解决哪些问题
第二个转变是研发流程的革新。这里我再举一个例子,比如说我们在 90 年代的时候,那个时候电子表格(就是大家现在看到的 Excel 的电子表格),在 90 年代可能每次都是有专门的数据操作人员来去完成一个表格的生成。如果我现在是一名财务人员,我可能会说我要生成这样一个报表,然后这个里面是啥?那个里面是啥?这个横坐标是啥?纵坐标是啥?它每次都要把这个信息传递给一个专门做数据的人来去做。
但是当 Excel 表格、电子表格出现的时候,就把这个人一部分的工作给取代掉了。换在现在的场景里面,就是产品经理能够通过一些 Agent 搭建平台,如Coze、Dify,这些平台能够搭建出自己的一个小MVP,在不需要代码的情况下用自然语言编程的方式来完成。其实它会让整个研发流程加快,也就是你提一个需求,你不用等着开发去做,你可以自己搭建一个MVP,可能把这个产品 70% 的价值能够搭起来。
第三个是关于知识软件的定义方式。过去,我们通过规则来定义软件,但现在我们用数据来定义。产品经理需要承担起构建数据集的责任,以确保模型能够按照预期工作,而不仅仅是绘制业务流程图。
这些是我觉得对于我在去年一整年之后软件开发流程范式上面的一些体会。目前它还在非常模糊的一个阶段,但是我相信它会慢慢的变得清晰起来。
AI 的产品可能不会像之前「人间一年,AI一天」这种快速变化的感觉,但是这个时候往往是入局者比较好的时间;或者说蛰伏者,在这个时间去积蓄自己的力量,然后去做一些拥抱未来的事情,等到未来的下一个浪再来的时候,你就能接得上。



<
 推荐阅读
>
D Talk | 开发者到底需要什么样的算力平台?
NVIDIA 初创加速计划 | 2024 NVIDIA 创业企业展示银川站圆满收官 (qq.com)
END

原创文章,作者:产品二姐,如若转载,请注明出处:https://www.agent-universe.cn/2024/09/12808.html

Like (0)
Previous 2024-09-13 18:36
Next 2024-09-14 21:00

相关推荐