我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。
https://www.feishu.cn/community/article/wiki?id=7355065047338450972
点击「订阅社区精选」,即可在飞书每日收到《大模型日报》每日最新推送
学术分析报告:ResearchFlow — 奇绩F23校友的开发的深度研究产品,PC端进入RFlow的分析报告,可直接点击节点右侧的小数字展开节点,登录后可在节点上直接“询问AI”,进一步探索深度信息
如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。
欢迎大家一起交流!

非常感谢一直以来大家对101文档、llmspace公众号、小红书大模型空间站的喜爱与支持~为了进一步打造高质量的AI社媒账号并且帮助大家链接资源,我们欢迎大家花1分钟来填写【反馈问卷】,一起打造更优质的AI交流平台!

资讯
OpenAI取消o3 AI模型,推出统一的下一代产品
OpenAI决定取消原计划发布的o3 AI模型,转而推出一个更为“简化”的新产品。公司CEO Sam Altman在社交媒体上表示,OpenAI将于未来几个月发布GPT-5,该模型将整合OpenAI的多项技术,包括o3,应用于ChatGPT和API平台。因此,o3将不再作为单独的模型发布。此前,OpenAI曾计划在今年年初发布o3,且几周前,OpenAI首席产品官Kevin Weil曾表示,o3定于“2月到3月”之间发布。
Altman解释称,公司希望通过简化产品提供方式,使AI产品更加易用,不再让用户感到困惑。为此,OpenAI决定推出一个“统一智能”的平台,让AI“自然而然”地工作。新的GPT-5将在“标准智能设置”下提供无限制的聊天访问权限,但会设置“滥用阈值”。同时,ChatGPT Plus订阅者可以使用GPT-5的“更高智能水平”,而ChatGPT Pro订阅者将享受“更高一级的智能”。此外,GPT-5将包含语音、画布、搜索、深度研究等多项新功能。
在GPT-5正式推出之前,OpenAI还计划发布GPT-4.5(代号“Orion”),预计将在接下来的几周内发布。Altman表示,这是公司最后一款“非链式思维模型”,而不像o3等推理模型,链式思维模型更可靠,尤其在数学和物理等领域具有更高的表现。
OpenAI似乎正全面拥抱推理模型趋势,这种模型可以自我验证,从而避免常见的错误。虽然推理模型的计算时间较长,但它们通常更为可靠和强大。此外,OpenAI还注意到中国AI实验室DeepSeek的R1模型在多个基准测试中与o1相匹敌,且R1是一个开放模型,允许开发者自由下载使用。Altman承认DeepSeek的进展使OpenAI在技术上的领先地位有所削弱,表示OpenAI将加快推出更新以更好地应对竞争。
据报道,GPT-4.5(Orion)在性能方面面临一些挑战,未能比其前任GPT-4取得显著的进步。

https://techcrunch.com/2025/02/12/openai-cancels-its-o3-ai-model-in-favor-of-a-unified-next-gen-release/
人形机器人投资机遇
人形机器人领域迎来新的发展机遇。智元机器人推出全球首个4D世界模型EnerVerse,解决了机器人动作规划中的动态操作空间理解与长序任务记忆处理问题。EnerVerse通过自回归扩散模型和创新的稀疏记忆机制与自由锚定视角(FAV)方法,为机器人未来动作预测提供全视角4D世界模型,优化记忆处理能力。其在视频生成和动作规划方面表现出色,尤其在长程任务中展现出更强的逻辑一致性和连续生成能力。同时,OpenAI被曝重组机器人团队,重回硬件布局,招聘电子感知工程师、机器人机械设计工程师和技术项目经理等岗位,目标是开发通用、自适应和多功能的机器人,形成自给自足的产业链。OpenAI此前曾解散机器人团队,此次重返机器人领域,显示出其策略上的转变。

https://mp.weixin.qq.com/s/-XsV-o95xiPTLsx7RushKg
推特
00Arxiver开源:包含 138,830 篇 arXiv 论文的多Markdown格
Transformer中的注意力机制:概念与PyTorch代码实现
全新短课程:《Transformer中的注意力机制:概念与PyTorch代码实现》
上周,我们发布了一门关于LLM Transformer工作原理的课程。本周,我们将更深入地探讨注意力机制背后的技术思想,并学习如何在PyTorch中实现它。本课程由 StatQuest 创始人兼CEO Joshua Starmer 共同打造。
注意力机制(Attention) 是 Transformer 结构的核心突破,使其成为支撑大型语言模型(如 ChatGPT)的关键架构。Transformer 由 Vaswani 等人在 2017 年的论文《Attention Is All You Need》中提出,因其高扩展性迅速发展并广泛应用。
在本课程中,你将学习 Transformer 语言模型中的注意力机制是如何工作的,并在 PyTorch 中实现它。你将深入理解如何构建可靠、可扩展的 AI 应用。
• 理解注意力机制的演变,它是 Transformer 发展的关键突破。
• 探索 词向量(word embeddings)、位置编码(positional embeddings)与注意力机制 之间的关系。
• 学习 查询(Query)、键(Key)和值(Value)矩阵,以及如何在注意力机制中生成和使用它们。
• 详细解析计算 自注意力(self-attention)和掩码自注意力(masked self-attention) 所需的数学原理,理解其作用及工作方式。
• 探讨 自注意力(self-attention)与掩码自注意力(masked self-attention) 的区别,了解如何在 编码器(encoder) 中构建上下文感知的嵌入,以及如何在 解码器(decoder) 中用于生成式任务。
• 深入学习 编码器-解码器(encoder-decoder)架构、交叉注意力(cross-attention)和多头注意力(multi-head attention),以及它们在 Transformer 中的应用方式。
• 在 PyTorch 中编写 自注意力(self-attention)、掩码自注意力(masked self-attention)和多头注意力(multi-head attention) 的实现代码。
报名链接:https://deeplearning.ai/short-courses/attention-in-transformers-concepts-and-code-in-pytorch

https://x.com/AndrewYNg/status/1889766176059994166
OpenAI o1 和 o3-mini 现在在 ChatGPT 中支持文件和图片上传,o3-mini-high提升上限
📁 OpenAI o1 和 o3-mini 现在在 ChatGPT 中支持文件和图片上传
⬆️ o3-mini-high 的使用上限对 Plus 用户提升了 7 倍,每天最多可达 50 次

https://x.com/OpenAI/status/1889822643676913977
00Arxiver开源:包含 138,830 篇 arXiv 论文的多Markdown格
OpenAI发布关于模型规范的更新
今天我们分享了模型规范(Model Spec)的重大更新——这是一份定义我们期望模型行为方式的文档。
这次更新强化了我们对可定制性、透明度,以及使用AI进行探索、讨论和创造的智识自由的承诺。

https://x.com/OpenAI/status/1889781541259321466
00Arxiver开源:包含 138,830 篇 arXiv 论文的多Markdown格
Brown分享Vibe Coding指南:只用 AI 创建应用的全新方式,目前最全面的指南
这是目前最全面的 Cursor Vibe Coding 指南!
📌 250 分钟,涵盖 Cursor 的所有 Vibe Coding 基础,以及 4 个完整项目,一支视频全搞定!
作为一个 从未写过一行代码 的人,我每天都用这种方式来构建应用。

https://x.com/rileybrown_ai/status/1889343647331881227
00Arxiver开源:包含 138,830 篇 arXiv 论文的多Markdown格
GitHub Copilot 补全功能升级:下一步编辑建议
介绍 GitHub Copilot 补全功能的全新升级:下一步编辑建议(Next Edit Suggestions,预览版)
编写代码的过程中,修改现有代码 和 编写新代码 同样重要。因此,让 AI 补全功能适用于已有代码,是自然而然的发展方向。
了解更多:https://code.visualstudio.com/blogs/2025/02/12/next-edit-suggestions

https://x.com/code/status/1889742273572737247
00Arxiver开源:包含 138,830 篇 arXiv 论文的多Markdown格
Vibe Coding 的 15 条规则
-
从模板开始:通过克隆 GitHub 或其他来源的模板来启动项目,以提供坚实的基础。(在 Cursor 中,选择 Start from Repo,并粘贴以下链接来构建一个预置 AI 功能、数据库和授权的 Next.js 应用:GitHub 模板)。
-
使用代理模式:使用 Cursor 的 Agent 模式(而非普通模式)来通过自然语言命令创建、编辑和管理文件。
-
使用 Perplexity:利用 Perplexity 从网络中查找新的设计和 API。例如,你正在创建一个 Next.js 项目,并希望实现 X 功能,你可以要求它提供详细说明 以及 代码示例。
-
在 Composer 中创建新的聊天:针对每个不同的任务,打开一个新的 Composer 聊天窗口,并保持交互简洁。
-
本地运行,频繁测试:使用内置服务器在本地运行你的应用,并进行频繁测试,以便尽早发现问题。
-
迭代与优化:接受快速迭代的理念——不要过度追求完美设计,而是一步步改进。
-
利用语音转文本:使用 Whispr Flow 等工具加速输入,提高效率,享受 Vibe Coding 过程。
-
明智地克隆和分支:使用 GitHub 仓库 作为起始模板,以加快开发速度,或者用作灵感来源,并根据自己的需求进行自定义。
-
复制错误并粘贴到 Composer 代理:当出现错误时,复制控制台中的错误信息并粘贴到 Composer 代理 中,大多数情况下,问题会被修复。如果错误仍未解决,提供更详细的上下文说明。
-
不要忘记你可以恢复之前的 Composer 聊天:频繁保存你的工作,以便在需要时回滚到早期状态。
-
保护你的安全密钥:始终将 API 密钥和敏感数据存储在环境变量文件中,而不是直接硬编码到代码中。
-
经常提交代码:定期将进度推送到 GitHub,以跟踪更改并保护工作成果。你可以让 Cursor 代理自动完成此操作,只需向其提出请求。
-
尽早部署:使用 Vercel 等平台尽早部署你的应用,以确保部署过程中不会出现问题。
-
记录有效的提示词,并重复使用:保存最有效的提示词,以便未来开发和调试时可以快速参考。
-
享受过程,只需跟随感觉:享受 Vibe Coding 的创造性旅程,尽情实验、学习,并在过程中获得乐趣——只管 Vibe!

https://x.com/rileybrown_ai/status/1889832939216941100
产品
00Arxiver开源:包含 138,830 篇 arXiv 论文的多Markdown格式
Beethoven.ai—— 为你打造完美背景音乐的人工智能作曲家
Beethoven.ai 将简单的提示转化为令人惊叹的背景音乐,适用于你的内容创作。它由全球真正的音乐家怀着热爱(以及数据)打造。无需音乐专业知识,只需发挥你的创意愿景。用简单的文本描述你的愿景,上传一个视频 / 音频片段,让我们的人工智能创作符合你风格的定制音乐。无需音乐学位。https://www.beatoven.ai/
投融资
00Arxiver开源:包含 138,830 篇 arXiv 论文的多Markdown格式
AI驱动制造业数据库Keychain筹集500万美元推动欧洲扩张
Keychain是一家AI驱动的企业,致力于将消费者包装商品行业与制造伙伴快速连接,其平台包含超过30,000家制造商和20,000多个品牌和零售商。该公司近日宣布获得500万美元的投资,由欧洲零售商Continente领投,Continente是葡萄牙最大零售商Sonae Distribuição旗下的零售连锁。Keychain的创始人Oisin Hanrahan(首席执行官)和Umang Dua曾创办家居服务市场Handy,该公司最终被ANGI Homeservices收购。他们与Jordan Weitz共同创办了Keychain。Hanrahan表示,传统上,品牌和零售商需要通过参加大量的贸易展会来寻找合适的包装材料和供应商,然而这种方式效率低下且成本高昂。Keychain通过使用AI技术,帮助品牌和制造商快速连接,消除了中介的费用和信息不对称。自2023年11月以来,Keychain已经从BoxGroup、Lightspeed Venture Partners和SV Angel等知名风险投资公司,以及CPG巨头General Mills、Hershey和Schreiber Foods等公司筹集了3800万美元的资金。Hanrahan表示,Keychain已经开始向美国制造商销售其产品,并计划在今年晚些时候进军欧洲市场。此外,公司还计划推出两个新平台,分别聚焦于包装和原料领域。此轮融资将支持Keychain扩展其业务和技术,进一步提升AI在制造和供应链中的应用,帮助品牌和零售商以更高效的方式管理和组织数据公司官网:https://www.keychain.com/

https://techcrunch.com/2025/02/12/ai-driven-manufacturing-database-keychain-raises-5m-for-european-push/
00Arxiver开源:包含 138,830 篇 arXiv 论文的多Markdown格式
Meta计划收购AI芯片公司FuriosaAI
根据报道,Meta正在与韩国芯片公司FuriosaAI进行收购谈判,旨在加强其AI硬件基础设施。FuriosaAI是一家由前三星和AMD员工创立的芯片初创公司,专注于开发加速AI模型运行和推理的芯片,特别是像Meta的Llama 2和Llama 3这样的文本生成模型。据Forbes报道,Meta可能在本月宣布收购FuriosaAI的意向。FuriosaAI至今已从投资者那里筹集了900亿韩元(约合6194万美元),其中包括韩国科技公司Naver。据Crunchbase数据,该公司此前表示,正与美国、日本和印度的潜在客户接洽。Meta此举可能是为了减少对Nvidia等主流芯片制造商的依赖,同时也是Meta内部AI加速器芯片开发工作的补充。Meta最近表示,预计今年将在AI相关目标上投入高达650亿美元。
https://techcrunch.com/2025/02/12/meta-in-talks-to-acquire-ai-chip-firm-furiosaai-according-to-report/
— END —
快速获得3Blue1Brown教学动画?Archie分享:使用 Manim 引擎和 GPT-4o 将自然语言转换为数学动画
原创文章,作者:LLM Space,如若转载,请注明出处:https://www.agent-universe.cn/2025/02/38184.html