我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。 如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。
资讯
奥特曼斯坦福演讲:专注当前AI局限性没用,GPT-5让一切努力过时
奥特曼分享了他对 AI 未来发展的洞见,主要包括以下三个方面:首先是 AI 进展迅速。GPT-4 之后的下一个 AI 模型(如 GPT-5)将更加强大,这表明该领域的进展速度惊人。奥特曼认为,GPT-5 会比GPT-4更聪明,GPT-6又会比GPT-5更聪明。我们远没有达到曲线的顶部。
虽然复刻 GPT-4 等现有模型已经很简单了,但真正的创新在于定义 AI 能力的下一个范式转变。
奥特曼将 AI 的潜力与 iPhone 对移动计算的变革性影响进行了比较。
OpenAI 的使命是实现 AGI,开源 AI 可能不是实现这一目标的最佳方法。
免费、无广告的 ChatGPT 是 OpenAI 追求其目标的同时积极影响社会的方式。为了让所有人都能用上 AI,重点应该是让 AI 计算变得更易承担并在全球范围内广泛使用,从而消除不平等。
作为一种旨在增强人类能力的工具,向 ChatGPT 注入情感是没有必要的。
无需担心超级 AI,因为与未来的模型相比,每个新模型都被认为是不足的,这样才能持续进步。
为什么要做长文本、长图文、长语音的大模型?深度解读讯飞星火V3.5春季上新
4 月 26 日,科大讯飞发布讯飞星火大模型V3.5 的功能上新,其中一个重点就是面向用户各种场景中高效获取信息需求,发布首个长文本、长图文、长语音的大模型,能够支持文档、图文资料、会议录音等各种信息来源的快速理解和学习,还能够结合各种行业场景知识给出专业、准确回答。
会颠勺的国产机器人来了:大模型加持,家务能力满分
随着 AI 向 AGI(通用人工智能)的圣杯方向加速发展,大模型与机器人的结合是必然趋势。数十年来,单一用途机器人市场已趋于饱和,AI 通用机器人的巨大潜力急待开垦。刚刚,来自星尘智能公司的自研 AI 机器人 Astribot S1,在未经加速处理的 1 倍速视频中(业界常见为 3 到 10 倍速),S1 机器人展示了家居、工作场景中的卓越性能,完成了叠衣、分拣物品、颠锅炒菜、吸尘清洁、竞技叠杯等一系列复杂任务。
辉瑞 AI 方法登 Science,揭示数以万计的配体-蛋白质相互作用
尽管蛋白质结构预测取得了重大进展。但对于 80% 以上的蛋白质,迄今为止尚未发现小分子配体。识别大多数蛋白质的小分子配体仍具有挑战性。现在,奥地利科学院分子医学研究中心 CeMM 的研究人员与辉瑞公司合作,开发了一种方法来预测数百种小分子与数千种人类蛋白质的结合活性。这项大规模研究揭示了数以万计的配体-蛋白质相互作用,通过探索这些相互作用,从而可以开发化学工具和治疗方法。此外,在机器学习和人工智能的支持下,它可以「公正」地预测小分子如何与活体人类细胞中存在的所有蛋白质相互作用。
Sanctuary Al 推出第7代“Phoenix”人形机器人
类人智能通用机器人初创公司 Sanctuary Al 宣布推出第7代”Phoenix”机器人,相比上代机器人具有改进后的类似人类的运动范围,正常运行时间、视觉感知和触觉感知的改进提高了系统在较长时间内执行复杂任务的能力;设计迭代显着减少构建时间;新任务的自动化速度提高了 50 倍。
https://sanctuary.ai/resources/news/sanctuary-ai-unveils-the-next-generation-of-ai-robotics/
马斯克 xAI 拿到红杉美国等机构 60 亿美元投资!最新估值 180 亿美元
根据外媒 Information 消息,马斯克的 xAI正在筹集 60 亿美元,最新估值 180 亿美元,红杉资本是参与 xAI 轮融资的投资者之一,预计将在未来两周内完成,其他潜在投资者还包括先前传闻的 Steve Jurvetson 以及风险投资公司 Gigafund。据悉,新一轮融资规模是 xAI 今年早些时候与投资者讨论的融资规模的两倍。去年 12 月,该公司披露计划在主要由马斯克支持的另一轮融资中筹集 10 亿美元。马斯克于 2023 年初推出了 xAI,并于去年 12 月向 X 上的高级订阅者发布了聊天机器人 Grok。据马斯克介绍,xAI 目前正在 20000 个 Nvidia H100 上训练第二代 Grok。
推特
卷起来了?39美元AI可穿戴设备,记录对话并在你的手机上保存转录内容
Nik Shevchenko:你终于可以以39美元的价格购买最便宜的开源AI可穿戴设备了
15分钟前,它在Kickstarter上发布,让这个设备触手可及
现在让我们谈谈这款可穿戴设备:它是开源的,可以在Android/iOS上工作。它可以记录对话并在你的手机上保存转录内容。虽然它有一个默认的移动应用程序,但任何人都可以构建任何他们想要与该设备一起使用的应用程序!你现在终于可以以39美元的价格购买这款最便宜的开源AI可穿戴设备了。
https://x.com/kodjima33/status/1783556898614292813
吴恩达:目前拥有的用于基础模型推理的计算资源也远远不够,但是成本在下降,所以未来可期
很多人都在谈论许多公司对更多计算资源(以及数据)的渴望,以训练更大的基础模型。我认为,我们目前拥有的用于基础模型推理的计算资源也远远不够,这一点还没有得到足够的重视。
几年前,当我在谷歌、百度和斯坦福领导专注于扩展深度学习算法的团队时,许多半导体制造商、数据中心运营商和学术研究人员问我,如果他们继续提供更多的计算资源,我是否认为AI技术将继续很好地利用这些资源。对于许多普通的桌面处理工作负载,如运行网络浏览器或文本编辑器,拥有更快的CPU在某种程度上并没有太大帮助。那么,我们真的需要越来越快的AI处理器来训练越来越大的模型吗?每次,我都自信地回答”是的!”,并鼓励他们继续扩大计算规模。(有时,我半开玩笑地补充说,我从未遇到过一个机器学习工程师觉得自己有足够的计算资源。😀)
幸运的是,到目前为止,这个预测是正确的。然而,除了训练之外,我相信我们也远未穷尽更快和更高容量推理的好处。
如今,大量LLM输出主要供人类使用。人类可能每分钟阅读大约250个单词,这大约是每秒6个标记(250个单词/分钟/(0.75个单词/标记)/(60秒/分钟))。因此,最初可能似乎生成标记的速度比这快得多没有多大价值。
但是在一个智能工作流程中,LLM可能会被反复提示以反思和改进其输出,使用工具,计划和执行一系列步骤,或实现多个相互协作的代理。在这种情况下,我们很容易生成数十万个甚至更多的标记,然后再向用户显示任何输出。这使得快速生成标记非常理想,而较慢的生成成为更好地利用现有基础模型的瓶颈。
这就是为什么我对@GroqInc等公司的工作感到兴奋,它们可以每秒生成数百个标记。最近,@SambaNovaAI也发布了一个令人印象深刻的演示,每秒达到数百个标记。
顺便说一下,更快、更便宜的标记生成也将有助于使运行评估(evals)更容易接受,这是一个如今可能很慢且昂贵的步骤,因为它通常涉及迭代许多样本。拥有更好的评估将帮助许多开发人员调整模型以提高其性能。
幸运的是,训练和推理的成本似乎都在迅速下降。我最近与以看好技术而闻名的投资公司ARK的@CathieDWood和@CCRobertsARK交谈。他们估计AI训练成本每年下降75%。如果他们是对的,那么今年训练成本为1亿美元的基础模型,明年训练成本可能只有2500万美元。此外,他们报告说,”对于企业级用例,推理成本似乎以每年约86%的速度下降,甚至比训练成本下降得更快。”
我不知道这些具体预测最终会有多准确,但随着半导体和算法的改进,我确实看到训练和推理成本正在迅速下降。这将有利于应用程序构建者,并有助于AI智能工作流程的启动。
https://x.com/AndrewYNg/status/1783521818093195277
Sebastian Raschka苹果OpenELM论文读后感:很好花絮,让人耳目一新
刚刚阅读了苹果的 “OpenELM: 一个高效的语言模型家族,具有开源训练和推理框架”。与 OLMo 类似,看到一篇 LLM 论文分享了关于架构、训练方法和训练数据的细节,这令人耳目一新。
OpenELM 有 4 种相对较小且方便的尺寸:270M、450M、1.1B 和 3B
尽管 OpenELM 的训练标记数量减少了 2 倍,但其性能仍略优于 OLMo
分享细节与解释细节不同,而解释细节正是我在读研究生时研究论文的目的。例如,他们从各种公开可用的数据集(RefinedWeb、RedPajama、The PILE 和 Dolma)中抽样了相对较小的 1.8T 个标记子集。这个子集比用于训练 OLMo 的 Dolma 小 2 倍。这种二次抽样的理由是什么,标准又是什么?
分层缩放策略(改编自 “DeLighT: Deep and Light-weight Transformer” 论文)非常有趣。我希望有一个消融研究,在同一数据集上训练有无该策略的 LLM。但这些实验成本高昂,我可以理解他们为什么没有这样做。
一个我没有预料到的有趣的额外收获是,研究人员比较了 LoRA 和 DoRA(我在几周前讨论过)在参数高效微调方面的表现!不过,事实证明,这两种方法之间没有明显的区别。
无论如何,这是一项伟大的工作,非常感谢研究人员(和苹果公司)的分享!
https://x.com/rasbt/status/1783480053847736713
OpenBioLLM-Llama3-70B & 8B:迄今为止最强大的公开可用的医学领域 LLM
推出 OpenBioLLM-Llama3-70B & 8B:迄今为止最强大的公开可用的医学领域 LLM!🩺💊🧬
在生物医学领域超越了 GPT-4、Gemini、Meditron-70B、Med-PaLM-1 和 Med-PaLM-2 等行业巨头。🏥📈🌟
OpenBioLLM-70B 提供了 SOTA 性能,为同等规模的模型树立了新的最先进水平。
OpenBioLLM-8B 模型甚至超过了 GPT-3.5、Gemini 和 Meditron-70B!🚀
今天的发布仅仅是个开始!在接下来的几个月中,我们将推出:
医学 LLM 排行榜:Medical-LLM Leaderboard:
https://huggingface.co/spaces/openlifescienceai/open_medical_llm_leaderboard…
https://x.com/aadityaura/status/1783662626901528803
Perplexity AI向所有IOS会员推出语音对语音功能
语音对语音功能已经向所有 iOS Perplexity Pro 用户推出了!
https://x.com/AravSrinivas/status/1783560121202901216
Meta 发布Llama的早期影响:社区反响非常热烈,模型已经被下载了超过 120 万次
自从我们发布 Meta Llama 3 以来,已经整整一周了。在这段时间里,模型已经被下载了超过 120 万次,我们在 @HuggingFace 上看到了 600 多个衍生模型,还有更多。
关于我们在 Llama 3 上已经看到的令人兴奋的影响 ➡️ https://go.fb.me/xsqzz8
自从我们一周前将 Meta Llama 3 交到开发者社区手中,到目前为止,反响非常棒。通过发布我们最初的 Llama 3 模型,我们希望在整个技术栈中启动下一波 AI 创新浪潮——从应用程序到开发工具,再到评估、推理优化等等,我们已经看到了令人惊叹的事物。从将 Llama 3 的上下文窗口扩大一倍的项目,到量化、网页导航、工具使用、低精度微调、本地部署等方面的工作,社区的反响非常热烈。
自上周四发布以来,这些模型已经被下载了超过 120 万次,开发者在 Hugging Face 上共享了 600 多个衍生模型。Llama 3 的 GitHub 仓库已经超过了 17,000 个星标,Llama 3 70B Instruct 在 LMSYS Chatbot Arena 排行榜上并列第一(仅限英语评估),总排名第六,是排名最高的公开可用模型,仅次于封闭的专有模型。
https://x.com/AIatMeta/status/1783602908845748685
OpenVoice V2:文本到语音的模型,克隆任何声音并用多种语言说话
MIT CSAIL 和 MyShell AI 的研究人员推出了 OpenVoice V2,这是一个文本到语音的模型,可以克隆任何声音并用多种语言说话。想象一下,你的声音以多种语言走向全球。OpenVoice V2 打破了语言障碍,重新定义了语音交互。
https://x.com/MIT_CSAIL/status/1783525224652374388
产品
Assista AI
它像是一个”中枢神经系统”,将用户最常用的生产力工具整合到一个单一界面中。通过简单的语音或文本命令,用户可以在这个平台上管理各种任务,如发送和处理邮件、安排会议、创作内容、管理联系人等。它通过整合多种工具,并提供直观的语音和文本命令功能,帮助用户显著加快任务完成的速度。
https://www.assista.us/
Paddleboat
Paddleboat是一个为企业提供的定制语音机器人平台,目的是帮助销售人员在模拟环境中进行练习和训练,以提高他们的销售技能和应对实际销售场景的能力。通过Paddleboat,销售人员可以不受限制地进行反复练习,获得详细反馈,而无需占用管理层的时间。
https://www.padboat.com/
Langtail
Langtail 是一个帮助开发团队轻松将 AI 驱动的应用程序从概念验证转化为可发布产品的平台。它提供了调试提示、自动化测试、无缝部署以及可观测性等关键功能,解决了团队在开发过程中常见的挑战,如LLM的不确定性和最佳实践的不断变化。Langtail 旨在让AI应用的从原型到上线变得更加简单高效。
https://langtail.com/
Treefera 完成1200万美元A轮融资,专注于AI驱动的环境合规解决方案
Treefera,一家提供基于AI的环境合规解决方案的公司,宣布完成1200万美元的A轮融资,由AlbionVC领投。此次融资发生在公司完成220万美元种子轮融资后七个月。Treefera平台整合了卫星、无人机和实地数据,并应用AI算法,为客户提供环境和供应链合规的连续监测、保障和风险评估。资金将用于提升平台能力和全球团队扩展。
公司官网:https://www.treefera.com/
https://tech.eu/2024/04/25/treefera-raises-12m-series-for-ai-driven-environmental-compliance-solutions/
Dropzone AI完成1685万美元A轮融资,以全天候生成式AI支持自动化网络防御
Dropzone AI,一家为安全操作团队开发AI安全分析师的公司,今日宣布已成功筹集1685万美元的A轮融资。此轮融资由Theory Ventures领投,加上Decibel Partners、Pioneer Square Ventures和In-Q-Tel (IQT)等现有投资者。新资金将用于扩展其市场推广活动和工程团队。此外,Dropzone的创始人Edward Wu强调,Dropzone AI将通过AI加强网络防御,帮助安全运营团队专注于高优先级威胁和项目,从而应对越来越复杂的AI攻击。
公司官网:https://www.dropzone.ai/
https://www.businesswire.com/news/home/20240425006696/en/Dropzone-AI-Raises-16.85-Million-Series-A-to-Equip-Cyber-Defenders-With-247-Generative-AI-powered-Autonomous-Investigations
Adot由前谷歌工程师创立,成功筹集600万美元总资金以构建去中心化AI搜索引擎
Adot(a.xyz)是由谷歌核心团队前工程师创立的去中心化AI搜索引擎公司,今日宣布成功完成其Pre-A轮融资,筹资300万美元。本轮投资由Hash Global领投,gCC(gumi Cryptos Capital)和辛氏家族跟投。至此,Adot总计筹集资金达到600万美元。其他投资方包括SevenX Ventures、Mask Network、Var Capital和Mixmarvel。这些资金将用于推进去中心化AI搜索引擎的开发。
https://chromewebstore.google.com/detail/adot-ai-chatgpt-powered-w/healmieamaopboblekidbadelopbnfoo
https://adotweb3.medium.com/adot-founded-by-ex-googler-secures-6m-total-funding-to-build-decentralized-ai-search-32028c677cec
韩国B2B AI初创公司Dalpha完成120亿韩元Pre-A轮融资
Dalpha,一家专注于AI体验(AX)创新的韩国B2B人工智能初创公司,在成立仅一年内完成了120亿韩元的Pre-A轮融资。此轮融资由未来资产风险投资领投,新投资者包括Intervest、DSC投资、IMM投资及Partners Investment也参与投资。Dalpha自成立以来总共筹集了13.3亿韩元资金。公司计划利用这笔资金推出新的SaaS产品,简化定制AI解决方案的采纳,同时开发内部软件,通过模块化方法自动定制AI,以降低公司采用AI的门槛。
https://wowtale.net/2024/04/24/75712/
大模型日报 16
原创文章,作者:LLM Space,如若转载,请注明出处:https://www.agent-universe.cn/2024/04/15743.html