我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。 如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。
资讯
当前最强国产Sora!清华团队突破16秒长视频,懂多镜头语言,会模拟物理规律
生数科技联合清华大学最新发布的视频大模型「Vidu」可以看出,它生成的视频不再是持续几秒的「GIF」,而是达到了十几秒(最长可以达到 16 秒左右)。当然更令人惊喜的是,「Vidu」画面效果非常接近 Sora,在多镜头语言、时间和空间一致性、遵循物理规律等方面表现都非常出色,而且还能虚构出真实世界不存在的超现实主义画面,这是当前的视频生成模型难以实现的。在短短两个月的时间,生数科技能实现到这般效果,着实令人惊喜。
苹果OpenAI合作,力争今年生成式AI登陆iPhone
据知情人士透露,苹果公司已重新开启与 OpenAI 的讨论,计划在今年晚些时候为 iPhone 推出一些新功能时,使用这家初创公司的技术。这些知情人士表示,两家公司已开始讨论可能的合作协议条款,以及如何将 OpenAI 的功能整合到苹果的下一代 iPhone 操作系统 iOS 18 中。由于讨论是私密的,这些人要求不透露身份。
半年涨粉1000万,这个AI聊天搭子是怎么火的
对于 AI 评论机器人,一部分网友的印象可能还停留机械回复、千篇一律的年代。但如今,像 AI小快这样的智能互动机器人,早就把社交媒体的玩法摸透彻了,不管接什么话题,都能让人感觉「真假难辨」。「AI小快」就是快手大模型在评论区应用探索的成果之一,也实实在在给快手社区用户带来了更好的互动体验。具体来说,能说会画的「AI小快」背后,是两个快手从零到一独立自主研发的大模型:大语言模型「快意」和文生图大模型「可图」。
让大模型不再「巨无霸」,这是一份最新的大模型参数高效微调综述
近期,大语言模型、文生图模型等大规模 AI 模型迅猛发展。在这种形势下,如何适应瞬息万变的需求,快速适配大模型至各类下游任务,成为了一个重要的挑战。受限于计算资源,传统的全参数微调方法可能会显得力不从心,因此需要探索更高效的微调策略。上述挑战催生了参数高效微调(PEFT)技术在近期的快速发展。为了全面总结 PEFT 技术的发展历程并及时跟进最新的研究进展,最近,来自美国东北大学、加州大学 Riverside 分校、亚利桑那州立大学和纽约大学研究者们调研、整理并总结了参数高效微调(PEFT)技术在大模型上的应用及其发展前景,并总结为一篇全面且前沿的综述。
Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航Ð
大模型力大砖飞,让LLaMA3演绎出了新高度:超15T Token数据上的超大规模预训练,既实现了令人印象深刻的性能提升,也因远超Chinchilla推荐量再次引爆开源社区讨论。与此同时,在实际应用层面上,另一个热点话题也浮出水面:资源有限场景下,LLaMA3的量化表现又会如何?香港大学、北京航空航天大学、苏黎世联邦理工学院联合推出了一项实证研究,全面揭示了LLaMA3的低比特量化性能。
平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法
使用测序 (scATAC-seq) 技术对转座酶可及的染色质进行单细胞测定,可在单细胞分辨率下深入了解基因调控和表观遗传异质性,但由于数据的高维性和极度稀疏性,scATAC-seq 的细胞注释仍然具有挑战性。现有的细胞注释方法大多集中在细胞峰矩阵上,而没有充分利用底层的基因组序列。在这里,中山大学与重庆大学的研究人员提出了一种方法 SANGO,通过在 scATAC 数据中的可及性峰周围整合基因组序列来进行准确的单细胞注释。SANGO 在跨样本、平台和组织的 55 个配对 scATAC-seq 数据集上始终优于竞争方法。SANGO 还能够通过图 Transformer 学习到的注意力边缘权重来检测未知的肿瘤细胞。
阿里智能体“组装工厂”开源!0经验搞定上万Agent并发
让多智能体开发就像搭积木,阿里巴巴通义实验室开源多智能体编程框架与开发平台AgentScope。该平台专门为多智能体应用开发者打造,旨在提供高易用的编程体验、稳定可靠的运行时保障,并且为开发者提供了分布式和多模态的技术支持。内置了OpenAI、DashScope、Gemini、Ollama()等多种不同平台的模型API,深度兼容当下的大模型开源生态。AgentScope提供了多种开箱即用的功能,通过简单拖拽就能搭建多智能体应用。即使没有分布式开发经验的开发者,在AgentScope平台上也能轻松实现上万级别的多智能体并发。
推特
Shumer分享实用AI摘要机器人,短信发送链接,短信回复
我只需要发送一个文章、视频等的链接给它,它就会在几秒钟内给我回复一个精彩的总结。
https://x.com/mattshumer_/status/1784308700364054681
Ian Macartney分享:本地运行一个AI小镇!
在本地使用@ollama或在云端使用@togethercompute的大语言模型。
https://x.com/ianmacartney/status/1783692386994110884
Vidu:中国首个长时间、高一致性、高动态的视频模型
它可以一键创建最长16秒的1080P视频。它擅长模拟真实的物理世界,同时也展示了生动的想象力,具有多相机生成和卓越的时空一致性。
https://shengshu-ai.com/home
https://x.com/sambhavgupta6/status/1784121231094198751
Hartford分享Dolphin-2.9过滤和未经审查的数据集
我在@huggingface上发布了我为Dolphin-2.9过滤和未经审查的数据集,所以如果你想创建自己的Dolphin版本,或者只是想了解Dolphin是如何创建的,你可以去查看一下。感谢所有上游数据集创建者提供的开源数据!
https://x.com/erhartford/status/1784283749217370519
Eliott团队获得Hack LLM 黑客马拉松胜利:48小时内建立的AI接待员
我们赢得了Hack LLM黑客马拉松的胜利!在48小时内,我们建立了一个AI接待员,可以接听电话并采取实时行动,如确认预订。当出现复杂问题时,它会与人工协作。
感谢@join_ef、@MistralAI和@huggingface !快来看看我们的演示吧。
https://x.com/eliotthoff/status/1783980026649625032
Jerry Liu:单个的”代理成分”更好理解代理的工作原理
在构建复杂的代理系统之前,我建议您先使用单个的”代理成分”进行构建,以更好地从基本原理上了解它们是如何工作的。以下是构建代理(迷你)的主要成分:
**查询规划:**根据任务和周围的上下文,将其分解为一系列步骤(思维链、DAG、树)。可以表示为具有结构化输出的简单提示调用。
**内存:**在用户任务之间存储状态,以更好地为下一个任务提供信息。这对任何聊天机器人都很重要!
**工具使用:**使用LLM对任何外部系统进行API调用。这可能是一个向量数据库(通过自动检索)。这也可能是调用外部API(Slack、Gmail、日历)。
单独使用每种成分可以获得更有限的功能,但在成本和延迟方面要高效得多。它还使您能够组合自己的复杂管道,而无需使用开箱即用的代理。
其他包括反思、异步任务执行、可调试性等。您可以使用@llama_index构建这些。
https://x.com/jerryjliu0/status/1784279431739265439
伯克利函数调用排行榜:查看它们在不同类别、P95延迟和成本方面的表现
很高兴欢迎Command-R-Plus、Llama-3和Gemini-Pro-1.5加入伯克利函数调用排行榜。在https://gorilla.cs.berkeley.edu/leaderboard.html查看它们在不同类别、P95延迟和成本方面的表现。
祝贺@cohere、@AIatMeta 和@GoogleDeepMind 在函数调用/工具调用方面进一步推进了边界。
Simon Willison:在我看来,这是一个被低估的排行榜 – 函数调用(也称为工具使用)是大语言模型最有趣的应用之一,而且它应该与模型中”知识”的多少无关。
https://x.com/shishirpatil_/status/1783960177051627706
产品
Wonderplan.ai 2.0
Wonderplan 是一个基于 AI 的创新型旅行规划工具,通过博客/视频转换、互动对话、日历微调等来帮助用户轻松规划和定制独特有趣的旅行计划,同时还提供全球旅行见解总结,让旅行规划变得更加轻松高效。
https://beta.wonderplan.ai/
Langfuse
Langfuse 是一款开源的观测性和分析平台,专门为开发者打造,以满足大语言模型(LLM)应用程序的需求。它提供了跟踪、评估、数据管理、指标分析、提示管理等一系列功能,帮助工程师更好地监控、优化和管理其LLM应用。
https://langfuse.com/
CopyCopter
CopyCopter 是一款可以自动将文本内容转化为视频的工具。对于那些想要在社交媒体上增加视频内容、提高SEO、快速生成视频内容的人来说。它可以使用预设的库存视频素材和AI语音生成短视频,并提供编辑工具进行个性化定制。
https://copycopter.ai/
美国微软同意投资Yushan AI公司2000万美元用于发展离线版AI大模型
美国微软公司决定投资2000万美元于Yushan AI公司,用于其离线操作的大型语言模型(LLM)的研发。这项投资将加速Yushan AI的离线AI产品开发,以满足全球对数据安全和隐私的日益严格要求。Yushan AI的解决方案旨在提供在各种设备上运行的离线AI,包括手机和个人电脑等,无需连接网络即可安全处理敏感信息。此举不仅增强了Yushan AI的技术能力,也强化了微软在全球AI领域的竞争力。
公司官网:https://www.yushan.ai/
https://tw.stock.yahoo.com/news/
大模型日报 16
原创文章,作者:LLM Space,如若转载,请注明出处:https://www.agent-universe.cn/2024/04/15714.html