我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。
https://www.feishu.cn/community/article/wiki?id=7355065047338450972
点击「订阅社区精选」,即可在飞书每日收到《大模型日报》每日最新推送
如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。
欢迎大家一起交流!
资讯
Command R-35B与Command R-104B
-
参数规模:拥有1040亿参数,是目前最强大的语言模型之一。 -
检索增强生成(RAG):具备复杂的多步任务自动化能力,包括摘要生成、问答和跨上下文推理。 -
多语言支持:训练涵盖23种语言,评估了其中10种语言,适合全球应用。 -
架构优化:采用优化的自回归Transformer架构,结合分组查询注意力(GQA),提高了推理速度。 -
上下文长度:支持128K的上下文长度,能够在长对话或文档中保持连贯性和相关性。

用最直观的动画,讲解LLM如何存储事实

-
量化:为提高AI模型在手机等终端设备上的推理效率,高通深入研究了量化技术,特别是低位数整型精度(如INT4)的应用。这种方法在不影响模型准确性的前提下,显著提升了推理效率和能效。例如,INT4模型与INT8相比,性能提升90%,能效提升60%。
-
编译技术:高通通过编译器技术优化AI模型的部署,确保其在硬件上以最高效能运行。其AI引擎Direct框架基于Hexagon NPU进行优化,显著提高了计算性能并减少内存溢出。
-
硬件加速:Hexagon NPU作为高通AI引擎的核心,显著提升了AI处理能力。例如,在第三代骁龙8移动平台上,Hexagon NPU的性能较前代提高98%,同时功耗降低40%。
-
新算法:高通开发了LR-QAT算法,结合低秩重参数化和量化技术,在降低内存使用的同时保持了模型性能,适用于大语言模型的高效推理。此外,矢量量化(VQ)技术通过考虑参数的联合分布,实现更高效的压缩和更少的信息丢失。
未来展望:高通还在探索生成式AI模型的终端侧优化,如优化Stable Diffusion模型的效率,使其更适合低功耗设备,并开发适用于视频生成的高效架构。这些技术进展不仅推动了AI模型从云端向终端的迁移,也加速了AI技术在各类智能设备中的普及和应用。
https://mp.weixin.qq.com/s/Ub0by14RBQQHnxtOnbXupg
端测AI芯片,群雄争霸

实现机器人领域的ChatGPT时刻,需要大模型+强化学习丨明星教授Sergey特邀报告

推特
网友分享:深度分割只需要 3 毫秒就能完成,仅有不到 2GB 显存

简单地在回答前添加“重复问题”这句话,居然能让模型正确回答那些有陷阱的问题

Kalouche预告:Nimble 正在通过开发首个通用仓储机器人,以取代十几种不同的设备/自动化系统

Copilot自动生成api密钥现象再放送

Yi Ma教授分享新课程:首次尝试从统一且有原则的角度教授深度网络,核心内容包括压缩和信息增益

Shawn Wang调侃见到真正AI工程师:不借助任何LLM,只是自己写代码

产品
Fill A Form

TutorEva

投融资
无问芯穹获近 10 亿元累计融资

原创文章,作者:LLM Space,如若转载,请注明出处:https://www.agent-universe.cn/2024/09/13191.html