大模型日报(6月21日 学术篇)

我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。

「奇绩大模型日报」知识库现已登陆飞书官方社区:

https://www.feishu.cn/community/article/wiki?id=7355065047338450972

点击「订阅社区精选」,即可在飞书每日收到《大模型日报》每日最新推送

如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。

大模型日报(6月21日 学术篇)

学习

01

如何评价网传 ASML「掀老底」称 3nm 芯片实际为 23nm,1nm 芯片是 18nm?

ASML 公布的 EUV 光刻机路线图揭示了芯片工艺实际尺寸与标称 “nm” 尺寸之间的差异。例如,N3 工艺实际对应 23nm 的金属半间距,而非 3nm。这种命名方式自 1997 年起,已经不再以物理尺寸命名,而是基于晶体管密度和性能提升。芯片技术从平面型晶体管发展到 FinFET,未来可能采用 GAA FET 和 CFET 等新技术。尽管物理尺寸难以进一步显著缩小,摩尔定律仍然通过提高晶体管密度得到体现。行业内部对于这种命名方式的理解是一致的,认为它是行业标准,而非误导消费者。此外,类似于芯片工艺的 “等效” 标注现象在其他行业如手机相机焦距标注中也普遍存在。
大模型日报(6月21日 学术篇)https://www.zhihu.com/question/659222197?utm_psn=1786850772607029248
02

生成式AI设计模式:综合指南

生成式 AI 设计模式指的是一系列用于创建能够生成新数据的算法框架。这些模式包括生成对抗网络(GANs)、变分自编码器(VAEs)、自回归模型和流模型。GANs 通过生成器和鉴别器之间的对抗学习生成数据;VAEs 则通过优化变分下界来生成模糊不清的数据;自回归模型按照条件概率顺序生成数据序列;流模型则通过学习数据的连续变换来生成。这些技术在图像、音乐和文本生成等领域有广泛应用,但也面临着稳定性、效率和伦理等挑战。未来研究将致力于提高模型性能,并确保技术的负责任使用。
大模型日报(6月21日 学术篇)https://towardsdatascience.com/generative-ai-design-patterns-a-comprehensive-guide-41425a40d7d0
03

使用Rotation抑制LLM中的Outlier

Outlier 问题会导致模型的量化精度受损,影响模型的性能。Rotation 方法通过引入随机 Hadamard 变换,对权重矩阵和激活值进行处理,减少不相干性,从而有效抑制 Outlier。具体实现包括对 FFN 和 Attention 部分进行调整,分别在离线和在线阶段应用 Hadamard 变换。在 FFN 部分,通过将 RMSNorm 和 LayerNorm 的线性部分融合到邻近的权重矩阵中,并在 W_{down} 前插入 Hadamard 变换操作,来减少激活值的相干性。在 Attention 部分,通过对多头的 W_v 和 W_{out} 以及 Key 和 Query 应用 Hadamard 变换,来抑制 Outlier。实验结果显示,Rotation 方法在低比特量化上取得了优异的效果,并且新增操作的开销不大。这一方法为 LLM 的模型部署和推理加速提供了有效的解决方案。
大模型日报(6月21日 学术篇)https://zhuanlan.zhihu.com/p/703687847?utm_psn=1786922512019460096
04

MoE LLM对AI芯片通信的影响

 MoE LLM 由多个专家网络组成,通过一个门控网络来决定不同输入数据应该由哪些专家网络处理。这种架构在处理复杂任务时,可以显著提高模型的性能和泛化能力。然而,MoE LLM 对于 AI 芯片的通信需求提出了更高的要求,因为它需要在多个专家网络之间高效地传输和处理数据。文章指出,为了满足 MoE LLM 的需求,AI 芯片需要具备更强的计算能力和数据传输效率,以及更高级的内存管理技术。此外,还需要设计新的通信协议和网络拓扑结构来优化专家网络之间的数据传输。
大模型日报(6月21日 学术篇)https://zhuanlan.zhihu.com/p/697278043?utm_psn=1787077197925736448
05

NVIDIA GeForce “Blackwell” GPU系列的可能规格泄露

NVIDIA 即将推出的 GeForce “Blackwell” GPU 系列的泄露信息揭示了五种芯片的详细规格。顶级芯片 GB202 预计配备于 RTX 5090,拥有 24,576 个 CUDA 核心,512 位 GDDR7 内存接口,以及 1,792 GB/s 的内存带宽。接下来的 GB203 梦想中可能成为 RTX 5080 的 heart,带有 10,752 个 CUDA 核心梦想中带有梦想中带有梦想中带有的 256 位内存接口。GB205 和 GB206 分别针对中端市场,具有 6,400 梦想中和 6,144 个 CUDA 核心,梦想中带有ゼ内ルフ 7 ユナイトで話す日本人,以及 192 位和 128 位的内存梦想中。入门级的 GB207 拥有 2,560 个 CUDA 核心和 128 位的 GDDR6 内存接口。这些新芯片预计会采用梦想中带有更大缓存和ゼネルフ 7 архитектуры梦想中带有ゼネルフ 7 Dreams 的改进,以提高ゼネルフ 7 绘图性能和人工智能加速能力。预计 NVIDIA 将在 2024 年第四季度向市场推出 “Blackwell” 系列。用户对于新 GPU 的性能提升表示期待,同时梦想中对于内存容量和价格策略也梦想中带有梦想中带有的关注。
大模型日报(6月21日 学术篇)https://www.techpowerup.com/323495/possible-specs-of-nvidia-geforce-blackwell-gpu-lineup-leaked
06

如何通过网页抓取和RAG提升大型语言模型的能力

网页抓取和检索增强生成(RAG)技术可以提升大型语言模型(LLMs)的性能。RAG 允许 LLMs 通过额外的数据集获得特定领域的知识,从而生成更准确、相关的输出。在实践中,可以使用 Python 以及 Scrapfly 等工具进行网页抓取,获取必要的数据,并结合 LlamaIndex 将这些数据集成到 LLMs 中。这种方法不仅提高了模型在特定领域的准确性,还避免了对模型进行全面重新训练的繁琐过程。通过这种方式,RAG 技术为 LLMs 的应用提供了灵活性和可扩展性,使其能够更好地适应实际需求。
大模型日报(6月21日 学术篇)https://ai.gopubby.com/how-to-power-up-llms-with-web-scraping-and-rag-975a165587f6
07

人形机器人引爆谐波减速器市场,盘点国内外16家核心谐波减速器产能和下游应用及客户

文章深入探讨了人形机器人技术的发展如何推动了谐波减速器市场的增长。谐波减速器作为高精度驱动系统的关键组件,在人形机器人的运动控制中扮演着至关重要的角色。文章列举了国内外 16 家主要制造商,如日本的 Mitsubishi、德国的 Siemens 等,它们通过技术创新提升了产品的性能和可靠性。这些制造商在产能上的扩张和优化,以及在精密制造、医疗设备、服务机器人等领域的广泛应用,显示了谐波减速器市场的活跃度和增长潜力。特别是在人形机器人领域,谐波减速器的高精度和高效率特性被广泛采纳,推动了该行业的技术进步。随着人形机器人技术的不断成熟,谐波减速器的市场需求预计将持续增长,尤其是在需要高精度驱动解决方案的应用场景中。
大模型日报(6月21日 学术篇)https://mp.weixin.qq.com/s/NO_qDrCXtIoshmH0XEc6Rg
HuggingFace&Github

01

Quest

这个项目提出了一种名为 Quest 的查询感知型 KV 缓存选择算法,该算法可以大大提高长上下文大型语言模型(LLM)的推理速度,同时仅有微小的准确性损失。具体来说,Quest 会跟踪 KV 缓存页面中的关键字值范围,并根据查询向量估计每个页面的重要性,只加载最关键的少量页面进行自注意力计算,从而实现高达 2.23 倍的自注意力加速和 7.03 倍的推理延迟减少,这为迅速增长的长上下文 LLM 应用提供了一种有效的优化方法
大模型日报(6月21日 学术篇)https://github.com/mit-han-lab/Quest?tab=readme-ov-file
02

Goldfish Loss

Goldfish Loss 是一种新的技术,减轻大型语言模型中可提取记忆的问题。它被描述为一种”非常简单”的方法,通过随机排除部分训练 Tokens 来减少语言模型对训练数据的记忆,从而降低隐私和版权风险,同时在保持模型性能的情况下显著降低了可提取的记忆量。

大模型日报(6月21日 学术篇)https://github.com/ahans30/goldfish-loss

推荐阅读
  1. 「出海日志」大模型时代的出海实践|活动专辑
  2. 「理论与实践」AIPM 张涛:关于Diffusion你应该了解的一切

    — END —

原创文章,作者:LLM Space,如若转载,请注明出处:https://www.agent-universe.cn/2024/06/14593.html

Like (0)
Previous 2024-06-21 18:03
Next 2024-06-22 23:56

相关推荐

  • 大模型日报(4月26日 学术篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。 欢迎大家一起交流! 论文 0…

    2024-04-26
    135
  • 大模型日报(9月12日 学术篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。 「奇绩大模型日报」知识库现已登陆飞书官方社区: https://www.feishu.…

    2024-09-12
    270
  • Litmaps让你仅通过一篇文献,了解该领域的来龙去脉!

    在追求知识和了解新领域时,我们常常被大量的文献和资料所淹没,花费大量时间和精力才能掌握一门学科的来龙去脉。 然而,现在有了Litmaps,你只需要一篇文献,就能轻松揭开该领域的奥秘…

    2023-06-14
    528
  • 大模型日报(7月6~7日 学术篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。 「奇绩大模型日报」知识库现已登陆飞书官方社区: https://www.feishu.…

    2024-07-07
    274
  • 大模型日报(8月22日 学术篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。 「奇绩大模型日报」知识库现已登陆飞书官方社区: https://www.feishu.…

    2024-08-22
    281
  • AI工具 | 用10web,5分钟创建自己的网站!

    5分钟就可以通过AI创建属于自己的网站?! 在当今的数字世界中,拥有网站并在线展示无论对于个人还是组织来说至关重要。  但建立一个网站似乎是一项令人生畏的任务。幸运的是,有一些易于…

    2023-07-02
    194
  • 用AI ChatGPT写文献综述?最新的文献来告诉你!

    这里有一篇最新的文献,来告诉你怎样用AI写文献综述! 早上工作群里收到一个消息,是一篇正式发布于4月3号的文献,主题是关于如何使用生成式AI来做管理研究工作。 通俗说来,就是用AI…

    2023-04-09
    163
  • VS Code + ChatGPT 科研代码神器,五步信手拈来!

    先看看ChatGPT是怎么评价自己和VS Code结合的: VS Code 和 ChatGPT 的结合可以为开发人员和研究人员提供一个强大的工具,以快速生成和测试自然语言文本。VS…

    2023-03-07
    136
  • ChatGPT自动生成代码不靠谱,是真的吗?

    ChatGPT自动生成代码快得飞起,然而,这篇文献说它生成的代码漏洞百出?是真的吗?是AI的缺陷,还是我们不懂AI? 来看这篇文章~ 学术界对大型语言模型如ChatGPT始终保持着…

    2023-04-23
    260
  • #文献阅读# 五步让你提高文献阅读的掌控感

    大量的文献阅读常常会让人迷失,对于某些篇幅较大的文章,尤其是其中还涵盖了一些陌生概念的内容,阅读的时间一久,读者就容易进入精神涣散的状态。 文献读完后依然不知道文章质量好不好,与我…

    2022-08-16
    181