大模型日报(4月13~14日 资讯篇)

欢迎观看大模型日报

大模型日报(4月13~14日 资讯篇)

推特

01

Mistral-22B-v0.2 发布,使用8倍以上的训练数据,在处理用户查询方面明显更好

Mistral-22B-v0.2 现已发布🎉🎉!在各方面都有重大改进!使用8倍以上的训练数据,该模型在处理用户查询方面明显更好!在这里试用一下吧!
在我们发布 Mistral-22b-v0.1 仅仅两天后,我们很高兴地推出我们精心打造的实验模型 Mistral-22b-v.02。这个模型是将所有专家的平等知识提炼到一个单一、密集的22b模型中的结晶。这个模型不是一个单一训练的专家,而是一个压缩的MOE模型,将其转化为一个密集的22b模式。这是第一个可行的MOE到密集模型的转换。
v0.2 比 v0.1 训练的数据多了8倍!
大模型日报(4月13~14日 资讯篇)https://x.com/mejia_petit/status/1779131534269673556
02

Karpathy llm.c更新:从比PyTorch慢4.2倍提升到只慢2倍

一些新的CUDA黑客朋友加入了这项工作,现在llm.c只比PyTorch(fp32,前向传递)慢2倍,而4天前还慢4.2倍。最大的改进是:
  • 在矩阵乘法中使用TF32(NVIDIA TensorFLoat-32)而不是FP32。这是从Ampere+开始的GPU中的一种新的数学模式。这是一个非常好的、几乎免费的优化,通过在张量核心上运行矩阵乘法,同时将尾数截断到只有10位(浮点数的最低有效19位会丢失),以牺牲一点精度来换取大幅提高性能。因此,输入、输出和内部累加保持在fp32中,但乘法的精度较低。相当于PyTorch的torch.set_float32_matmul_precision('high')
  • 调用cuBLASLt API而不是cuBLAS进行sGEMM(fp32矩阵乘法),因为这允许你将偏置融合到矩阵乘法中,并消除了对单独的add_bias内核的需求,从而避免了对全局内存进行一次愚蠢的往返只为了一次加法。
  • 一个更高效的注意力内核,它使用1)cooperative_groups reduction,看起来更简洁,我也是最近才了解到的(CUDA PMP书中没有涉及到…);2)flash attention中使用的在线softmax算法;3)融合的注意力缩放因子乘法;4)”内置”的自回归掩码边界。(非常感谢GitHub上的ademeure、ngc92和lancerts编写/帮助这些内核!)
最后,ChatGPT创建了这个惊人的图表来说明我们的进展。4天前我们慢了4.6倍,今天我们只慢了2倍。所以我们即将超过PyTorch。
现在(就我个人而言)将专注于反向传递,这样我们就有了完整的CUDA训练循环。
大模型日报(4月13~14日 资讯篇)https://x.com/karpathy/status/1778988957713477778

18小时后的更新:降到26.2ms/迭代,与PyTorch完全相同。只用大约2,000行C代码就能比PyTorch更快地训练LLM,这似乎触手可及

非常有趣的更新,大约18个小时后:
llm.c现在已经降到26.2ms/迭代,与PyTorch(tf32前向传递)完全匹配。我们发现了一个错误,即我们错误地在fp32数学模式下调用了cuBLAS🤦♂️。ademeure为非常长的行(最后一层logits中每行50,257个元素)贡献了一个更优化的softmax内核。
但乐趣并没有停止,因为我们还有很多锦囊妙计。我们的注意力内核是朴素的注意力,而不是flash attention,并且实现了(非常大的)前注意力和后注意力矩阵,大小为(B, NH, T, T),它还进行了不必要的往返,内部有尚未融合的GeLU非线性和置换/反置换。我们还没有尝试更多的优化,例如CUDA图、无损可压缩内存(?)等。
所以更新后的图表看起来很乐观:D,只用大约2,000行C代码就能比PyTorch更快地训练LLM,这似乎触手可及。让我们开始反向传递吧。
大模型日报(4月13~14日 资讯篇)https://x.com/karpathy/status/1779272336186978707

PyTorch的复仇,大约20%的加速

PYTORCH的复仇
开个玩笑:)
来自PyTorch团队的@cHHillee 非常友好地帮助改进了PyTorch的基准测试,方法是:1)升级到每夜版,2)直接使用”复合”F.sdpa(缩放点积注意力)层,并打开一个torch编译标志:
TORCHINDUCTOR_COORDINATE_DESCENT_TUNING=1
由于使用了略有不同的GPU(A100 80GB,具有更高的内存带宽),所以数字有一些差异,但是:
llm.c: 23.026892
PyTorch 2.2: 22.408ms
PyTorch nightly: 21.090ms
PyTorch nightly + F.sdpa: 19.224ms
PyTorch nightly + F.sdpa + coordinate descent tuning torch inductor flag: 18.809ms
因此,大约有20%的加速,更多细节请参阅该fork:
https://github.com/Chillee/llm.c?tab=readme-ov-file#some-benchmark-numbers-with-newer-version-of-pytorch
另一个不错的附加说明是,torch compile还可以生成并发出C++代码:
https://github.com/Chillee/llm.c/blob/master/inductor_gpt2.cpp
大模型日报(4月13~14日 资讯篇)https://x.com/karpathy/status/1779354343013269929
03

Virat分享现在用的RAG stack:Cohere、Weaviate、Opus

我当前的RAG堆栈🥞
• cohere嵌入
• cohere命令r+工具调用
• cohere重排序3
• weaviate向量数据库
• opus最终输出层
为什么选择@cohere:直观的API,高质量的快速推理,价格实惠。
为什么选择@weaviate_io:易于设置,可靠的检索,支持到位。
为什么选择@AnthropicAI:opus是业界最佳。
大模型日报(4月13~14日 资讯篇)https://x.com/virattt/status/1779172358760075591
04

Roemmele分享开源Gemini 智能体示例

Brian Roemmele:
Gemini智能体示例
这个仓库演示了如何在应用程序中使用Google的Gemini AI模型。Gemini是一个强大的语言模型,在文本生成、聊天机器人等各种任务中表现出色。最重要的是……它是免费的!!!!
大模型日报(4月13~14日 资讯篇)https://x.com/BrianRoemmele/status/1779158342642131077
05

Arnold谈美国大学强制性标准化成绩:LLM已经完全降低了论文部分作为可靠衡量标准的价值

John Arnold
至少部分原因是为什么大学重新要求标准化考试,除了高度预测大学成功之外,还因为LLM已经完全降低了论文部分作为可靠衡量标准的价值。

Jay Van Bavel, PhD:
研究生入学考试也出现了同样的情况:LLM降低了研究陈述和推荐信的意义。在可预见的未来,”深入研究”各种主题的候选人将会增加!
John Arnold:
推荐信是我使用LLM的首选用例。
大模型日报(4月13~14日 资讯篇)https://x.com/JohnArnoldFndtn/status/1779163497802174833
06

musicgen-songstarter-v0.2:这是一个大型立体声MusicGen模型,体积是1.0的2倍

随着文本到音乐模型真正开始升温,今天我分享一个新的开放模型musicgen-songstarter-v0.2。这是一个大型立体声MusicGen模型,可以作为音乐制作人的实用工具。与v0.1相比,它的体积是原来的2倍,并在3倍以上经过手工策划的样本上进行了训练。
大模型日报(4月13~14日 资讯篇)https://x.com/_nateraw/status/1778901598254624830
07

musicgen作者Nate Raw预测AI音乐未来:不会取代音乐唱作,会分完整歌曲生成和专供艺术家

在进入ML领域之前,我就已经涉足音乐制作。以下是我的一些预测:
  • 音乐生成AI不会取代音乐制作、词曲创作等 – 正在形成两条路线:完整歌曲生成(如suno等)和为艺术家提供的AI工具。
  • 完全由AI生成的歌曲不会显著污染公告牌排行榜,但会变得非常突出,无处不在。
  • 少数拥有良好品牌、由大唱片公司大笔资金支持的”虚拟艺人”将会流行起来,类似虚拟主播。他们将为粉丝制作全AI生成的音乐。唱片公司不需要付钱给他们!我们知道他们会喜欢这一点。就像印钞票一样。
  • 然而,很快公告牌排行榜上相当一部分(>80%)的歌曲将包含AI生成的音频样本,就像过去20-30年通过为创作者提供的AI音乐工具,采样变得突出一样。
  • 就像聊天GPT的输出无处不在,出现在作业、新闻稿、电子邮件等中一样。AI音乐创作工具领域的赢家,他们的作品将出现在收音机播放的大部分音乐中。这些样本将像制作人目前操纵他们为歌曲找到的样本一样被操纵。
  • 这里的”赢家”将是那些在音乐制作人中分布最广的人 – 音乐制作的进入门槛将继续降低,就像过去15年YouTube教程降低门槛的程度一样。年轻艺术家会大大受益。
  • 音乐领域的开放和封闭模型之间的差距将比LLM更大。我希望我是错的,但不幸的是,版权问题更加棘手,这激励人们将他们在未经许可的数据上训练的模型权重保持封闭,以避免被可怕的顶级唱片公司律师攻击。
大模型日报(4月13~14日 资讯篇)https://x.com/_nateraw/status/1779246493351756058
08

Jina AI开源网页数据爬取

Jina AI 刚刚开源了 RAG 数据处理中的关键组件:“网页数据爬取” — Reader,目前 175 Star
1. 在
https://r.jina.ai<url> 中填入任何 Url 即可获取到 LLM 友好的 Parsed Content( Markdown)
2. 免费使用,提供 Stream 模式可流式读内容(简单内容 <=2s 可获取)
大模型日报(4月13~14日 资讯篇)https://x.com/tuturetom/status/1779377811905769960
09

Shawn Wang分享:Devin,OpenDevin,和SWE-Agent之战

直播总结:Devin vs. OpenDevin vs. SWE-Agent
这个YouTube直播比较了三个AI编程助手:
Devin:由Google AI开发的专有工具,授予主播访问权限。
OpenDevin:由Quen人开发的Devin开源克隆版本。
SWE-Agent:由普林斯顿NLP小组开发的另一个开源AI编程助手,专门针对GitHub问题。主播尝试在所有三个平台上运行相同的任务,以比较性能和可用性。
任务结果:
Devin:
成功:
  • 用Rust编写了一个斐波那契生成器。
  • 根据给定的任务写了一个睡前故事。
  • 构建了一个基于React和Chakra UI的Docker CLI,取代了Docker桌面版。
  • 编写了一个简单的Golang工作流,用于在特定条件下发送电子邮件。
失败:
  • 最初在为Apple Silicon Mac进行交叉编译时遇到困难。
  • 在预提交钩子linting方面遇到困难。
优缺点:
Devin:
  • 优点:
    • 界面精美,用户友好,带有聊天窗口进行交互和计划可视化。
    • 强大的功能,包括网络浏览、代码生成和执行。
    • 能够根据用户反馈进行调整和重新规划。
  • 缺点:
    • 专有工具,访问受限。
    • 有时可能很慢,特别是在处理复杂任务时。
OpenDevin:
  • 优点:
    • 开源,任何人都可以访问。
    • 在代码生成和执行方面表现出前景。
    • 用户友好的界面,有改进的潜力。
  • 缺点:
    • 开发处于早期阶段,存在安装挑战和依赖问题。
    • 关键的网络浏览功能在直播期间无法使用。
SWE-Agent:
  • 优点:
    • 开源,专注于GitHub问题解决。
    • 展示了创建PR和与GitHub交互的能力。
    • 与Devin和OpenDevin相比,效率和速度相对较快。
  • 缺点:
    • 功能有限,只专注于GitHub问题。
    • 缺乏用户友好的界面,依赖命令行交互。
    • 在更复杂的任务和迭代开发过程中遇到困难。
    • 文档可以改进,以提高清晰度和易用性。
大模型日报(4月13~14日 资讯篇)https://x.com/swyx/status/1778641185193730488

资讯

01

马斯克的首款多模态大模型来了,GPT-4V又被超越了一次

自从 2023 年 11 月 Grok首次亮相以来,马斯克的 xAI 正在大模型领域不断取得进步,向 OpenAI 等先行者发起进攻。在 Grok-1 开源后不到一个月,xAI 的首个多模态模型就问世了。昨天,xAI 推出了 Grok-1.5V,该模型不仅能理解文本,还能处理文档、图表、截图和照片中的内容。
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/2GDjZS6ctayAF8e8eFb3CQ
02

Anthropic CE0 表示领先的人工智能模型的成本将很快上升到 100 亿美元

在接受纽约时报的记者 Ezra Klein 的播客采访时,Anthropic 的 CEO Amodei 谈到了人工智能发展的近期和遥远的未来。他预计未来几年训练大型语言模型的成本将迅速上升。虽然今天的模型成本约为1亿美元,但他预计在不久的将来成本将在 10 亿美元左右。”今天的模型训练成本为1亿美元,有时会浮动至2~3亿美元。现在正在训练的模型以及将在今年晚些时候或明年初不同时间推出的模型的成本接近 10 亿美元。我认为在 2025 年和 2026 年,我们将需要更多的资金,达到 50 或 100 亿美元。”
大模型日报(4月13~14日 资讯篇)https://the-decoder.com/anthropic-ceo-believes-leading-ai-models-will-soon-cost-up-to-ten-billion-dollars/
03

木头姐 ARK 宣布已投资 OpenAI!还将 Anthropic 及 Figure1 等 AI 独角兽一网打尽

在 Ark 本周四发给客户的电子邮件中表示,截至 2024 年 4 月 10 日,ARK 已通过 Ark Venture Fund 风险基金投资了 OpenAI。此外,ARK 在报告中表示,OpenAI 处于 AI 能力寒武纪爆发的最前沿。
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/lE7zTnVeFfI1wcDfvkVauw
04
4

Tier1 厂商麦格纳宣布采用 Sanctuary AI 人形机器人参与汽车制造

Sanctuary AI 成立于 2018 年,总部位于加拿大温哥华,其使命是创造世界上第一个类人智能通用机器人,帮助我们更安全、高效和可持续地工作,帮助解决当今许多组织面临的劳动力挑战。2024 年 4 月 11 日,Sanctuary AI 宣布与全球移动技术公司麦格纳建立战略合作伙伴关系,Sanctuary AI 开发的机器人将部署在麦格纳(Magna)的制造业务中,利用麦格纳的汽车产品组合、工程和制造能力对机器人的成本和可扩展性进行多学科评估;以及麦格纳的战略股权投资。
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/nzuGNBLFKfNonBb_Y4Wcuw
05

首个AI程序员造假被抓,Devin再次“震撼”硅谷!扒皮视频文字详解附上

首个AI程序员,演示视频大幅度造假?不久之前震撼硅谷的Devin,再度震撼硅谷——但这次是被打假。事情是这样的:油管程序员博主Internet of Bugs对Devin的视频进行了逐帧分析,逐一举证说明了Devin并不如演示中那般神奇。
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/898TBRvqFwhBVfI3SPdxyA
06

GPT超越扩散、视觉生成Scaling Law时刻!北大&字节提出VAR范式

新一代视觉生成范式「VAR: Visual Auto Regressive」视觉自回归来了!使 GPT 风格的自回归模型在图像生成首次超越扩散模型,并观察到与大语言模型相似的 Scaling Laws缩放定律、Zero-shot Task Generalization 泛化能力。这项名为 VAR 的新工作由北京大学和字节跳动的研究者提出,登上了 GitHub 和 Paperwithcode 热度榜单,并得到大量同行关注。
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/KOEdTgJX4Gga5zRbl57Yow
07

曾爆火的 InstantID又有了新玩法:风格化图像生成,已开源

风格化图像生成,也常称为风格迁移,其目标是生成与参考图像风格一致的图像。此前基于 diffusion 的方法(比如 LoRA)通常需要批量的同风格数据进行训练,无法迁移到新的风格中,或者基于 inversion(如 StyleAlign),通过将风格图像还原到 latent noise 后,将其前向传播得到的 K、V 用于替换风格图像生成中的 K、V,但这类方法往往由于 inversion 的操作,造成风格退化。最近,InstantID 原班团队推出了风格迁移的新方法 InstantStyle,与人脸 ID 不同,它是一个通用的图像风格注入框架,采用两种简单但非常有效的技术,来实现风格和内容与参考图像的有效分离。
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/CP6NFzzt57YZMj4Q3JNySA
08

全球AI顶会NeurlPS开始收高中生论文了

培养 AI 人才,要从娃娃抓起,这句话似乎越来越不像开玩笑了。本周五,顶级学术会议 NeurIPS开设高中生论文 Track 的消息引爆了人工智能社区。消息援引自大会组织方的一项新公告。请注意,这不是 workshop,是主会议。NeurIPS 2024 邀请高中生提交有关机器学习社会影响主题的研究论文。组委会将选出一部分决赛入围者以虚拟方式展示他们的项目,并将在 NeurIPS 主页上重点展示他们的作品。此外,最多五个获奖项目的主要作者将受邀参加在温哥华举行的 NeurIPS 2024 颁奖典礼。参赛要求强调每份提交的作品必须完全由高中生作者独立完成。NeurIPS 2024 组委会希望每份提交的内容都能突出使用机器学习产生的积极社会影响或产生积极社会影响的潜力。
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/Uctt64AT7oeWtZPLmZqxVQ
09

OpenAI推销ChatGPT to B业务,微软客户也是目标

技术领先的 OpenAI,正在稳步推进大模型能力的落地。据路透社等媒体报道,OpenAI 首席执行官山姆・奥特曼(Sam Altman)本月在旧金山、纽约和伦敦接待了数百名《财富》500 强公司高管,他和其他 OpenAI 高管在会上推销了供企业使用的人工智能服务,同时还与自己的资金支持者微软的产品进行了一番比对。这些类似路演的活动表明,在通过消费级产品 ChatGPT 引发生成式人工智能爆炸式增长之后,OpenAI 正在寻求从世界各地的企业那里增加新的收入来源 —— 其中一些可能来自其最大合作伙伴的主场。OpenAI 与全球大型企业高管的最近三场会议 —— 两次于上周在美国举行,一场本周一在伦敦举行,此前尚未获得曝光。据不愿透露姓名的与会者称,奥特曼在活动中直接面向每个城市的 100 多名高管发表了讲话。在每次活动中,奥特曼和 OpenAI 首席运营官 Brad Lightcap 都进行了产品演示,包括 ChatGPT Enterprise(其著名的企业级应用,可根据简单的提示生成文本)、将客户应用程序连接到其 AI 服务(称为 API)的软件及其最新的文本到视频模型。OpenAI 承诺 ChatGPT Enterprise 客户的数据不会被用于进一步训练 AI 模型。在与金融、医疗保健和能源等行业的潜在客户交谈时,OpenAI 高管强调了一系列具体应用方向,例如呼叫中心管理和翻译。他们指出,超过 92% 的财富 500 强公司已经在使用其聊天机器人的消费级版本。
微软作为 OpenAI 的最大投资者,去年开始已通过其 Azure 云和销售 Microsoft 365 Copilot(一种由 OpenAI 面向企业的模型提供支持的生产力工具)的方式提供了对 OpenAI 先进大模型技术的访问。
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/86nAqCu84lC_aDCe9_R8dw
10

CVPR 2024 | 仅需文本或图像提示,新框架CustomNeRF精准编辑3D场景

自 2020 年神经辐射场 (Neural Radiance Field, NeRF) 提出以来,将隐式表达推上了一个新的高度。作为当前最前沿的技术之一,NeRF 快速泛化应用在计算机视觉、计算机图形学、增强现实、虚拟现实等领域,并持续受到广泛关注。有赖于易于优化和连续表示的特点,NeRF 在 3D 场景重建中有着大量应用,也带动了 3D 场景编辑领域的研究,如 3D 对象或场景的纹理重绘、风格化等。为了进一步提高 3D 场景编辑的灵活性,近期基于预训练扩散模型进行 3D 场景编辑的方法也正在被大量探索,但由于 NeRF 的隐式表征以及 3D 场景的几何特性,获得符合文本提示的编辑结果并非易事。为了让文本驱动的 3D 场景编辑也能够实现精准控制,美图影像研究院(MT Lab)与中国科学院信息工程研究所、北京航空航天大学、中山大学,共同提出了一种将文本描述和参考图像统一为编辑提示的 CustomNeRF 框架,可以通过微调预训练的扩散模型将参考图像中包含的特定视觉主体 V∗嵌入到混合提示中,从而满足一般化和定制化的 3D 场景编辑要求。该研究成果目前已被 CVPR 2024 收录,代码已开源。
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/5Lw5iwSHxJxeqPJYEa3KZw
11

谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024

最近,来自澳大利亚蒙纳士大学、蚂蚁集团、IBM 研究院等机构的研究人员探索了模型重编程 (model reprogramming) 在大语言模型 (LLMs) 上应用,并提出了一个全新的视角:高效重编程大语言模型进行通用时序预测 –- 其提出的 Time-LLM 框架无需修改语言模型即可实现高精度时序预测,在多个数据集和预测任务中超越了传统的时序模型,让 LLMs 在处理跨模态的时间序列数据时展现出色,就像大象起舞一般!
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/K04haPMcbKiS6OkCihXAqQ
12

除了唱歌,AI还能替你演出?又一AI公司将虚拟人推到新高度

用 Suno十秒写歌,是不是已经很震撼?现在不仅如此,用最新的 AI 工具,我们还可以快速生成歌手唱歌 MV。
最近,一家名为 AKOOL的 AI 公司推出了一个唱歌虚拟人工具,用户只需在平台上选择虚拟人,简单输入歌词指令,便可生成能唱歌的虚拟人 MV。视频中的 “歌手” 在雪地里随着音乐翩翩起舞,“假唱” 对口型也毫不逊色。
大模型日报(4月13~14日 资讯篇)https://mp.weixin.qq.com/s/gSg1JRosqPnX86wAUEzg0A

产品

01

eezyCollab

eezyCollab 是一个旨在提供强大的 AI 驱动网红营销平台。目标是帮助品牌提升影响力,AI 算法会分析用户的产品和目标受众,只需单击一下即可联系多个网红,从而节省数小时的宝贵时间,实现高效有效的网红营销。定价计划相对适中,并提供免费试用帮助企业入门。
大模型日报(4月13~14日 资讯篇)https://www.eezycollab.com/
02

chatslide.ai

ChatSlide.ai 是一个强大的工具,可以帮助用户快速生成令人惊叹的幻灯片,并支持不同的音调、风格,甚至语音克隆。它还可以将用户的幻灯片和脚本转换为视频,配有可自定义的头像。通过展示用户的专业知识和创造力的动态视频演示,让内容更加栩栩如生,给被演示者留下持久的印象。
大模型日报(4月13~14日 资讯篇)
https://chatslide.ai/landing
投融资
01

用AI帮企业跑通财税服务全流程,「创业爸爸」获1000万元融资

AI公司创业爸爸成立于2020年10月,利用AI技术提供标准化财税全流程服务,针对中小企业。创业爸爸位于海南,受益于2020年海南自由贸易港政策,快速发展,提供多元化服务如公司注册、税务申报等。公司已建立一站式服务平台,有150多个服务项目,涵盖企业生命周期各阶段。创业爸爸还开发了话术库和在线培训系统,提高服务效率。2023年营收达3000万元,净利润1000万元。公司未来计划提升市场占有率,扩展到其他地区,继续投入AI研发,增强服务自动化和个性化。
大模型日报(4月13~14日 资讯篇)https://36kr.com/p/2729877214045447
02

Prem Labs获得1400万美元种子轮融资,用于AI模型创新

Prem Labs成功获得1400万美元种子轮融资,此轮资金由David Maisel(Marvel Studios联合创始人)和红杉资本中国合伙人等知名投资者提供。公司致力于使用开源技术和自主研发的AI模型,推动AI技术的民主化,确保隐私、定制化和数据主权。这笔资金将帮助Prem Labs扩展其创新产品,并巩固其在AI伦理进步领域的领导地位。
公司官网:https://www.premai.io/
大模型日报(4月13~14日 资讯篇)https://www.techcompanynews.com/prem-labs-secures-14m-seed-funding-for-ai-model-innovation/
03

前Intel高管创立的Lumana获得2400万美元种子轮融资

Lumana开发的视频安全平台利用AI和分布式混合云架构,已成功获得2400万美元种子轮融资,由Norwest和S Capital领投。该平台能实时分析数百万小时的视频,提高安全效率和事故响应速度。Lumana的创始人Sagi Ben Moshe是Intel在以色列的资深高管,公司目前在加州和特拉维夫设有办事处。此轮资金将助力Lumana扩大市场影响力,提升AI视频分析技术。
公司官网:https://www.lumana.ai/
大模型日报(4月13~14日 资讯篇)https://www.calcalistech.com/ctechnews/article/ryny02cyc?utm_
大模型日报(4月13~14日 资讯篇)

大模型日报16

原创文章,作者:LLM Space,如若转载,请注明出处:https://www.agent-universe.cn/2024/04/16093.html

Like (0)
Previous 2024-04-13 23:49
Next 2024-04-15 19:57

相关推荐

  • 大模型日报(6月20日 资讯篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。 欢迎大家一起交流! 资讯 0…

    2024-06-20
    152
  • 大模型日报(8月15日 资讯篇)

    特别活动! 我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。 「奇绩大模型日报」知识库现已登陆飞书官方社区: https://www.f…

    2024-08-15
    206
  • 大模型日报(9月4日 资讯篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。 「奇绩大模型日报」知识库现已登陆飞书官方社区: https://www.feishu.…

    2024-09-04
    292
  • 又双叒叕!AI Unconference北京Ⅱ场活动报名!

         什么是      AI Unconference?   「多个AI相关主题与自由讨论」  ‍‍‍‍ 你是否厌倦了坐在台下苦等Q&A? 秉承着“参与者即Speake…

    2024-08-12
    223
  • 大模型日报(4月25日 资讯篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。 欢迎大家一起交流! 资讯 0…

    2024-04-25
    173
  • 大模型日报(7月22日 资讯篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。 「奇绩大模型日报」知识库现已登陆飞书官方社区: https://www.feishu.…

    2024-07-22
    244
  • 大模型日报(4月29日 资讯篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。 欢迎大家一起交流! 资讯 0…

    2024-04-29
    188
  • 大模型日报(5月17日 资讯篇)

    特别活动 我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。 欢迎大家一起交流!…

    2024-05-17
    161
  • 大模型日报(6月11日 资讯篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。 欢迎大家一起交流! 资讯 0…

    2024-06-11
    106
  • 大模型日报(6月25日 资讯篇)

    我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。 「奇绩大模型日报」知识库现已登陆飞书官方社区: https://www.feishu.…

    2024-06-25
    215