Vultr 融资 3.33 亿美元,估值 35 亿美元

AMD 公司发展首席战略官 Mathew Hein 表示,对于 AMD 公司而言,支持 Vultr 是一种“让客户通过其平台体验 AMD GPU 的方式”。

芯片巨头超微半导体公司 (AMD) 和对冲基金 LuminArx Capital Management 为云端初创公司 Vultr 筹集了 3.33 亿美元的增长融资,这表明对人工智能基础设施的需求旺盛。

总部位于佛罗里达州西棕榈滩的 Vultr 表示,目前其估值为 35 亿美元,并计划利用这笔融资购买更多图形处理单元 (GPU),即驱动 AI 模型的芯片。这笔融资是 Vultr 首次注入外部资本。

该公司最初为企业的信息技术系统提供云计算服务,现在也提供人工智能计算服务。Vultr 表示,其人工智能云服务(向客户出租 GPU 访问权限)将很快成为其业务的最大组成部分。

AMD 公司发展首席战略官 Mathew Hein 表示,对于 AMD 来说,这项投资是让“客户通过其平台体验 AMD GPU”的一种方式。“我们将他们视为提升这一代和未来几代 AMD 产能的人才。”

Hein 表示,AMD 的目标是成为 Vultr 的“首选”AI 硬件提供商,但不会强迫用户做出选择。今年早些时候,AMD 发布了最新一代AI 芯片 MI325X,下一代 MI350 芯片将于明年推出。


本月初,Vultr 宣布计划在其芝加哥地区数据中心构建首个采用数千块 AMD GPU 的“超级计算”集群。

此轮融资之前,AI 芯片市场领导者Nvidia也采取了类似的举措。Nvidia与其他投资者一起,于 2023 年向 AI 云提供商 CoreWeave 提供了超过 4 亿美元的资金。CoreWeave 去年还以其 Nvidia GPU 作为抵押获得了 23 亿美元的债务融资。

Nvidia 已将其 GPU 的访问权限扩展到大量云提供商,AMD 也是如此。

研究公司国际数据公司 (International Data Corp.) 云计算和边缘服务研究副总裁戴夫·麦卡锡 (Dave McCarthy) 表示:“AMD 正在想办法与 Nvidia 增强竞争力。对于 AMD 来说,能够与 Vultr 这样的新兴云提供商达成良好的合作,将有助于他们在市场上获得更高的知名度。”

AMD 还投资了 TensorWave 等云提供商,后者也提供 AI 云服务。8 月,AMD 斥资近 50 亿美元收购了数据中心设备设计公司 ZT Systems 。

IDC 预计,到 2027 年底,AI 半导体市场规模将从今年的 1175 亿美元增至 1933 亿美元。据 IDC 称,Nvidia 占据了 AI 芯片市场约 95% 的份额。


Vultr 表示,其云平台为数十万家企业提供服务,包括微软旗下的视频游戏公司动视暴雪和印度电信巨头巴帝电信。

首席执行官 JJ Kardwell 表示,Vultr 的客户还将其已有十年历史的云平台用于其核心 IT 系统。

人工智能芯片市场中不乏挑战英伟达领先地位的竞争对手。除了 AMD,SambaNova Systems 等初创公司以及云计算巨头亚马逊网络服务和谷歌也在寻求为英伟达的硬件提供替代品。

微软、Meta Platforms和甲骨文均表示他们使用 AMD 的 GPU。亚马逊云部门的一位发言人表示,该公司与 AMD 密切合作,并“积极考虑提供 AMD 的 AI 芯片”。

与大多数云平台提供商一样,Vultr 并不只依赖一家 GPU 供应商。卡德威尔表示,该公司向客户提供 Nvidia 和 AMD GPU,并计划继续这样做。他补充道:“市场中不同部分对每家供应商都有不同的评价。”

市场中有一部分使用人工智能模型,而不是训练它们,部署一种称为人工智能推理的过程,需要更快的速度和更大的带宽。卡德威尔说,这发挥了 Vultr 的优势,也是 AMD 的 GPU 价格具有竞争力的领域。

与总部位于新泽西、以加密货币挖矿起家的 CoreWeave 一样,Vultr 也是从芯片制造商那里获得芯片并接受其资助的云计算公司之一。Forrester分析师 Lee Sustar 表示,这两家公司也迅速转向收购 GPU,以满足对生成式 AI 的需求。

亚马逊向 Anthropic 追加投资 40 亿美元——下一场科技军备竞赛

来源:亚马逊

亚马逊宣布向 Anthropic额外投资 40 亿美元,使该公司的总投资额达到 80 亿美元,这是其不断扩大的人工智能战略的一部分。这项投资于 2024 年 11 月 22 日宣布,将加强亚马逊在人工智能领域的地位,以 AWS 的形式建立其成熟的云计算服务。 

在保持亚马逊在 Anthropic 的少数股权的同时,这项投资代表了该公司在AI 技术和云基础设施方面的重大发展。扩大的合作不仅限于单纯的金融投资。除了亚马逊作为主要云提供商的角色外,Anthropic 现已指定 AWS 为其 AI 模型开发的“主要培训合作伙伴”。 

亚马逊的投资将使 Anthropic 利用 AWS Trainium 和 Inferentia 芯片进行训练并在其上部署其未来的基础模型,包括对旗舰 Claude AI 系统的任何更新。

AWS 的竞争优势

持续的合作为亚马逊在竞争激烈的云计算和人工智能服务市场提供了多项战略优势:

  1. 硬件创新:承诺将 AWS Trainium 和 Inferentia 芯片用于 Anthropic 的先进 AI 模型,验证了亚马逊对定制 AI 芯片的投资,并使 AWS 成为 AI 基础设施领域 NVIDIA 的强劲竞争对手。
  2. 云服务增强:AWS 客户将可以提前使用 Anthropic 模型处理的数据的微调功能。仅此一项优势就可以吸引更多企业使用亚马逊的云平台。
  3. 模型性能:据 Anthropic 称,Claude 3.5 Sonnet 是 Anthropic 的最新模型,可通过 Amazon Bedrock 获得,在代理编码任务中表现出色。

亚马逊的多面人工智能战略

虽然从金钱角度来看,对 Anthropic 的投资增加令人印象深刻,但它只是亚马逊更广泛的 AI 战略的一个组成部分。该公司似乎正在采取多管齐下的策略:

  1. 外部合作伙伴关系:  Anthropic 的投资可立即获得来自第三方的尖端 AI 功能。
  2. 内部开发: 亚马逊继续开发自己的人工智能模型和功能。
  3. 基础设施开发: 对 Trainium 芯片等 AI 专用硬件的持续投资表明了其致力于构建以 AI 为中心的基础设施的决心。

扩大合作伙伴关系表明亚马逊对人工智能开发的长期承诺,同时由于其持有少数股权而保持灵活性。这种方法使亚马逊能够从 Anthropic 的创新中受益,同时保留与外部人工智能公司建立其他合作伙伴关系并继续开展内部开发计划的能力。

这项投资强化了大型科技公司寻求战略性人工智能合作伙伴关系而非仅仅依赖内部开发的趋势。它还凸显了云基础设施在人工智能行业发展中的重要作用。AWS 将自己定位为适合人工智能模型训练和部署的平台。

OpenAI发布o3:迈向AGI时代的强大推理模型

2024年12月21日,OpenAI在其“连续12日圣诞发布”活动中,推出了重磅的推理模型升级版——o3。这一新模型被OpenAI誉为目前最强大的推理工具,号称在某些方面接近通用人工智能(AGI),无疑引起了全球人工智能领域的广泛关注。本文将深入分析o3及其mini版的核心功能、使用案例、未来发展趋势等,帮助读者更好地理解这一重要里程碑。

o3模型的发布标志着人工智能推理能力的一次重大飞跃。根据评估数据显示,o3在软件工程测试中的准确率比其前代o1提高了近47%,在竞赛数学测评中的准确率提升了15%,而在针对人类博士专家级生化物的测试中,o3的准确率也比o1高出近13%。值得注意的是,在有关AGI的测试中,o3的最佳成绩达到了87.5%,超过了人类水平的85%。与之对比,GPT-3的结果为0%,而之前的GPT-4o仅为5%。这一成绩的提升,彰显了o3在推动类人智能方面的巨大潜力。

OpenAI CEO山姆·阿尔特曼(Sam Altman)在发布会上提到,o3和o3-mini的发布是一个关键的开始,但同时也提醒公众,未来一段时间内,这些模型仍可能不会全面开放。阿尔特曼表示,OpenAI希望在正式推出这些新工具之前,能够建立一个联邦政府的测试框架,以指导监控并降低可能出现的风险。这样的做法反映出AI技术安全性日益受到重视,特别是在AGI能力不断提升的背景下,管理潜在风险成为行业的重要议题。

除了o3的技术提升,OpenAI在普及和应用方面的努力同样值得关注。自本周五起,OpenAI已开放安全研究人员注册访问o3和o3-mini的预览。这为研究人员和开发者提供了宝贵的机会,以深入了解这一新技术的潜力和应用场景。在众多研究和开发领域,o3的推理能力有望为软件开发、数据分析、研究孵化等提供强有力的支持。未来,借助于o3,更多企业及个人将能够利用这一先进工具提升工作效率,助力创新。