英伟达 黄仁勋 戴尔 AI转型 黄仁勋:AI十年变革拉开序幕,“这个赛道没有第二名” ⭐0 👥0 “未来十年将是人工智能(AI)大转型的关键时期。在这场竞争中,没有第二名的空间,必须成为第 一。”站长之家(ChinaZ.com) 5月20日 消息:2025 年 5 月 19 日(当地时间),英伟达 CEO 黄仁勋在美国拉斯维加斯举行的“戴尔科技世界 2025”(Dell Technologies World 2025)大会上发表主题演讲,明确表示:“未来十年将是人工智能(AI)大转型的关键
英伟达 AI加速器 芯片供应链 GTC2025 英伟达计划在美国投资数千亿推动半导体供应链发展 ⭐0 👥0 全球市值最高的半导体公司英伟达近日宣布,将在未来四年内在美国的供应链上投资数千亿美元。根据《金融时报》的报道,英伟达预计将在电子产品领域支出约 5000 亿美元,其中很大一部分将用于美国的运营。这一重大投资计划被认为是对特朗普 “美国优先” 贸易政策的响应,同时也跟随了苹果等其他科技巨头的类似公告。英伟达首席执行官黄仁勋在接受《金融时报》采访时指出,公司已经可以通过台积电(TSMC)和富士康等供应
视觉注意力机制 广义空间传播网络 英伟达 高分辨率图像 英伟达与港大携手推出新型视觉注意力机制,提升高分辨率生成速度超 84 倍! ⭐0 👥0 近日,香港大学与英伟达共同研发了一种新的视觉注意力机制,名为广义空间传播网络(GSPN),该机制在高分辨率图像生成方面取得了显著的突破。传统的自注意力机制虽然在自然语言处理和计算机视觉领域取得了不错的效果,但在处理高分辨率图像时却面临计算量巨大和空间结构损失的双重挑战。传统的自注意力机制的计算复杂度为 O (N²),这使得处理长上下文时非常耗时,并且将二维图像转化为一维序列会导致空间关系的丢失。为
AI收购 英伟达 Lepton AI 20人创业神话,老黄数亿刀收购,AI大牛贾扬清、白俊杰被曝入职英伟达 ⭐0 👥0 声明:本文来自微信公众号“新智元”,作者:英智 KingHZ,授权站长之家转载发布。创立两年的Lepton AI被英伟达收入囊中!联创AI大牛贾扬清和白俊杰,已经加入收购方英伟达。这次收购将完善英伟达的AI投资布局。靴子落地,创立两年的Lepton AI被英伟达收入囊中!据The Information报道,英伟达斥资数亿美元,完成了对AI大牛贾扬清创企Lepton AI的收购。目前,Lept
Fast-dLLM 英伟达 扩散模型 自回归模型 英伟达与 MIT、香港大学联手推出 Fast-dLLM 框架,推理速度提升惊人 ⭐0 👥0 在最近的科技进展中,英伟达与麻省理工学院(MIT)和香港大学联合推出了名为 Fast-dLLM 的新框架,显著提升了扩散模型(Diffusion-based LLMs)的推理速度,最高可达27.6倍。这一创新的成果为语言模型的应用开辟了新天地。扩散模型被视为自回归模型的有力竞争者,采用了双向注意力机制,使其在理论上能够实现多词元同步生成,从而加快解码速度。然而,实际应用中,扩散模型在推理速度上却常
AI芯片 三星电子 内存芯片 英伟达 三星预计第一季度利润下降21%,AI芯片销售疲软成主要原因 ⭐0 👥0 韩国科技巨头三星电子(Samsung Electronics)预计将于本周二发布第一季度财报,利润可能会同比下降21%,降至5.2万亿韩元(约合36.2亿美元)。这一利润下滑主要受到人工智能(AI)芯片销售不佳和合同芯片制造业务持续亏损的影响。三星电子是全球最大的内存芯片制造商,但自去年以来,其芯片利润一直处于下滑趋势。三星在高性能内存芯片的供应上落后于主要竞争对手 SK 海力士(SK Hynix
AI新词 人工智能 英伟达 BlackwellGPU 互联网女皇AI趋势报告:AI模型训练成本超高,但推理成本断崖式下降 ⭐0 👥0 根据互联网女皇发布的AI趋势报告的深度分析,人工智能(AI)模型的计算经济学正经历着一场关键的转变。报告指出,训练最强大的大型语言模型(LLM)已成为人类历史上最昂贵、资本最密集的投入之一,目前每个模型的训练成本往往超过1亿美元。Anthropic首席执行官Dario Amodei在2024年中指出,目前有模型正在训练,其成本接近10亿美元,并预测到2025年,训练成本高达100亿美元的模型可能会
Llama3.1NemotronUltra253B 英伟达 大语言模型 AI 英伟达震撼发布Llama 3.1 Nemotron Ultra 253B:AI性能王者再定义行业新标杆 ⭐0 👥0 近日,全球芯片与AI技术巨头英伟达(NVIDIA)推出了一款全新开源大语言模型——Llama3.1Nemotron Ultra253B,引发了人工智能领域的强烈反响。这一模型基于Meta的Llama-3.1-405B打造,通过创新技术优化,不仅在性能上超越了Llama4Behemoth和Maverick等强劲对手,还以高效的资源利用率和卓越的多任务能力,为AI应用的广泛落地提供了新的可能。Llam
Fast-dLLM 英伟达 扩散模型 AI新词 英伟达与MIT合作推出 Fast-dLLM 框架,AI 推理速度提升 27.6 倍 ⭐0 👥0 近日,科技巨头英伟达联合麻省理工学院(MIT)与香港大学,发布了名为 Fast-dLLM 的新框架。这一创新的框架旨在显著提高扩散模型(Diffusion-based LLMs)的推理速度,最高可达27.6倍,为人工智能的应用提供了更为强大的技术支持。 扩散模型的挑战与机遇扩散模型被视为传统自回归模型(Autoregressive Models)的有力竞争者。它采用双向注意力机制(Bidirect
FFN融合 Transformer架构 大型语言模型(LLM) 英伟达 英伟达AI研究人员推出FFN融合技术:加速大型语言模型推理 ⭐0 👥0 人工智能芯片巨头英伟达的研究人员近日发布了一项名为“FFN融合”(FFN Fusion)的创新架构优化技术。该技术旨在通过解决Transformer架构中固有的串行计算瓶颈,显著提升大型语言模型(LLMs)的推理效率,为更广泛地部署高性能AI应用铺平道路.近年来,大型语言模型在自然语言处理、科学研究和对话代理等领域展现出强大的能力。然而,随着模型规模和复杂性的不断增加,其推理过程所需的计算资源也大