欢迎来到亿配芯城! | 免费注册
你的位置:Vicor(威科电源)转换器/稳压器模块全系列-亿配芯城 > 话题标签 > 英伟

英伟 相关话题

TOPIC

12月16日,英伟达向台积电下单销往中国大陆的人工智能处理器,计划于2024年第1季度开始履行。尽管美国对中国芯片制造业实施更严格的出口管制,但英伟达仍继续增加台积电的投片量,以满足H100处理器的需求。然而,由于CoWoS产能限制,该处理器已极度短缺。 *部分图文来自网络,如侵权请联系本号删除* 为了解决这个问题,英伟达计划通过降低规格向大陆提供新的“特供”人工智能芯片,以取代出口受限的H800、A800和L40S系列。明年1月,英伟达计划恢复向大陆供应RTX 4090芯片,但会进行修改版本
1月3日,英伟达原计划于2023年推出HGX H20、L20、L2三款基于Hopper架构的GPU产品,专为人工智能(AI)计算设计。然而,由于美国商务部更新的高性能芯片出口管制措施,这些产品的发布被推迟。 HGX H20是一款与H100、H200同系列的产品,拥有96GB HBM3显存和4.0TB/s的显存带宽。其FP8算力为296 TFLOPS,FP16算力为148 TFLOPS,尽管相比当今最强AI芯片H200性能较低,仅为1/13,但其支持NVLink 900GB/s高速互联功能,并采
1月9日,据外媒报道,半导体制造商英伟达将恢复向中国市场出货高性能AI芯片,但这些芯片将是“特供版”,以符合美国政府的出口管制政策。据产业链人士爆料,英伟达正在开发针对中国区的“最新改良版”AI芯片,这些芯片基于英伟达H100改良而来。 2023年10月17日,美国政府颁布新禁令,进一步限制英伟达的高性能AI芯片的出口。然而,随着中美关系的变化,美国对中国销售态度似乎有所软化。英伟达也保证,这些特供版芯片将完全符合美国商务部的要求。据报道,这些特供版芯片原计划于2023年底推出,但因中美芯片战
最新消息,英伟达将在二季度恢复中国“特供版”AI芯片出货,但腾讯、阿里巴巴等大客户兴趣不大。两名知情人士透露,英伟达计划在2024年第二季度开始批量生产一款为中国设计的AI芯片,以符合美国的出口规定。其中一位知情人士称,最初的产量将有限,英伟达将主要满足大客户的订单。 据悉,这款英伟达希望以“超级急单”方式要求台积电优先交付的芯片可能是H20,在面临管制后面向中国市场开发的三款芯片中,H20规格是最强大的。 据华尔街日报(WSJ)消息,中国规模较大的云端企业去年11月就开始测试英伟达提供的H2
1月12日,印度数据中心运营商Yotta计划从英伟达购买价值5亿美元的人工智能(AI)芯片,这是其加强人工智能云服务的一部分。加上之前的订单,Yotta与英伟达的交易总额将达到10亿美元。 Yotta在2023年12月表示,将订购英伟达芯片,但没有透露具体价值或芯片类型。Yotta首席执行官兼联合创始人Sunil Gupta表示,该订单包括近16,000颗英伟达人工智能芯片H100和GH200,将于2025年3月交付。他还透露,Yotta去年订购的约16,000个H100芯片的订单预计将于今年
据台湾《经济日报》网站12月12日报道,美国商务部长雷蒙多表示,美国政府正在与英伟达讨论允许向中国销售AI芯片的问题,但强调英伟达不能把最先进的芯片卖给中国企业。她还说,美国政府正在仔细研究英伟达为中国市场开发的三款AI芯片的细节。 在接受路透社采访时,雷蒙多表示:“我们认为英伟达应该向中国销售AI芯片,因为这些芯片大多将用于商业应用。但我们不能允许英伟达出口最复杂、处理能力最强的AI芯片。” 雷蒙多透露,她一周前与英伟达首席执行官黄仁勋进行了对话,黄仁勋表示,“我们不想违反任何规定。只要告诉
随着人工智能(AI)的快速发展,对计算能力的需求也呈现出爆炸式增长。作为AI处理器的重要供应商,英伟达的H100芯片目前十分畅销。然而,每块H100的峰值功耗高达700瓦,远超普通美国家庭的平均功耗。这一趋势引发了关于数据中心和AI处理器的功耗问题,特别是随着大量H100被部署,专家预测其总功耗将与美国大城市甚至一些欧洲小国相当。 据微软数据中心技术治理和战略部门首席电气工程师保罗·楚诺克预测,到2024年底,数百万块H100部署完毕后,其总功耗将超过美国亚利桑那州凤凰城所有家庭的用电量,但仍
2024年1月3日,据外媒WCCFtech报道,英伟达将恢复向中国市场供应高性能AI GPU,其中H20等产品将于今年第二季度开始量产。此前,由于美国政府的出口管制政策,英伟达暂停了对中国市场的部分产品发货。 在2023年10月17日美国政府颁布的新禁令中,对英伟达的高性能AI芯片出口进行了限制。然而,在禁令正式生效前,英伟达宣布暂停A100、A800、H100、H800和L40S等产品发货。 为应对美国政府的限制,英伟达开发了针对中国市场的改良版AI芯片,包括HGX H20、L20 PCIe
近期据行业人士分析,GPT-5可能需要30000-50000张H100。 此前,摩根士丹利曾表示GPT-5将使用25000张GPU,自2月以来已经开始训练,不过Sam Altman之后澄清了GPT-5尚未进行训练。 不过,Altman此前表示:“我们的GPU非常短缺,使用我们产品的人越少越好。如果人们用得越少,我们会很开心,因为我们没有足够的GPU。” 在这篇题为《NvidiaH100GPU:供需》的文章中,深度剖析了当前科技公司们对GPU的使用情况和需求。 文章推测,小型和大型云提供商的大规
英伟达H100和A800 GPU芯片对比 英伟达是全球知名的图形处理器(GPU)制造商,其产品线覆盖了从消费级游戏显卡到高性能计算(HPC)和专业图形处理等多个领域。在英伟达的产品线中,H100和A800是两款备受关注的GPU芯片。本文将对这两款芯片进行对比分析,以便读者更好地了解它们的特点和适用场景。 一、产品概述 H100 GPU芯片 H100是英伟达最新一代旗舰级GPU芯片,专为大规模人工智能(AI)和高性能计算(HPC)应用而设计。该芯片采用了英伟达最新的Ampere架构,拥有超过80