英特尔在美国纽约当地时间12月14日举行「AI Everywhere」发表会,会上推出无与伦比的AI产品组合,使客户的AI解决方案无处不在,从资料中心、云端、网路、边缘到PC。
主要亮点:
- Intel® Core™ Ultra处理器为首款基於Intel 4制程技术的处理器,象徵着公司40年来最大的架构转变,提供英特尔最节能的处理器并将引领AI PC时代。
- 第5代Xeon®处理器在每个核心中内建AI加速功能,带来AI和整体效能的提升,并降低总持有成本(TCO)。
- 英特尔执行长Pat Gelsinger(基辛格)首次展示了将於明年推出的Intel® Gaudi®3 AI加速器。
英特尔执行长Pat Gelsinger表示:「AI创新有望将数位经济的影响提升至全球总生产毛额的三分之一[i]。英特尔正在发展使客户能够在所有应用之间无缝整合并有效运行AI的技术和解决方案,包括在云端,以及越来越多资料产生和使用的终端上。」
呼应英特尔全球AI重要时刻,英特尔也在台湾正式发布全系列产品线,包括Intel® Core™ Ultra处理器(代号:Meteor Lake)、第5代Xeon®处理器(代号:Emerald Rapids),以及介绍最新版本的OpenVINO™ 2023.2工具套件。英特尔同时携手合作夥伴,现场展示10台基於Intel® Core™ Ultra的PC,以及超过25台基於第5代Xeon®处理器的系统和主机板,展现合作夥伴与台湾产业生态系强大的研发能量。
英特尔副总裁暨台湾分公司总经理汪佳慧表示:「英特尔的使命是透过精心规划的平台、安全的解决方案和对开放生态系统的支持,让AI无所不在。随着今天全系列新产品的推出,我们的AI产品组合变得更加强大。同时,我们也获得供应链生态系的支持,展现与合作夥伴共同发展下一代产品的最新成果,以及一起探索AI应用的无限可能。」
Intel® Core™ Ultra驱动AI PC和新应用
作为搭载Intel 4制程技术的首款处理器,Intel® Core™ Ultra象徵着公司40年来最大的架构转变。Intel® Core™ Ultra处理器将引领AI PC时代,是一款在运算、图形、功耗、电池寿命和AI体验全方面效能都表现出色的处理器。Intel® Core™ Ultra搭载首次推出的AI加速器—神经处理单元(NPU),能实现全新水平的高效能AI加速,比前一代产品提高了2.5倍的能源效率[ii]。
此外,英特尔正与100多家独立软体供应商紧密合作,将数百种AI应用程式导入PC市场,一系列高度创意、高效且有趣的应用将改变PC使用体验。对於消费者和商用客户来说,相对於竞争平台而言,这意味着在Intel® Core™ Ultra上将能执行更广泛的AI应用。例如,Adobe Premiere Pro的内容创作者将能享受到比竞争产品高达40%的性能[iii]。
搭载 Intel® Core™ Ultra的AI PC现已在多家美国零售商上市。预估明年度全球将有超过230款笔记型电脑和个人电脑采用Intel® Core™ Ultra处理器。展望2028年[iv],AI PC将占整体个人电脑市场八成,驱动工作、学习和创作的新应用。
活动现场亦展示来自宏碁、华硕、戴尔、神基科技、技嘉科技、联想、LG、微星科技等合作夥伴的10台基於Intel® Core™ Ultra的PC(依厂商英文名顺序排列)。
新一代Xeon处理器为资料中心、云端、网路和终端带来更强大的AI能力
第5代Xeon®处理器带来了效能和效率上的显着提升[v]。在相同热设计功耗(TDP),下,平均效能提升 21%[vi],每瓦效能提升 36%[vii]。若遵循普遍的五年更新周期,从旧一代系统升级到新一代Xeon处理器的客户其TCO可降低高达77%[viii]。
Xeon是市场唯一内建AI加速功能的主流资料中心处理器。全新第5代Intel® Xeon®处理器在多达200亿参数的模型上,提供高达42%的推论和微调效能提升[ix]。它也是唯一一款具有一致且不断改善MLPerf训练和推论基准测试结果的CPU。
透过Xeon内建的AI加速器,搭配最佳化的软体和强化的遥测功能,为通讯服务提供者、内容提供者,以及包括零售、医疗保健和制造等广泛垂直市场,提供更轻松的管理、更有效率的布署复杂的网路和边缘运算负载。
第5代Xeon®处理器也获得合作夥伴的肯定。IBM在其watsonx.data平台上发表了第5代Intel® Xeon®处理器的测试结果,其搜寻传输量(Query Throughput)比上一代Xeon处理器提高了2.7倍。Google Cloud预计在明年导入第五代Xeon®,并指出Palo Alto Networks在使用Google Cloud的第4代Xeon®的内建加速功能时,威胁侦测深度学习模型的性能提高了2倍。独立游戏工作室Gallium Studios转而使用在Xeon处理器上执行的Numenta AI平台,相较在基於GPU的云端平台上,其推论性能提高6.5倍,有效降低其AI游戏Prox的成本和时延。这种卓越性能为先进的AI开启了新的可能性,不仅在资料中心和云端,更延伸至全球网路和边缘运算的应用。
活动现场也展示超过25台基於第5代Intel® Xeon®处理器的系统和主机板,产品来自营邦企业、华擎科技、华硕、研华科技、仁宝科技、富士康工业互联网、技嘉科技、广积科技、鸿佰科技、英业达、立端科技、神云科技、微星科技、新汉、和硕联合科技、云达科技、美超微、纬创、纬颖科技等合作夥伴(依厂商英文名顺序排列)。
此外,英特尔也宣布Intel® Xeon® E-2400正式上市。此入门级伺服器专为中小企业与裸机云端托管(Entry-level bare metal cloud hosting)而设计。具备伺服器等级的可靠性,高成本效益和可管理性功能,提供高达5.6 GHz时脉、支援DDR5和PCIe 5.0,并具备Intel极致涡轮加速技术3.0(Intel® Turbo Boost Max Technology 3.0)。
满足开发者所需的AI加速和解决方案
Intel® Core™ Ultra 和第 5 代Xeon®未来都将进入大众从未想像过的应用场域。想像一下,根据客人的预算和饮食需求提供餐点选择的餐厅、从源头上发现品质和安全问题的厂房、可以看见人眼无法辨识的物品的超音波、精准管理电力的智慧电网。这些边缘运算应用代表了增长最快的运算领域,其全球市场规模预计到本世纪末将激增至4,450亿美元,其中AI的工作负载增长最为快速,而终端和客户端设备对AI推论的需求是资料中心的 1.4 倍。
英特尔除了提供可靠的AI硬体技术,更致力提升使用效率及体验,将AI加速功能融入开发者使用的AI框架(如PyTorch和TensorFlow),并透过oneAPI提供基础函式库,使软体在不同类型的硬体上进行最佳化,以大幅提升运作效能。英特尔的开放式oneAPI和OpenVINO™工具套件,提供开发者运用硬体加速来处理AI工作负载和解决方案,能快速建立、最佳化和布署AI模型,适用於各种推论应用。
英特尔最新版本的Intel® OpenVINO™ 2023.2,针对深度学习推论的开源软体库,增强对生成式与大型语言模型(LLM)的支援,开发人员可以透过OpenVINO™在本地端或云端直接布署AI推论,让开发人员能够更顺畅的转换模型,无需通过针对不同类型硬体的底层API重构模型,加速实现混合式AI。
Intel® OpenVINO™ 2023.2版本主要更新:
- 提升使用者体验:PyTorch模型转换更容易,并增加Hugging Face生态系统中的可用性和OpenVINO™在C/C++开发者使用的套件管理器。
- 生成式AI和大型语言模型(LLM)效能增强:在Intel® Core™ CPU和iGPU上加速LLM模型推论,使用INT8模型压缩,支援动态形状,预览支援INT4模型格式。
- 更高可携性和性能:通过启用FP16模型格式和整合额外加速库来提高LLM的性能和降低延迟。