近年来,跟着人工智能的广泛运用,底层核算芯片的需求不断添加。与传统 CPU 比较,GPU 更适合此类使命,由于它们供给了更好的功用,并在 AI 核算商场上抢得先机。
对此,在 WAIC 2023 期间,英特尔公司高档首席 AI 工程师、网络与边际事业部我国区首席技能官张宇以为,推进本轮人工智能开展最中心的要素,实践上是核算、通讯和存储技能的不断进步。无论是大模型仍是交融 AI,实践上边际在整个 AI 生态系统中扮演着非常重要的人物。
张宇表明,「跟着职业数字化转型,人们关于灵敏衔接,实时事务以及运用智能等方面的诉求,推进了边际人工智能的开展。可是边际人工智能现在绝大部分的运用还处于边际推理阶段。也便是说咱们要运用很多数据以及极大算力在数据中心练习一个模型,咱们把练习的成果推送到前端去履行一个推理操作。这是现在绝大部分在边际完成人工智能的运用形式。」
张宇调查当时 AI 大型言语模型(LLM)的商业发展,仍未发现特别成功的商业形式和耐久的运用场景,以为 LLM 的商业形式仍在探索中。他进一步表明,现在 AI 练习商场的干流计划是英伟达高阶 GPU 无疑。
因而,英特尔计划推行专用 AI 芯片进行练习并不简单,但英特尔仍计划将旗下 AI 芯片 Habana Gaudi 2 引入我国商场,这一款产品将是执行英特尔 AI 战略的要害一环。
英特尔 2019 年末斥资 20 亿美元收买以色列草创芯片企业 Habana,现在成了另辟蹊径应战英伟达的利器。张宇表明,专门针对 LLM 练习使命规划的 Habana Gaudi 2 芯片,是企图打破干流 GPU 计划的测验。
张宇以为,网络互连对 LLM 的练习推理使命也相同重要,英特尔将以本身在网络技能领域的累积,企图处理 AI 大型言语模型的网络瓶颈问题。
此外,英特尔在 FPGA 计划基础上开发基础设施处理器(IPU),本质上也便是 DPU,而英特尔测验进步网络传输的考靠性,该功用也包括在其行将宣布的新一代 IPU 产品中。
来历:
站长之家