生成式 AI 软硬体协同发展,IC 设计厂抢商机

由 ChatGPT 带动的生成式 AI 产业夯,除了现有的诸多讨论之外,更多的焦点应放在下一步 AI 会长得怎麽样?未来的生成式 AI 有什麽可能性?

人类对於AI的想像早已在一些电影当中显见,像是1984年《神通情人梦》(Electric Dreams),或是2013年的《云端情人》(Her)。但,什麽时候能够更加优化机器,从现在一问一答的模式,变成像是电影当中的超级助理,拥有自我人格意识,而且能成长的AI系统,这样更像人类的可能性持续发展并演进当中。

从技术角度来看,大型语言模型(LLM)是透过生成式网路所建立,事实上,从过去语音、影像辨识,延伸到给机器一个指令并提供答案的方式,整体运算量高出许多,也意味着需要有更大的运算能力支持,即便仍需要运算时间,即时性仍有进步空间,但对现阶段的AI发展与需求来说是较其次的目标。

业内人士分析,从晶片端来说,目前仍是透过NVIDIA所提供的晶片与平台进行,要让机器变得更像是人,模型的优化变得更加重要,当资料量增加、训练量增加之後,模型也会逐变得更加完整,随後才能开发其他的晶片来跑更客制化的模型。

至於AI技术怎麽往下进行,业内普遍认为,由於目前模型的效能、准确度、使用方便性等等都还在演化、发展的过程中,因此当模型更优化的时候,才会再回到硬体端,晶片设计公司才会以有效率的方式完成相应的硬体开发。

不过,软硬体之间的相互配合也是重要的,硬体能否提供具有强大运算力的平台,也是关键之一。像是由於需要大量的资料量运行、资料存取等需求,使得高速运算、高速传输、记忆体架构、晶片架构等都有再优化的空间。

以晶片架构来说,由於对晶片尺寸、良率等要求使得传统系统单晶片(SoC)转向使用异质整合的架构小晶片(Chiplet)设计,以实现低延迟性、低功耗、高运算等性能,兼顾软硬体协同最佳化的需求。

不过,如果用软体来定义,AI分成训练(Training)、推论(Inference)两种类型,例如自驾车来说,透过道路学习,伺服器处理大量资料後,进而改变後续的行为。而边缘运算当中可以分成近、中、远,依照与资料中心的距离相对概念定义,从IoT装置、小型区域到远端的资料中心,各具功能,也有不同的运算能力,也让伺服器变得更加重要。

除了要让AI好好运算的关键重要CPU之外,非x86架构的晶片做为辅助加速器也更为重要,像是FPGA、ASIC、GPU等。概括性来说,FPGA为现场可程式化逻辑闸阵列,可随时编程、弹性设计、功耗低,用於推论(Inference)可达到优於其他晶片类型;ASIC则是效能最高的方案,能最符合客制化需求,但一次性的成本高,特别是用於消费性产品;GPU则适合於图像训练,但功耗也同样较高,用於训练(Training)相对适合。

不过,目前开放原始码释出的大型语言模型,多数仍以英文为主要优化的对象,繁体中文的语言模型相对不足,因此,联发科辖下的前瞻技术研究单位联发创新基地、中央研究院词库小组和国家教育研究院三方所组成的研究团队,开放全球第一款繁体中文语言模型到开源网站提供测试,可应用於问答系统、文字编修、广告文案生成、华语教学、客服系统等。盼能在硬体优势上,强化软体的技术能力。

另外,在AI趋势之下,伺服器、高速运算、高速传输的需求连带提升,因此纯IP厂、ASIC厂商可望拥有优势。

以纯IP厂商来说,晶心科总经理暨技术长苏泓萌表示,晶心科已打入资料中心AI加速器,扩充指令集,以及客制化的机制可以更有效率的传输资料,减少延迟性,也让效能发挥,这些也让客户认为RISC-V比Arm、x86架构更有优势。

且在高阶终端产品当中,高速传输规格升级的态势明确,包含伺服器、AI、高速运算等领域当中,因此像是纯IP厂商M31也有望随着PCIe Gen5、USB4市场渗透率持续提升之下,新接案的动能不减。

ASIC厂商创意、世芯-KY等也在高速运算需求提升之下,拥有先进制程技术优势,在高速运算当中,ASIC做为加速器的角色,因此许多国际大型业者与ASIC厂商共同合作,更具有快速开发、成功性高、客制化、弹性化的特色,因此ASIC市场规模也是逐年放大。

整体来说,生成式AI技术持续演进,软体之间技术相互配合与优化,提供人类对未来科技生活的想像,也逐步改变人类与电脑运算之间的关系,应持续观察後续产业的变化。

(本文由 MoneyDJ新闻 授权转载;首图来源:Created by freepik)

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论