1.台积电:30周年庆库克行程冲突来不了;
2.iPhone 8之后、传三星S9也要用类载板;
3.AI应用需要何种芯片 CPU、GPU、FPGA、ASIC各有所长;
4.AI加速器竞争白热化 NVIDIA捍卫江山有筹码;
5.USB 3.2速率翻倍全面支持USB-C,迎接千亿市场
集微网推出集成电路微信公共号:“天天IC”,重大新闻即时发布,天天IC、天天集微网,积微成著!点击文章末端“
阅读原文
”或长按 laoyaoic 复制微信公共号搜索添加关注。
1.台积电:30周年庆库克行程冲突来不了;
集微网消息,台积电预计于10月23日在台北君悦饭店盛大举行30周年庆,昨天集微网曾经报道包括库克在内台积电邀请了黄仁勋、莫伦科夫、ADI首席执行官Vincent Roche、ARM国际CEO席格斯、博通CEO霍克.谭、德州仪器首席执行官Rich Templeton及ASML首席执行官温彼得(Peter Wennink)等八大CEO到场。
不过台积电昨天表示,确实有邀请库克,但因时间行程问题无法前来参加台积电30周年庆会。
台积电表示,30周年庆目前正在紧锣密鼓进行中,邀请数百名贵宾,包括:客户、供货商及社会贤达等一起与台积电欢庆30周年庆。
对此,台积电表示,的确有邀请库克,但因行程安排上有问题,所以无法前来参加。 而其他重量级人士是否前来,台积电则表示,因正式邀请函尚未发出,细节还无法透露。
据悉,当天活动流程下午将举办高峰论坛,由台积电董事长张忠谋与重量级人士举行演讲及论坛,晚上则举行音乐会。
2.iPhone 8之后、传三星S9也要用类载板;
集微网消息,先前传出苹果下半年旗舰机「iPhone 8」主板将改用类载板(Substrate-Like PCB、SLP),如今据悉三星电子2018年旗舰机「Galaxy S9」也会采用。 由此看来,智能机主板趋势将逐渐转为类载板。
据韩国媒体etnews 7日报导,当前智能机主板的主流产品为「任意层高密度连接板」(Any-layer HDI),类载板是HDI的进阶产品。 类载板的好处在于堆栈层数变多,并可用封装程序缩小整体面积和线宽。 智能机机内空间有限,但是零件繁多,还须留下庞大空间安放电池,才能提高续航力。 类载板能减少占用空间,扩大电池容量,因此成了业界新宠。
业界人士表示,三星电子决定在2018年问世的S9,使用类载板,这是三星智能机首次搭载类载板。 S9打算用类载板作主板,连接处理器、NAND flash、DRAM等主要零件。 类载板使用半加成法(MSAP;modified-semi-additive process)的封装技术,据了解三星关系企业Samsung Electro-Mechanics已经成功研发MSAP,也许是三星决定采用类载板的原因之一。
在此之前,今年年初就有消息说,苹果今年旗舰机将改用类载板,当时分析师曾用详细解说类载板的好处。
MacRumors 2月13日报导,凯基投顾分析师郭明錤报告称,iPhone 8会使用成本较高的类载板,延长电池寿命。 电池科技未来三到五年间难有突破,只能缩减主板空间,以放置更大的电池,类载板可以满足这种需求。
郭明錤预测,今年的新iPhone将用类载板,其中搭载OLED面板的iPhone 8,类载板堆栈20层,远多于iPhone 7系列HDI的十层,这让iPhone 8主板面积缩小,有更多空间放置电池,电力容量扩大至2,700mAh。 此种改变代表尽管iPhone 8尺寸和小屏幕iPhone 7差不多,电池容量却远多于iPhone 7的1,960mAh,几乎快追上大屏幕iPhone 7 Plus的2,900mAh。
郭明錤同时强调,OLED比iPhone 7系列搭载的液晶更省电,因此iPhone 8续航力应会应优于iPhone 7 Plus。
3.AI应用需要何种芯片 CPU、GPU、FPGA、ASIC各有所长;
随着人们对人工智能(AI)的发展及应用期待升高,科技公司也都卯足全力开发客制化的芯片以及支援这些芯片的运算节点。市场情报公司ABI Research将AI硬件分为云端服务、装置本身(on-device)以及混合平台三大领域,其中云端是将AI任务交给超大规模数据中心进行线上处理,但基于连线及延迟等因素考量,有些数据必须直接在装置上执行运算。至于混合型则是结合云端与装置平台完成AI运算,例如使用手机识别用户问题,然后交由云端找出答案。
根据The Register报导,类神经网络共有2个层面,一是训练,利用网络分析大量数据产生统计模型,这属于学习阶段;其次则是推论,透过类神经网络转译新数据,并产生精确的结果。训练类神经网络需要非常庞大的运算量,由于训练负载可以切割成许多同时执行的工作任务,因此GPU的双精度浮点运算及庞大的运算核心占有很大优势。
GPU以外的选择
部分云端业者亦投入开发不同于GPU架构的自有芯片,例如Google的张量处理器(Tensor Processing Unit;TPU),除可支援推论工作负载,新一代更加入了可用于训练的浮点精确度运算。TPU属于特殊应用积体电路(Application-Specific Integrated Circuit;ASIC),专为特定目的而设计,无法重新编程,效能高功耗低,但价格昂贵。Google因规模够大,相关的一次性工程费用可以透过省下的功耗成本加以补贴。
FPGA及其他硬件
至于微软(Microsoft)则是在数据中心部署现场可编程逻辑闸阵列(FPGA),负责网络及机器翻译等AI工作负载。英特尔也将在2017年推出代号Knight’s Mill的新一代Xeon Phi高效能CPU,着重机器学习与人工智能应用。除了以Xeon搭配FPGA芯片Altera Arria 10之外,英特尔也将以Xeon搭配源自Nervana Systems技术的Lake Crest芯片,采用比DDR4快12倍的HBM2随机存取存储器,加快数据传输效能。
除了依据GPU、FPGA、ASIC建立的系统外,其他公司也试图从基本面改写AI架构,例如NASA前署长Dan Goldin的Knuedge新创公司正在开发针对云端运算的256核芯片,英国Graphcore的IPU (Intelligence Processing Unit)是不同于GPU向量或CPU标量处理的图形处理库,可以缓解数据从存储器传送到处理单元的问题。
边缘运算
手机、无人机及汽车等客户端装置的考量重点为节能与低延迟运算,尤其自驾车需要在瞬间做出决定,对于连线延迟的容忍度更低。包括安谋(ARM)、高通(Qualcomm)及苹果(Apple)在内都将推出支援机器学习任务的处理器。
而麻省理工学院(MIT)的Eyeriss计划则正在开发内建 168个核心、专门用来部署神经网络的芯片。该校电机工程教授Vivienne Sze表示深度神经网络最耗能量的部分不在于推论运算,而是数据在存储器及乘积累加运算之间交换时,因此Eyeriss芯片可在将数据传送到每一个核心之前,先进行数据压缩。DIGITIMES
4.AI加速器竞争白热化 NVIDIA捍卫江山有筹码;
随着人工智能(AI)服务器GPU加速器需求转热,越来越多大厂投入市场,不禁令人好奇,面对新对手接连进逼,一直处于领先地位的NVIDIA如何捍卫江山,未来是否有筹码还击。
当市场需求攀升,少数供应商得到丰厚的获利时,更多的厂商即会相继投入抢食大饼,这是基本的经济运作。在AI加速器市场亦然,NVIDIA早期跨入此领域,拜企业和云端服务业者AI相关投资与日具增之赐,NVIDIA的Tesla GPU需求畅旺,公司业绩也大进补。
以2017年上半为例,NVIDIA首季数据中心产品销售激增逾2倍,第2季续增186%。NVIDIA在AI领域耀眼的表现引起其他科技大厂的注意,过去1年来包括英特尔(Intel)、超微(AMD)、富士通(Fujitsu)和Alphabet相继推出AI服务器加速器,或宣布准备进军市场。
随着市场竞争逐渐白热化,NVIDIA该如何维持竞争优势?这可以从比较NVIDIA的GPU和对手产品找到答案。服务器CPU与PC和移动CPU一样,仅能容纳少量相对强而有力的CPU核心,例如最强而有力的英特尔Xeon Scalable服务器CPU有28核。反观GPU可以有上千个小核心并行运作。也因此,对于不断地进行演算和推论的AI深度学习训练而言,GPU比CPU更适合。
推论演算法不一定要求巨大的处理能力,GPU就可以应付这些任务,有鉴于此,NVIDIA试着让GPU在此获得更多的采用。不过,许多服务器端的推论工作仍然以英特尔的Xeon CPU为主。苹果(Apple)因隐私权的关系,偏好直接在iOS装置以AI演算法处理用户数据。
然而,训练深度学习模型来创造演算法解读数据,例如自动驾驶系统翻译简讯或侦测交通号志等都需要密集的运算,训练过程中,数千甚至数百万个人工神经元化分成许多“层”(layer,如输入层、隐藏层、输出层等)来负责不同的任务,以及和其他层的神经元沟通,以便判断数据分析后的结果是否无误,例如输入的影像是否为停车标志(stop sign)等。
比起不到30核心的CPU,AI研究人员利用多个拥有数千个核心的Tesla GPU来分担人工神经元的工作,训练深度学习模型将加快许多。深度学习演算是一种复杂的数学,而这正是NVIDIA的Tesla GPU擅长的领域,它还可以提供一个具有众多存储器频宽的模型,以及高速连结芯片来进行沟通。
但这并不意味着GPU是唯一适合训练深度学习模型的处理器,理论上芯片制造厂也可以开发一个配备数千个核心,专为处理深度学习演算而设计的特殊应用积体电路(ASIC),让它们能与存储器或其他ASIC快速沟通。