导读 iPhone 的A12 Bionic 晶片、Neural Engine 神经网路引擎厉害在哪?苹果于昨天发表会上推出了三款iPhone,皆搭载苹果最新技术A12 Bioni
iPhone 的A12 Bionic 晶片、Neural Engine 神经网路引擎厉害在哪?
苹果于昨天发表会上推出了三款iPhone,皆搭载苹果最新技术A12 Bionic晶片,本篇文章将聚焦在这颗晶片所能带来的效率提升,以及对使用者会造成的影响;让你了解新款iPhone除了在外观、售价外,还有哪些亮点可以期待。
作为一个聚焦矽谷高科技的网站,我们就不为你汇总苹果的新iPhone长什么样(懒人包请点此),有什么新功能了,相信你逛一下官网就能知道。
但我为什么推荐你看这篇文章:在今天成千上万条苹果新品发表会相关文章里,相信没有多少像这篇一样,能为你划出出本次发表会上的真正重点。
废话不多说,正文开始。
重点一:A12 Bionic 处理器
A12 Bionic 处理器驱动着最新一代iPhone XS 和XR,是苹果秋季新品发表会上的主角之一。
这场发表会上有一大半篇幅都是苹果对A12 Bionic(以下简称A12)的参数和能力大谈特谈。我什至认为,这枚SoC 对于苹果的重要性要高于iPhone 本身。
这块晶片主要构成部分是CPU、GPU 和一个神经网路引擎Neural Engine。CPU 为6核;GPU 为4核,性能比前代A11 高了一半左右。
苹果全球行销高级副总裁菲利普·席勒(Phil Schiller)表示,A12是全世界电脑产业第一块7奈米处理器。
这是一个足以令人震惊的表述。因为科技从业者可能知道,晶片工业的领头羊主要就是Intel、英伟达、AMD 和高通等公司,而这些公司正在集体遇到天花板。
这个天花板就是摩尔定律。
摩尔定律来自英特尔的创办者,形容了电脑工业的一个常态现象:因为工艺的提升,处理器每隔一段时间的性能也会提升,而成本会下降。
然而在过去的几年间,摩尔定律越来越难应验了。以英特尔——全球绝大部分电脑处理器的制造商——为例,它的工艺革新的速度变得越来越缓慢,在10奈米制程工艺上的进展缓慢,导致其所依赖的技术演进模式正在崩盘。
与电脑相对的是移动SoC。高通是这个领域的领导者,进展还不错,最新一代骁龙845处理器采用10奈米制程工艺,也已经进入了几款最新的手机。然而高通遇到的问题是性能提升和工艺进步之间的线性关系正在缓慢消退,这也是高通在新一代处理器上主要突出平台效应而非性能的原因。
而谁也没有想到,在英特尔和高通跟摩尔定律缠斗的同时,苹果突然用去年的A11 和今年的A12 在晶片工业狠狠地刷了一下存在感。
席勒透露,在采用7奈米制程工艺的A12 处理器上,苹果(和它的代工厂台积电一起)塞进了将近70亿颗晶体管,让A12 成为了苹果乃至整个移动晶片工业史上制造的最强大的手机处理器
——别忘了这家公司并不像高通那样以晶片公司自居。
A12 的6核处理器仍然采用自家的Fusion 架构,分成2个高性能核心和4个低功耗核心,对处理前台高资源和后台待机任务进行分别处理,总体上达成了将近五成的功耗降低;4核图形处理器较前代性能也有了很大提升。
不过苹果在晶片上的真正大杀器,在于那块Neural Engine。
这是一块FPGA(Field-Programmable Gate Array),一种自定义能力强适合定制化计算需求,在机器学习领域被广泛采用的积体电路。
和A11 的双核心相比,A12 的Neural Engine 核心数暴增到了8颗。它们存在是为了:
1)在本机端处理神经网路任务,比如图像辨识、物体追踪、空间位置感应。
比如现场demo的篮球即时数据分析技术Homecourt Shotscience,可以即时监测球员的位置、姿态,球出手时的高度、角度和时机等各种资讯。
2)A12 Neural Engine 的第二个重要任务是为CPU 和GPU,以及在两个单元的不同核心之间进行任务分配,达成更高效的任务处理,提高性能、降低功耗。
第二代Neural Engine的存在,不仅展现了苹果在晶片设计上的强大,更证明了一件事:为了在设备上达成甚至创造新的用户需求,让iPhone比前一代更加尽善尽美,苹果愿意深入到晶片的层面。
而这和新iPhone 的第二个重点有关。
重点二:人工智慧
整场发表会给我留下深刻印象的点并不多,其中之一就是前面提到的篮球即时数据分析软体Homecourt。
科技从业者可能知道,人工智慧是硬体和软体的结合。具体来想要有好的效果,不仅要有高性能的计算硬体,也要有强大的算法和软体支援。
搭配苹果的CoreML 深度学习框架,新一代iPhone 每秒可以进行的神经网路计算超过5兆次。这意味着在某些特定范围内,最新一代iPhone 已经超越了不久前业界顶尖的伺服器超级电脑。
当很多神经网路等级的任务可以在本机端计算,无需连接网路,最大的意义在于解锁了很多新的使用情境。比如发表会示范的新一代iPhone 拍照的Smart HDR 功能。
HDR 拍照就是在按下快门时,相机会拍下多张不同曝光的照片,将它们拼在一起,使得从高光到暗影的每一处细节都呈现更清晰。iPhone XS 和XR 相机引入的Smart HDR 功能,利用了这个逻辑,达成了更好的效果。
首先,按下快门时相机会自动拍下4张照片,利用Neural Engine 结合GPU 的计算能力选取最好的一张。苹果称其为零快门延时(Zero shutter lag)技术。
但过程并非如此简单,再按下快门时,相机不仅留下了4帧,还在另一个曝光等级上拍摄了它们的复制帧,以保留高光细节;
以及另外一帧高曝光,留下暗处细节。此谓HDR。
最后,Neural Engine 会再次选取照片中品质最优良的几张,包括正片、高光、暗影,将其结合,从而达成Smart HDR 效果:
最后得到的照片并不一定就和普通HDR 或者HDR+ 照片高下立判。但需要明确的是,这些功能并非过去的手机拍照处理器/ISP 可以达成的,而是需要Neural Engine 和CPU/GPU 配合。
你可以说苹果杀鸡用牛刀,但至少在拍照这件事上他们是认真的。
同样是在拍照上,新一代iPhone 可以达成更好的背景模糊(Bokeh) 效果。前代iPhone X 刚发表时很多用户发现人像模式效果并不好,原因在于并非双镜头达成,而是单镜头+电脑模拟背景模糊。
席勒表示,苹果相机工程师利用市面上顶级的相机和镜头所拍下的背景模糊效果,对iPhone 相机、软体以及A12 Neural Engine 进行训练,相信能够取得更好的背景模糊效果——尽管这次仍然是电脑模拟的。
另一个例子是现场demo的多人同萤幕——不对,同空间联机游戏。这是一款扩增实境(AR) 3D射击游戏,几个玩家各自操作手机,在同一个空间内射击目标,最后比较比分。
这款游戏利用了苹果的ARKit 2 平台,结合Neural Engine 驱动的图像辨识和空间感知能力,至少在发表会现场效果令人叹服。
看完整场发表会,苹果在iPhone XS/XR上展现的人工智慧软硬体能力,给我留下的印象并不是它们有多强,而是在于它们整合的多么紧密和自然。
因为究其根本,苹果也不是一家人工智慧公司。它的业绩保证需要销售设备来支援。而设备给人带来的体验多完整,决定了设备的用户满意度有多高。
未经允许不得转载:87头条 » iPhone的A12Bionic晶片Neural Engine 神经网路引擎厉害在哪