via:9to5mac.com
终于,有国外的资深人士把iPhone 7 plus最大卖点之一的“双摄”拆了个底朝天。
与许多期待及预测不同,iPhone 7 plus的双摄像头在硬件上似乎并没有那么黑科技,但提供的想象空间却很大。
● ● ●
用两颗镜头实现的2X“光学”变焦
从发布会上公布的信息来看:iPhone 7 plus的两颗镜头,一个广角一个长焦,在拍摄照片时,如果选择2倍变焦,会自动切换到长焦镜头取景。
这个描述其实并不黑科技,在古董级别的8mm摄影机上,就是用旋转镜头盘切换镜头的方式变焦的。
而iPhone 7 plus的两颗镜头,等比135焦距分别是28mm和54mm,差不多等于是两倍光学变焦。
事实上,这是大家看完发布会后产生的直观理解。但在这件事上,似乎苹果没有打算告诉大家全部事实。
据来自拆解者的消息称,iPhone 7 plus这两颗镜头并不完全是独立工作的,在切换到2X焦距时,未必一定是由那颗54mm的镜头工作。
测试者用了一个最简单的办法尝试,就是分别遮住两个镜头,看看iPhone 7 plus在摄影时如何工作。结果是,当遮住28mm镜头时,整个相机是黑屏的;但遮54mm镜头时,并不影响相机工作——包括使用2X焦距。
在遮住54mm镜头时,iPhone 7 plus的2X焦距显然是通过对28mm取景数码放大得来的。数码放大的原理并不复杂——把一副数码画面的两边长都放大一倍,那么每个像素点之间会有空白像素点,对空白像素点所呈现的颜色,通过计算相邻像素点的颜色值而得出。这样就得到了一副数码放大后的照片。
来自拆解者的分析认为,iPhone 7 plus这颗54mm镜头,起到的作用就是在计算这个放大填充像素点的色彩时,提供更接近真实采光的数据,使得画面更加清晰自然。但当光线不足,这颗镜头的进光量不足以拍摄真实色彩时,这颗镜头将完全不工作。
这意味着,iPhone 7 plus的这个双摄系统,在目前这个版本,还是靠那颗与iPhone7相同的1200万像素28mm镜头撑着。而另一颗1200万像素的“长焦”——官网说是长焦,实际上只是标准镜头焦距——只是个兼职(part-time)打下手的配角。
另外,也正是通过这种“打下手”对像素渲染的修正,使得iPhone 7 plus具备了光学防抖的能力。
via:brunch.co.kr
对于这一设计,国外的拆解者提供了一个解释是,有可能因为这颗长焦镜头的进光量并不如人意。为了达到超越前代的图片拍摄效果,采用了这种权宜之计。
● ● ●
景深效果“即将推出” 苹果双摄的软件反转
在此次iPhone 7 plus的发布中,苹果首次在原生功能上放了个期货卫星。在官网介绍中,赫然标注着“即将推出”景深效果。
截图来自苹果官网
显然,根据官网这段介绍所描述的,稍有了解就能猜到这种背景虚化的效果,来自对图片的数码渲染——而不是光学镜头的“失焦”虚化。
苹果想要达到的,是这种数码渲染的效果和光学镜头产生的失焦效果难分伯仲。这是一项巨大的技术突破。而苹果也在官网中说了,将采用机器学习技术来挑战这一难关。
然而,在iPhone 7 plus上市时暂未推出这项功能,显然,实际运行的效果可能还不如人意。
从苹果的历史上来说,这并不是第一次在发布某项软件功能时还未完成(还记得那个用演示软件呈现的hello world嘛)。但这是第一次在发售开始后公然承认一项功能还在完善中。
事实上,这种完善过程离不开那颗54mm镜头。
加快机器学习最好的办法,是有足够好的专家系统和训练数据对其进行反复的识别训练和优化。
也许目前版本的iPhone 7 plus还无法让这颗54mm镜头在拍摄中真正发挥多大作用。但在iPhone 7 plus拍出的每一张照片中,这种训练程序都在被进行着——
两个摄像头意味着可以通过角度差识别画面物体的距离、透视关系,不同色彩在不同进光量下的反应。这些数据并不完全记录在拍出的照片当中,但随着iPhone 7 plus拍摄照片的增多,这一训练会加速苹果双摄系统的人工智能能力。
没有人会怀疑,今年年内最迟明年年初苹果就会把这项“景深效果”功能开放给iPhone 7 plus的用户。这对苹果来说似乎并不是什么不可逾越的障碍。
但其实更值得关注的是,苹果通过训练这一机器学习程序,在“景深效果”之后还会做出什么来。
● ● ●
iPhone 仍是当下最好的AI载体 iPhone 7s plus 值得期待
iPhone 7 plus的这颗54mm摄像头,堪比iPhone4的三轴陀螺仪,将开启AI应用落地的时代。
iPhone4的三轴陀螺仪,让iOS生态以游戏为突破点骤然爆发。普罗大众发现了在智能手机上可以玩到远远超出传统掌机或PC游戏体验的新鲜玩意。而这种掏腰包的热情也吸引了无数的iOS开发者。
这颗54mm摄像头,能做的事情可能会更多,但面向开发者的康庄大道还没有打开。
苹果双摄系统如果有合适软件的配合,理论上是可用具备与人眼一样识别现实中物体形状、位置、颜色、文本甚至是动态信息的能力。这种能力用来做“背景虚化”可谓杀鸡牛刀。但饭要一口一口的吃,显然,在目前阶段,苹果官方连“背景虚化”都还没有做到十全十美,更不要说开放给iOS开发者了。
这种能力通过机器学习等AI技术的训练、优化,将在不久后达到一个比较高的水平。虽然说苹果在机器视觉领域并不是称王称霸的引领者,但以苹果的一贯尿性,很有可能成为消费级机器视觉商业化的先驱。
无论是上游的纯算法研发机构,或者中游的应用企业,都无法忽视iPhone这一终端平台的广阔市场。而苹果要做的,是给这些开发者及客户,提供足够好的硬件和中间件。
via:flipboard.com
设想一下,当苹果双摄系统在机器视觉的底层信息采集与识别中技术成熟了,将会发生什么?
AR游戏。大部分消费者对AR的认知可能还停留在扫个图片有个企鹅跳出来传火炬。从识别二维码到识别具体的图画无疑是巨大的进步,但脱离了现实场景的AR基本属于看视频。但当苹果有能力告诉你摄像头中的东西“是什么,有多远,在什么东西的前面和什么东西的后面”时,游戏开发者可能会在你镜头中的桌子下藏一把武器,让你用来对付马上要从你背后窗户跳进来的怪物……
电商。同样的,当苹果本身提供了图片识别的基本信息之后,这一信息可以通过第三方的机器视觉平台,再转到相应的电商平台。这些接口和信息供应商,可以立刻在画面里告诉你镜头中的东西是什么,哪有卖,多少钱,你有多少个朋友也拥有……
更具创意的社交媒体内容,以及社交本身。和在单镜头时代崛起各种图片以及社交应用一样,具有AI能力的双摄必然会带来新的媒体内容和社交形式。
事实上,现在也无法想象双摄给图片社交会带来什么改变——我们只是知道改变一定会发生。
当然,iPhone 7 plus的双摄系统目前版本在设计上被吐槽与LG以及HTC的“胶水双摄”没有本质区别。但残酷的事实是,因为摄像头技术的变化而带来摄像相关应用的变革,一定会先发生在苹果的平台上,这和LG或者HTC没有多大关系。
这些应用被开发出来的技术基础已经具备了,缺的只是临门一脚的平台接口,以及能提供足够回报的市场规模——这恰好是苹果的强项。
今年8月,库克在接受《华盛顿邮报》采访时表示:“我认为AR技术相当有趣,它绝对是一项核心科技。”而近日,库克在接受ABC News采访时又提到,AR的社交属性更强,苹果对AR的前景很有信心并将持续对AR领域进行投资。
看来,这一天不会太远了。
所以,结论很简单,iPhone 7 plus是苹果在为AI应用落地做的一个激进尝试——激进到“景深效果”还是一个实验室应用就正式向市场投放。但这种激进举措对开发者生态的刺激作用巨大。一年后在无论是移动互联网应用还是AI应用层面,都面临着巨大的市场格局变化的机会。
那么,iPhone 7s plus应该是一款成熟的、足够完善的、软件再一次让人惊艳的手机。说不定顺便把亮黑色工艺的良品率问题解决了推出更多陶瓷色款式。
巧的是,从2015年开始到现在如火如荼的AI项目投资,到2017年中,也到了第一波割麦子退出的时候了。
所以我的预言是,iPhone 7s plus将是一支里程碑意义可能超越iPhone 4的手机。AI产业正式消费者化,并成为下一代互联网技术标配的时代,会率先落地在明年9月发布的第十一代iPhone上。
又及:
英特尔轰轰烈烈的RealSense开发者运动,在去年确定的方针是这样的,在全球范围内召集,在基于X86构架的Android系统上开发中间件与应用的开发者,扶持并加速他们推出有面向产业应用能力的产品或方案,作为RealSense的种子开发者。这批开发者将为英特尔的机器视觉技术落地到消费者铺平道路,甚至诞生下一个华硕或戴尔。
留给英特尔的时间不多了。而有趣的是,在马上要到来的AI商业化蛮荒竞争中,还是iOS打Android。下一代系统,又在哪呢?
/ 文章推荐 /
iPhone 7 的 Home 键,为什么不直接使用 Touch ID 3.0 ?
|
|
|
|
|