一款好的拍照手機,應當具備哪些特徵?

是超多的攝像頭、超高的像素等級、還是強有力的ISP以及先進的算法,亦或是出色的防抖結構和用料靠譜的光學鏡頭?

平心而論,大多數消費者在看到這個問題的時候,首先可能會回答“多攝像頭”與“高像素”,因爲這是最容易從手機的外觀和配置表上就能感受到的“高端細節”。而縱觀整個手機市場,那些既有超高像素主攝,又有超多攝像頭(大於等於四個)的機型,也的確大都具備着一線的實際成像品質。

然而同樣是在當前的手機行業中,有那麼一家科技,至今依舊堅持2-3攝像頭的後置攝像頭模組設計,甚至從未使用過超過1200萬像素的攝像頭。但與此同時,他們的產品卻每年都能名列DXOMARK拍照榜單的前幾名,同時全球銷量更是令同價位的競爭對手望塵莫及。

沒錯,我們說的正是蘋果以及他們家的iPhone。那麼問題就來了,不堆攝像頭數量、不追求高像素,iPhone到底又是怎樣做好拍照功能的呢?

首先,其實蘋果很捨得硬件“堆料”

不可否認,iPhone從來沒使用過“超多攝”方案,更沒有配備過超高像素的CMOS,但是這絕不意味着蘋果在iPhone的相機硬件上就有所吝嗇。事實上其從前幾年開始,就一直很捨得給iPhone的相機“堆料”,只不過許多朋友可能並沒有注意到罷了。

比如說論CMOS規格,蘋果在iPhone 12 Pro Max上使用了一顆1/1.7英寸超大底的定製1200萬像素傳感器。這是什麼概念呢?大家要知道,當前業界流行的6400萬超高像素方案,傳感器尺寸也是1/1.7英寸。但它的像素值比iPhone所用的高了五倍還多,換句話說,就是iPhone 12 Pro Max的主攝,單個像素的感光面積就是這類機型的5倍。

iPhone 12 Pro拍攝的微距照片

比如說,論對焦技術,蘋果從iPhone X開始就一直堅持在主攝上配備全像素雙核對焦結構。這種對焦結構的最大優點,在於它讓CMOS上所有的像素點都可以作爲對焦點使用,因此手機可以在整個取景面積內對任意一點進行超快速的對焦,甚至還能對運動中的物體進行自動追焦。

而相比之下,即便是當前最新一代的1.08億像素主攝,也僅有傳感器上的一部分面積可以用於對焦(相位對焦點對焦)。這就意味着,那些超高像素機型反而做不到iPhone那麼快的對焦速度,更做不到僅用主攝進行超近距離的微距特寫攝影。而這實際上也解釋了,爲什麼這些機型要配備額外的獨立微距鏡頭的原因。

除此之外,在圖像防抖結構方面,蘋果也有自己的想法。要知道,當前高端智能手機大多配備的都是鏡頭式光學防抖,也就是在鏡片組裏設置一塊可以浮動的“防抖鏡片”,用於抵消外部振動的影響。但是鏡頭防抖本身有着會造成光路偏斜,會帶來照片邊緣畫質下降的明顯缺點。而蘋果則是業界最早一批意識到這個缺點的廠商之一,爲此他們在iPhone 12 Pro Max上首次運用了新的“CMOS防抖”設計。通過將主動防抖的部件從鏡片改爲傳感器本身,使得整個拍攝過程中,鏡組內部的光路可以始終保持筆直,這樣一來不僅可以實現更大的防抖範圍,同時畫質也自然得以更進一步。

當然,說到iPhone在相機方面的“堆料”,其實還不止上面這些。諸如現在的iPhon 12 Pro全系都有配備,可以在全黑環境下輔助對焦和人像虛化的Lidar激光雷達,諸如蘋果已經用了很長很長時間的全系藍寶石玻璃鏡片,其實無論是從設備成本,還是從技術難度上來說,這些“堆料”實際上都遠比其他廠商多采購幾枚攝像頭模組要高精尖得多。

其次,iPhone的算法既多,而且也很複雜

2017年9月12日,伴隨着iPhone X的發佈,蘋果正式推出了自家的新一代A11仿生芯片。而它之所以被叫做“仿生(Bionic)”,是因爲在這款芯片內部,蘋果首次集成了自研的Neural Engine神經網絡加速器模塊,在它與新型ISP的合力作用下,iPhone X率先在業界實現了光照環境偵測等先進拍照算法。當時間來到2020年,儘管蘋果並沒有大爲宣揚,但從各類相關技術材料來看,如今iPhone 12系列在拍照算法上的先進與複雜程度,更是早已今非昔比。

舉例而言,當光線條件極佳或是大逆光環境時,iPhone 12系列會自動選擇新的智能HDR3算法進行成像。不同於其他機型HDR算法僅僅是單純的“多幀合成”,智能HDR3算法會先對整個場景的光線條件進行識別,按照不同的亮度、不同的被攝物類型進行分割。然後再針對不同分割元素,進行級別不同的HDR多幀合成處理,最後再將它們重新組合爲一張圖片。

如此一來,iPhone 12系列就可以針對性地對畫面中過亮或過暗的部分疊加更多的合成幀數,而針對本來就亮度適中且細節清晰的畫面元素則減少處理。最終的結果不僅可以大幅提高畫面動態範圍,同時也讓細節畫質得到了更多的保留。

而當光照條件中等的時候,iPhone 12系列則會使用蘋果招牌的“深度合成”圖像算法。它的原理是在使用者按下快門前,手機就已經預先拍攝數張曝光程度不同的圖像,然後對它們進行像素級別的合成、修補,最終得到細節更多、解析力更強的照片。在此前的iPhone 11系列上,由於受到CMOS感光能力與芯片AI算力的制約,深度合成算法不能作用於全部的攝像頭,但這一點在iPhone 12系列上已經成爲過去時。如今,全部的攝像頭均可使用深度合成算法,並得到更好的細節畫質。

當然,如果光照條件變得更差,此時就輪到新的夜間模式出場了。與其他機型相比,iPhone 12系列這次一方面大幅強化了夜景模式的效果,並同樣具備自動偵測腳架的機能,而另一方面,iPhone 12 Pro系列內置的激光雷達,在夜景模式下也扮演了關鍵的形狀偵測和對象測距機能。有了它們的助力,iPhone 12 Pro系列不僅可以在夜間對焦更快更準,更重要的是它甚至可以主動識別出夜間被攝對象的立體臉型數據,從而實現效果驚人的夜景+人像虛化拍攝效果,也使得其在夜間拍攝上樹立了一個新的標杆。

當然,蘋果還更懂得“拍照手機該怎麼用”

衆所周知,消費者都很喜歡“拍照好”的手機,但真正要說到在手機上拍攝了照片之後用來做什麼,可能其實絕大多數朋友都是沒有想過的。

這意味着什麼?簡單來說,就是很多消費者其實並不能看出自己的手機拍照是不是真的好,他們可能喜歡濃豔的色彩,卻無法分辨這到底是因爲手機的拍攝邏輯本就如此,還是單純因爲手機屏幕太差,而導致回放的時候出現了偏色。他們也可能追求超長的變焦能力,卻沒有想過它到底有多高的實用性,在日常影像創作中是否真的具備堪用的畫面素質。

但是,蘋果很顯然是有思考過這個問題的。因爲他們賣的不只是iPhone,還有與之配套的MacBook、iPad、Apple Watch,他們知道很多攝影師會喜歡iPhone的照片色彩風格,因爲它不偏不倚,沒有刻意的美化,而是能夠準確地還原當時拍攝的環境。他們也知道一些專業導演、職業vloger會使用iPhone作爲自己的創作工具,所以iPhone不僅要屏幕色彩準確,而且也要提供足夠專業的圖片和視頻存儲選項。

比如說,iPhone 12 Pro系列可以拍攝比其他手機色彩數據多4096倍,比當前的頂級Android機型還多64倍的12bit Apple ProRAW格式無損圖像,爲專業影像工作者提供了非常大的後期處理空間。又比如說,iPhone 12 Pro系列也是業界首個實現杜比視界HDR視頻拍攝能力的智能手機產品。相比常見的HDR10與HDR10+,杜比視界視頻的色彩更豐富、亮度更高、動態範圍更大,同時是目前最爲專業的HDR視頻錄製規格之一。

不僅如此,正如我們前文中所講到的那樣,蘋果還爲專業的創作者提供了強大的、兼容性極佳的產品生態。當你把某些Android機型拍攝的照片拷貝到電腦上觀看時,它可能會因爲設備之間的色彩管理存在差異,從而導致照片的顏色變得奇怪。但無論你是使用iPad Pro、MacBook Air還是Mac Pro編輯iPhone中的照片或者視頻,它們的色彩都會保持與iPhone屏幕上看起來的效果一致。

這意味着什麼?這代表着近年來的iPhone,在影像領域其實從不缺少高精尖的硬件配置,也從不缺少先進且持續進步的成像算法。只不過這種嚴肅及專業級的設計,使得它更多地受到了那些真正熱愛攝影、甚至是專業創作者的理解和喜愛。而對於習慣了其他手機廠商“鏡頭多才是好、像素高才是棒”這樣宣傳攻勢的普通消費者來說,不能第一時間發現iPhone在影像設計上的用心,或是還不太能體會到它的種種影像功能特性所帶來的好處,自然也就並不令人感到奇怪了。

相關文章