本文來自愛範兒

iOS 15 系統上的驚喜功能無疑就是實況文本了,但身邊不少朋友升級之後告訴我用不了,打開圖片根本沒有相應的‘文本識別’按鈕。

細究之下,發現原因竟然是 A12 芯片,蘋果在官網的 iOS 15 功能頁用小字指出了實況文本功能的要求:

在配備 A12 仿生或後續芯片的 iPhone 上提供。

最早搭載 A12 芯片的機型是 2018 年發佈的 iPhone XS、iPhone XS Max 以及 iPhone XR,也就是說它們以及之後更新的機型,都能用實況文本。

我仔細看了看 iOS 15 的功能詳情頁,發現 A12 芯片不僅僅是實況文本功能的基礎要求,還是 FaceTime 中的人像模式、寬譜模式、語音突顯模式、鍵盤連續聽寫等等一系列新功能的門檻。

數個 iOS 15 新功能‘淘汰’了舊設備,是因爲蘋果想讓你換新機?

A12,iPhone 體驗的新門檻

我們不妨先來看看實況文本等功能的原理。

實況文本功能指的是 iPhone 可以識別圖片中的文本內容,包括電話、地址等,甚至還可以在相機界面實時識別輸出文本結果。

常見的 OCR 圖片識別應用基本上是通過上傳數據到雲端,然後再識別輸出結果,但蘋果對於隱私極爲看重,這些行爲都是在 iPhone 設備本地運行的。

iPhone 此時就像人一樣,攝像頭是眼睛,芯片是大腦,實時識別畫面中的文字信息以及類別。

要在本地完成實時掃描與識別乃至輸出結果,甚至還支持 7 種語言,可見對於 iPhone 的算力要求有多高。

說到這裏大家可能都猜到了,這裏的算力指的並不是我們常見的 CPU 和 GPU,具備強大算力和智能識別效果的應該是蘋果 A 系列芯片中的 AI 神經引擎模塊。

相比常見的 CPU 和 GPU,AI 芯片模塊往往有着更多計算單元,更少功能邏輯單元,這讓它能更好地配合智能算法,完成低精度高計算量的運算。

在剛剛過去的蘋果秋季新品發佈會上,蘋果也強調了 A15 芯片強大的 AI 算力對於 iPhone 13 系列、iPad mini 的助益。

包括 FaceTime 中的人像模式,自動虛化背景,讓視頻中的你成爲核心,以及寬頻音頻等功能背後,都少不了 AI 神經引擎的支持。

早在 iPhone 11 發佈時,蘋果前營銷高管菲爾・席勒(Phil Schiller)就表示,目前 iOS 系統功能中,基本上已經沒有不使用機器學習(AI)的領域了,可見其影響力。

至於爲什麼是 A12 ,看看 A 系列芯片的發展史就知道了,A11 是蘋果首次加入神經引擎模塊,算力爲每秒 6000 億次運算,這還是一次嘗試。

到了 A12 蘋果在 AI 神經引擎方面才真正走向了成熟,不僅芯片工藝上從 10nm 走向了 7nm ,神經引擎也迎來了跨越式的提升,從 A11 的 6000 億次運算直接增長到了每秒 5 萬億次運算。

現在答案就呼之欲出了,芯片 AI 算力大小限制了功能,能升級 iOS 15 並不意味着能使用完整版,A12 芯片就是 iPhone 體驗的一道新門檻。

實況文本等新功能的便利性無需多言,但這也更讓人遺憾,多少舊 iPhone 用戶因爲算力不足無法體驗這個好功能。

A12 是蘋果自研芯片發展過程中一次成功的轉向,在它之後你能看到諸多 iPhone 新功能和 CPU 性能的相關性在減小,和 AI 神經引擎模塊聯繫愈發緊密。

A 系列芯片不再性能優先?

蘋果推出 iPhone 13 之後,Creative Strategies 的分析師 Ben Bajarin 發佈了一篇報告,分析了從 iPhone 5s 到 iPhone 13,A 系列芯片每年單核性能的變化,並將其整理成了一張圖。

A 系列性能增長正在變緩,Ben Bajarin 整理圖片的顯示從 A8 到 A11 芯片,四年間單核性能增長了 192%,而 A12 到最新的 A15 芯片,四年間性能增長僅 91%。

3-4 年剛剛好是常見的 iPhone 用戶更新換代週期,之前你換一次手機能獲得近 2 倍的性能提升,而現在只有 1 倍左右,這差距可不小。

當然,即便如此蘋果 A 系列芯片仍然在智能手機芯片領域一騎絕塵,最新發布的 A15 芯片雖然被吐槽 CPU 性能增長較小,但按蘋果的話就是:超越競爭對手 50%。

如今的智能手機體驗已經不僅僅看絕對性能表現,經過十多年的發展各家在基礎體驗方面都做的不錯,流暢度差距並不是那麼大,拉開差距的反而是各種獨特功能,至少在充電功率這件事上 iPhone 走在了主流 Android 旗艦後面。

再回到市場表現上看,三星和蘋果把控高端手機市,拿走大部分利潤的情況並沒能一直維持,之前華爲突破過,現在 OPPO、小米、vivo 等手機廠商也在不斷突破。

即使常年領先的蘋果,面對激烈競爭也得做出改變,A 系列芯片性能增長變緩的同時,和 iPhone 功能的聯繫也愈發緊密,AI 神經引擎就是一個成功案例。

A11 的轉向、A12 的成熟爲蘋果打好了基礎,今年 iPhone 13 系列獨佔的‘電影模式’功能背後,同樣有 AI 神經引擎的身影。

在 iPhone 13 系列發佈後,蘋果人機界面設計師約翰(Johnnie Manzari)接受了外媒 TechCrunch 的採訪,其中提到了電影模式的由來,以及蘋果內部如何完成這一功能。

通過觀看電影以及與世界級攝像頭的探訪,蘋果內部團隊發現了一個洞察——電影通過焦點變換引導觀衆的注意力,電影模式的焦點變換功能也因此而來。

團隊將探索電影模式過程中得出的藝術需求和技術需求變成了一個又一個機器學習問題,進而與公司內部的機器學習研究團隊、芯片團隊合作,最終完成了我們現在看到的電影模式功能。

A15 芯片相比 A14,在 AI 神經引擎算力方面從每秒 11 萬億次運算增加到了每秒 15.8 萬億次運算,整整增加了 40% 多,正是爲了向電影模式這樣的功能提供動力。

對於蘋果 A 系列而言,性能仍然很重要,但功能的優先級也在不斷提升,從 iPhone 11 的 Deep Fusion 影像功能到現在的實況識別、電影模式,A 系列芯片與 iPhone 功能的綁定越來越多,也越來越深。

一顆蘋果芯,‘淘汰’舊 iPhone

功能與芯片深度綁定,是蘋果軟硬一體產品策略的一部分,這也是一直以來 iPhone 的優勢之一,對於芯片擁有自主權的蘋果,可以根據體驗反推到芯片、技術,最終憑藉強大的開發實力實現,與其他競爭對手拉開體驗距離。

在這個過程中,蘋果也完成了產品線的梳理,今年 iPhone 13 Pro 系列纔有 ProRes 功能,能保留更多視頻原始信息,讓視頻看起來更真實,它同樣也離不來滿血版的 A15 芯片,5 核心 GPU 能讓 iPhone 更好更快的處理視頻內容。

同時芯片也是 iPhone 數字基本款和 Pro 系列重要的差別之一,定位更好的 Pro 系列享受更好的芯片,連帶着更好的功能,最終形成體驗上的升級,而數字基本款則面向大衆,提供標準線上以上的體驗。

和舊款 iPhone 相比,13 系列的新功能也是區分兩者的重要因素,外形、功能、性能等,都在影響着人們的消費購買決策。

軟硬一體化的產品策略,芯片和功能深度綁定,讓 iPhone 每年都能獲得升級,體驗越來越好。

A 系列芯片性能、製造工藝等的不斷升級也在促進 iPhone 的系統更新週期,從早期的兩三年一直到現在的 6 年甚至更多,iOS 15 還支持 2015 年發佈的 iPhone 6s。

但這並不意味着舊 iPhone 能無限用下去,性能、硬件損耗之外,軟件也是影響手機使用的重要原因,甚至是一部分人更新換代 iPhone 的原因。

iOS 系統能更新到最新版,和芯片深度綁定的功能卻無法再體驗到了,像實況文本這樣的功能無意間就‘淘汰’了舊 iPhone 。

在手機硬件都正常的情況下,有多少人會爲了新功能換機呢,你會嗎?

相關文章