
這項技術來自於蘋果在今年申請的一項專利,標題為「Image Sensor With Stacked Pixels Having High Dynamic Range And Low Noise」,描述一種採用「堆疊式像素架構」的感測器設計,結合多層光感單元與晶片內部即時雜訊抑制機制,最高可支援高達 20 級光域的動態範圍
感測器架構與技術要點
雙層堆疊設計:感測器分為「Sensor Die」與「Logic Die」兩層,上層負責收光,下層處理曝光控制與雜訊抑制等運算功能
LOFIC 技術(Lateral Overflow Integration Capacitor):每個像素可根據場景亮度自動調整光能儲存容量,確保亮暗細節同時保留,不易出現高光溢出或暗部暗沉
內建記憶電路雜訊抑制:每顆像素具備即時測量熱雜訊的電路,可在晶片層級過濾影響,降低後續軟體處理壓力與畫質損失
目前 iPhone 大多搭載 Sony 感測器,但 Apple 若切換至自家設計,將極大提升對核心攝影元件的掌控度,就像該公司先前自主研發 A 系列與 M 系處理器一樣
據微博爆料者「Fixed Focus Digital」指出,這不只是專利構想,Apple 已開發出原型感測器並進行測試,未來有望整合到消費性裝置中使用
然這項技術尚未公開驗證實測成果,但 Apple 朝向自主影像感測的發展,象徵其繼自製處理器後,再度邁向核心硬體自研方向。若商用順利上線,未來 iPhone 可望提供更廣動態範圍、更低雜訊、色彩更自然的拍攝效果。
不過,影像感測器技術門檻高,包括製程良率、封裝體積與成本控制,仍需時間考驗。若 Apple 成功落地,將進一步拉開與傳統手機廠在攝影技術上的差距。