最近,Apple 的研究团队与普渡大学合作推出一项名为 DarkDiff 的全新低光摄影技术,专门解决手机在极弱光下拍照噪点多、细节模糊的问题。该方法把生成式扩散模型直接嵌入相机的图像信号处理(ISP)流程,让手机镜头在近乎漆黑的环境中也能抓住细微纹理与色彩。

传统夜景模式通常依赖后期降噪,但容易让照片出现“油画感”或明显的涂抹痕迹。DarkDiff 的不同之处在于,它并非简单的后期修图,而是让 AI 从成像的最初阶段就介入。通过学习海量影像数据,它能够预判并重建传感器在暗光中丢失的纹理与颜色。为避免 AI 臆造不存在的物体,研究团队还加入了局部斑块注意力机制,保证生成的每一处细节都贴合拍摄现场的真实结构。
在实测中,研究人员使用索尼 A7SII 模拟极暗场景,在仅 0.033 秒的超短曝光下,DarkDiff 复原出的照片质量极高,甚至可与用三脚架进行 300 倍时长曝光得到的参考照片相媲美。

尽管表现惊艳,要把这项技术真正装进 iPhone 仍面临不小挑战。由于扩散模型对算力要求极高,运行时非常耗电,后续可能需要借助云端处理。另外,该模型目前在弱光识别非英文文本方面仍有局限。虽然苹果尚未公布具体的商用时间表,但这项研究无疑展示了 AI 加持下移动摄影的巨大潜力。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?