Appleは本日、今後のiOS 13アップデートの最初のベータ版(おそらくiOS 13.2)をリリースします。これにより、Appleが約束した機能が導入されます。 iPhone 11 および‌ iPhone 11‌プロイベント:ディープフュージョン。
によると ザ・ヴァージ 、本日のアップデートは、Appleの最新のiPhoneにDeepFusionを追加することを目的としています。
iPhoneで失われたモードは何ですか
Deep Fusionは、A13BionicとNeuralEngineを使用する新しい画像処理システムです。 Deep Fusionは、機械学習技術を利用して写真のピクセルごとの処理を行い、画像の各部分のテクスチャ、詳細、およびノイズを最適化します。
この機能は、室内の写真や中程度の照明で撮影された写真を改善することを目的としており、使用されているレンズと室内の光のレベルに基づいて自動的にアクティブになる機能です。広角レンズは、明るいシーンではデフォルトでスマートHDRを使用し、中程度または暗い場所ではディープフュージョンがアクティブになり、暗いシーンではナイトモードがアクティブになります。
望遠レンズは主にディープフュージョンを使用しますが、照明が非常に明るい場合は代わりにスマートHDRがアクティブになります。 ダークモード 照明が暗いときにアクティブになります。超広角レンズはスマートHDRのみを使用し、ディープフュージョン(またはナイトモード)をサポートしていません。
ザ・ヴァージ Deep Fusionがどのように機能するかについての概要があり、情報はAppleから提供されています。ディープフュージョンは完全にバックグラウンドで実行され、ナイトモードとは異なり、オンとオフを切り替えるオプションはありません。
Deep Fusionは複雑なプロセスであり、ハードウェアは iPhone 写真を撮るときにいくつかのアクションを実行します。シャッターボタンを押す前に、カメラは速いシャッタースピードで3つのフレームをキャプチャしてモーションをフリーズします。シャッターが押されると、さらに3枚の写真がキャプチャされ、詳細を保持するためにさらに1枚の写真が撮影されます。
3枚の通常の写真と長時間露光ショットは、AppleがスマートHDRとは異なる「合成ロング」と呼んでいるものにマージされます。 Deep Fusionは、最も詳細な短時間露光画像を選択し、それを合成長時間露光とマージします(マージされるのは2つのフレームだけです)。
次に、画像はピクセルごとに4段階の処理手順を実行され、詳細を増やし、2つの画像(詳細、音色、色、輝度など)をどのようにブレンドするかについてA13チップに指示を与えることを目的としています。
アップルエアポッドプロのヒントとコツ
ディープフュージョンショットを撮るには、通常のスマートHDR画像を撮るよりも少し長く、約1秒かかるため、Appleは、タップすると最初にプロキシ画像を表示します。 写真 ディープフュージョンショットを撮った直後ですが、すぐに完全なディープフュージョン画像に置き換えられます。
アップデート: によると TechCrunch DeepFusionアップデートを特徴とする開発者ベータ版であるMatthewPanzarinoは延期されており、本日は利用できなくなります。いつ発売されるかについての公式の言葉はありませんが、 大胆な火の玉 に設定されていると言います 明日来る 。
関連するまとめ: iPhone 11結局、DeepFusionを含む開発者ベータ版は本日出荷されません。ただ「来る」日付はありません。 https://t.co/dNsEcqTcVv —マシューパンザリーノ(@panzer) 2019年10月1日
人気の投稿