- ベストアンサー
iPhoneのカメラのADコンバータ
ADコンバータは何bitですか? iPhone(だけじゃないけどスマホのカメラ)は動画撮影してもホントにきれいに取れます。 階調がADC 12 bitのUSBカメラ使って動画撮影したら砂嵐のノイズだらけで、何枚も取って平均化しないと使い物になりませんでした。 でも高速カメラとして使いたいので何枚も平均化してたら意味がありません。
- みんなの回答 (2)
- 専門家の回答
質問者が選んだベストアンサー
以下下記URLより抜粋 CMOSイメージセンサーは、各画素がひとつのフォトダイオードとCMOSトランジスタを使ったスイッチで構成され、1画素ごとに信号を増幅。さらに、格子状に並んだ各フォトダイオードにスイッチを取り付けた構造になっており、このスイッチを次々に切り替えて1画素ごとに直接読み出しを行うことで、高速転送を実現しています。また、単位セルごとに増幅器をもつことで、光変換された電気信号の読み出しによる電気ノイズの発生が抑えられるという特性も備えています。 https://www.tel.co.jp/museum/exhibition/principle/cmos.html つまり通常貴方が言われているADC(パイプライン型A-Dコンバータ)は現在は使われていません、CMOSの場合はその特性にあった(カラム型A-Dコンバータ)が使われていますので、Bit数など単純比較は無理です。 カラム型の場合、水平解像度分の数百から千近い単純構造のADCが搭載されています、RGB当たり10Bit程度と言われています) パイプラインとカラム https://ednjapan.com/edn/articles/0905/01/news089.html
その他の回答 (1)
- i-q
- ベストアンサー率28% (985/3453)
センサーによる画質への影響は少ないかと。。 ビデオカメラと比較して、 想像を絶するほどの超高速CPUに 潤沢に予算掛けて作られたソフトウェアによって処理 されてます。。センサーによる差は微々たるものかと・・ 例えばPixel3が1回のシャッタで写真を1枚撮影する流れは↓ センサーで10枚近くブラケット撮影(露出、焦点を変えながら)> CPU内のAI(学習済みの解析データ?)にぶち込んで比較>1枚を生成 (最後に出力される画像はセンサーから入って来たものとはかなり違うかと) Xperiaはカラーと白黒の2つのセンサー搭載して、 同時に撮影して1枚の動画や写真にしたり・・・ 超高速のCPUを搭載したスマホで動画を撮ると熱くなります。 逆にそれだけ酷使してるわけですが、 想像もできない程の処理をスマホ内でしていると思われますm(__)m (ビデオカメラの数十倍の処理能力のCPUを使い切る画像処理です(´・_・`)) ↓ぼやけている画像が元画像、シャープに見える方が処理後(Pixel3) https://o.aolcdn.com/images/dims?resize=2000%2C2000%2Cshrink&image_uri=https%3A%2F%2Fs.yimg.com%2Fos%2Fcreatr-uploaded-images%2F2019-03%2F3e065090-47fd-11e9-bffd-859b024d53b1&client=a1acac3e1b3290917d92&signature=86f392798a0e596a1ca9db0790b913ff3abbc851
お礼
ご回答ありがとうございます。 Y(輝度)、U(輝度と青の差)、V(輝度と赤の差)を合成したりとか分解したりとか、いろいろありますね。確かに分解する事で各々のデータ量が少なくなれば撮影自体は容易になるので。 でも「センサーによる画質への影響」ですが、画質が良いという意味合いはいろいろありますが、真実性という意味ではそもそもセンサーで取れていないものはいくら画像処理してもいかんともしがたいと思います。 でもすごい技術ですね。
お礼
ご回答ありがとうございます。さっとはわかりませんがじっくり読んでみます。ただデジカメ使ってるだけでは一生触れる分野ではありませんがいい機会です。