グレーはカットしない、つまり出力する部分で、ブラックがカットする部分。-c copyすれば無劣化になり、コーデックを指定すれば再エンコードになる。[duration]、[front-duration]、[back-duration]は秒時間指定と、hh:mm:ss.ms指定ができる。4番目はプレイヤで再生しているときの再生時間でカットするのに便利なコマンド。実際に時間を指定するときには[]を省略して秒指定、hh:mm:ss.ms指定する。
こちらも参照:
niconicoとffmpegのことを中心に書いてる
グレーはカットしない、つまり出力する部分で、ブラックがカットする部分。-c copyすれば無劣化になり、コーデックを指定すれば再エンコードになる。[duration]、[front-duration]、[back-duration]は秒時間指定と、hh:mm:ss.ms指定ができる。4番目はプレイヤで再生しているときの再生時間でカットするのに便利なコマンド。実際に時間を指定するときには[]を省略して秒指定、hh:mm:ss.ms指定する。
こちらも参照:
映像の黒枠を検出してcropフィルタで使う引数を返すcropdetectフィルタの使い方。
ffmpeg -i input -vf cropdetect -an -f null -
ffplay -i input -vf cropdetect
metadataフィルタを使ってテキストに出力する方法もある。
ffmpeg -i input -vf cropdetect,metadata=mode=print:file=foo.txt -an -f null -
1枚画像のときはskip=0を指定する。
ffmpeg -i img.jpg -vf cropdetect=skip=0 -f null -
運用例。
ffplay -f lavfi -i color=white -vf fillborders=0:0:32:16:2,cropdetect
ffplay -f lavfi -i color=white -vf fillborders=0:0:32:16:2,crop=320:192:0:32
以下のようなログが1フレーム毎に流れる。
x1:0 x2:319 y1:32 y2:223 w:320 h:192 x:0 y:32 pts:2 t:0.080000 crop=320:192:0:32
cropフィルタで指定する引数埋め込まれたビデオ領域を見つけ、事前にモーション ベクトルを生成する。
ffmpeg -i input -vf mestimate,cropdetect=mode=mvedges,metadata=mode=print -an -f null -
埋め込まれたビデオ領域を見つけ、デコーダからのベクトルを使用する。
ffmpeg -flags2 +export_mvs -i input -vf cropdetect=mode=mvedges,metadata=mode=print -an -f null -
関連フィルタ
映像を指定座標に切り取るcropフィルタの使い方。出力解像度はフレーム毎に変更できないがクロップする場所はフレーム毎に変更できる。
余白を追加することで、別のアスペクト比の映像に手軽に変換できる。ただし出力解像度が奇数になるとピクセルフォーマット次第で余白がずれたり、エンコードエラーになる。
カバーアートを付けるとエクスプローラにサムネイルが表示、変更できる。
H.264だとサムネイルが表示されるが、H.265だと表示されないのがこれで表示できる。サムネイルはPNG、BMPでも可能。コメントの通りに指定方法が間違っていたので修正。
ffmpeg -i movie.mp4 -i thumb.jpg -map 0:v -map 0:a -map 1:v -c copy -disposition:2 attached_pic movie-with-cover.mp4
MP3の場合。
ffmpeg -i audio.mp3 -i thumb.jpg -map 0:a -map 1:v -c copy -disposition:1 attached_pic -id3v2_version 3 -metadata:s:v title="Album cover" -metadata:s:v comment="Cover (front)" audio-with-cover.mp3
mp3のタグ編集を行う際にID3v1とID3v2とAPEがあるんですが、それぞれ何か役割や違いがあるのでしょうか? – Yahoo!知恵袋
アルバム名やアーティスト名はメタデータとして追加できる。
ffmpeg でメタデータを加える
Flacの場合。
ffmpeg -i audio.flac -i thumb.png -map 0:a -map 1:v -c copy -disposition:1 attached_pic audio-with-cover.flac
動画ファイルから時間指定でシーンを選んでカバーアートつきのMP3ファイルを出力することも出来る。以下のコマンド例は開始10秒のシーンをアスペクト比保持して横幅320ピクセルのカバーアートになる。
ffmpeg -i movie.mp4 -vf trim=start='00\:10.000',trim=end_frame=1,setpts=0,scale=320:-1 -map 0:v -map 0:a -c:v:0 mjpeg -disposition:0 attached_pic audio-with-cover.mp3
MKVコンテナにJPGを添付する。
ffmpeg -i "mkv_without_cover.mkv" -attach "art_cover.jpeg" -map 0:a -c copy -metadata:s:t mimetype="image/jpeg" -metadata:s:t:0 filename="cover.jpeg" "mkv_with_cover.mkv"
MKVコンテナのカバーアートの仕様について:
matroska.org – Attachments
音声が2つ以上あるときに再生したとき最初に流れる音声を代えられる。ただしMP4コンテナには使えない。
2番目の音声を最初に再生するコマンド例。
ffmpeg -i movie.mp4 -map 0:v -map 0:a -c copy -disposition:a:0 0 -disposition:a:1 default output.mkv
2番目の音声を最初に再生し字幕も同様にするコマンド例。
ffmpeg -i movie.mkv -map 0 -c copy -disposition:a:0 0 -disposition:a:1 default -disposition:s:0 0 -disposition:s:1 default output.mkv
ffmpeg Documentation : Main options
-disposition[:stream_specifier] value (output,per-stream)
具体的にそれぞれにどのような効果があるのか分からない。
ちなみにこちらもMKVコンテナに限るが、追加した字幕ファイルを再生したときに最初から表示することもできる。普通にremuxすると字幕は最初から表示してくれない。
ffmpeg -i movie.mp4 -i sub -c copy -disposition:s:0 default sub-default.mkv
最初の字幕にデフォルトフラグを付けず再生時に字幕を表示させないようにするには-default_mode infer_no_subsをつける。
ffmpeg -i input.mkv -map 0 -default_mode infer_no_subs output.mkv
-default_mode[int]
-dispositionのフラグの制御
集計期間は週間のニコ生統計の1ヶ月分である。2018年からカテゴリタグの割合は今までと変わらないが、1枠30分の割合が少なくなったので来場者数とコメント数の6000以上を除かないすべての放送を対象にした。それに伴い平均値は除外した。来場者数はTS視聴可能時間が来れば増え、TS来場者数を含まずに計算することは困難な仕様なので、翌日(当日)の朝に前日の6時から当日の6時までを取得している。
全放送を対象にしたので改めて以前の放送のデータを使って調べ直している。
2018年9月25日から2018年10月1日までの間、ログイン不要で生放送が見られるようになっているのでいつも以上に来場者数が多くなっている。
標準で使えるscaleフィルタの使い方。外部ライブラリにzscaleフィルタがありこちらはHDR、高品質リサイズ向けで処理速度はscaleフィルタより速くない。2022年3月4日のコミットで同程度に速くなった。
映像を重ねてワイプを作ったり、重ねた映像を動かしたりできるoverlayフィルタの使い方。1入力目の映像が背景になり、2入力目の映像が最初に入力された映像の上に表示される。2入力目に透過情報があればその部分に背景にとなる1入力目の映像が映る。
透過部分に関係なく複数の映像を任意の割合で混ぜるならmixフィルタを使う。
複数の映像を任意の割合でミックスする mix
RGB それぞれの色を強く、弱く、反転できるvibranceフィルタの使い方。他にも似たフィルタがあるが、輝度係数の指定があるのが特徴。
intensity を上げて RGB を同じようにコントラストを上げる
ffmpeg -i input -vf vibrance=intensity=0.5:rbal=1:gbal=1:bbal=1 output
ffplay -i input -vf vibrance=0.5:1:1:1
今まで ffmpeg は異なるフレームレートの動画を1つに出力するのはできないと思っていたが、あらかじめ異なるフレームレートにエンコードしておいて、その後に連結すれば VFR の動画になる。
方法は以前書いた demuxer の concat を使えば楽に VFR の動画になる。注意点は映像音声ともに同じコーデックで同じエンコード設定、音声は同じサンプリング数であること。ただし動画によっては「Non-monotonous DTS in output stream 0:0」のエラーが出るが再生して問題なかったら気にしない。エラーが気になるときは入力オプションに-fflags +igndtsをつけてremuxする。
ffmpeg -fflags +igndts -i input.ts -c:v copy tmp.mp4 ffmpeg -i tmp.mp4 -c copy -bsf:v h264_mp4toannexb -f mpegts fix.ts
Trim with concat gives issues on the trim point : ffmpeg
または-bsf:a aac_adtstoascをつけてremuxする。
ffmpeg -i input.ts -c:v copy -bsf:a aac_adtstoasc output.mp4
m3u8 – how to fix Non-monotonous DTS in output stream 0:1; when using ffmpeg – Stack Overflow
ffmpeg -f concat -safe 0 -i 24-30.txt -c copy vfr.mp4
24-30.txt
file 24p.mp4 file 30p.mp4 file 24p.mp4