タグ付けされた質問 「ffmpeg」

複数のコーデック、フィルター、コンテナーをサポートするメディアツール。FFmpegツールに関する質問をするときは、実際のコマンドと完全なコンソール出力を含めてください。これを行う簡単な方法は、コマンドに「-report」を追加し、生成されたログファイルの内容を貼り付けることです。CLIのヘルプでは、ff *バイナリー(ffmpeg、ffprobe、ffplay)のみを使用してください。APIの使用方法については、Stack Overflowに投稿してください。

4
Ffmpegオーディオステレオからモノラル(左チャネルのみを使用)
次のコマンドを使用して、「。MTS」レコード(ビデオ)のビデオ部分を抽出します。 ffmpeg -i 00402.MTS -s 1280x720 -r 25 -ss 0:00:05.38608 -vcodec libxvid -qscale:v 2 -acodec ac3 -ar 48000 -ab 256k -t 0:00:06.613917 m001_mono.avi オーディオストリームはステレオですが、右チャンネルはノイズのみを記録しました。入力情報は次のとおりです。 Stream #0.0[0x1011]: Video: h264 (High), yuv420p, 1440x1080 [PAR 4:3 DAR 16:9], 50 fps, 50 tbr, 90k tbn, 50 tbc Stream #0.1[0x1100]: Audio: ac3, 48000 Hz, stereo, …
12 linux  audio  video  ffmpeg 

3
ffmpegはオーディオを追加しますが、ビデオの長さは同じにします(-shortestではありません)
私はそのようにffmpegを使用してビデオファイルにオーディオを追加しています ffmpeg -i videofile.mp4 -i audiofile.wav output.mp4 ただし、これにより、ビデオよりも長い場合、出力ビデオファイルがオーディオファイルの長さに拡張されます。-shortestを使用すると、オーディオファイルがビデオより短い場合、ビデオファイルが短くカットされます。それで、ffmpegに出力ビデオの長さを入力ビデオの長さに保つようにカットするように指示するフラグがありますか?
12 audio  video  ffmpeg 

2
ImageMagickはビデオからサムネイルを作成できますか?
ImageMagickを介してビデオからサムネイルを抽出しようとしています。公式サイトからサンプルを見つけましたが、PNGではなくGIFになります。ただし、しっかりしたサムネイルが必要です。 このffmpegコマンドと同じ出力を作成できますか? ffmpeg -ss 600 -i myVideo.mp4 -vframes 1 -s 420x270 Out.bmp

3
FFMPEGはWindowsの画面からキャプチャできますか?
私は、FFMPEGを使用してWindows XPで画面の特定の領域(実際には具体的にはいくつかの表示ウィンドウ)をキャプチャしようとしていますが、X11からキャプチャするオプションしか見つかりません。 http://ffmpeg.org/ffmpeg-doc.html#SEC4 Windows XPでwin32バイナリを使用して実行する方法はありますか?それができない場合は、さまざまなウィンドウX11を何らかの方法でアクセス可能にするなどのハックにオープンですか?


1
ffmpegでwebrtcのような遅延を取得しますか?
私はこれをChromeと私の電話の間で使用しています: http://www.webrtc.org/demo そしてレイテンシは本当に良いです-1秒未満。 私はそれを自分のコンピューターに複製しようとして成功しませんでした。 ffmpeg -f video4linux2 -i /dev/video0 -s 320x200 -r 50 -deadline realtime -vcodec libvpx -f webm -fflags nobuffer udp://10.0.0.55:9002 そして、反対側でffplayを使用します。 まだ数秒の遅れがあります。 結局、自分のコンピューターからAndroidフォンにストリーミングしたいのですが、レイテンシは十分でなければなりません。 編集 -これは大幅に機能します。私がこれを少し削ることができれば、私は幸せです: ffmpeg -vcodec rawvideo -f video4linux2 -i /dev/video0 -s 320x200 -r 25 -vcodec libvpx -f rtp -deadline realtime rtp://10.0.0.55:9002

1
どのH.264 / H.265ビデオ圧縮パラメーターは、より良い圧縮でDVDと同等の品質を提供しますか?
ビデオをMP4ファイルに変換してハードドライブに保存することでビデオを保持したいのですが、DVDビデオディスクの箱を手に入れました。 最新のH.264 AVCおよびH.265 HEVC圧縮アルゴリズムがDVD標準のMPEG2より優れていることを考えると、ビデオを圧縮することでハードドライブの容量を節約し、DVDの元の品質を最大99%節約できると思います。 何 H.264(FFMPEG + libx264)圧縮パラメーター H.265(FFMPEG + libx265)圧縮パラメーター 私の目標を達成するために使用する必要がありますか? パラメータとは、CBR / CRF値、プリセット(veryslow /プラセボは不可)、フラグなどを意味します。 PS:私は使用してケースを制約することを好むだろう-pix_fmt yuv420pと-profile:v baseline -level 3.0、ファイルが古いハードウェアデコーダチップに依存する古いデバイスを含め、すべてのデバイス上でOKを果たしていることを確認します。(-gパラメーターを使用して)いくらか増加したIフレーム周波数を使用することも、低速で待ち時間の長いメディアの使用を容易にするために望ましいです。 HEVCの場合、それをサポートするデバイスでハードウェアアクセラレーションによるスムーズな再生を保証するパラメーターを使用することも好みますが、ハードウェアアクセラレーションH.265を提供するデバイスを見たことがないため、この制約に焦点を当てるつもりはありません。まだまったくデコードしていません。

4
大きな.movビデオファイルを黒いフレームで自動的に小さなファイルに分割しますか(シーンの変更)?
tape_01.mov、tape_02.mov、...、tape_65.movという名前の65個の.movビデオファイルがあります。それぞれの長さは約2.5時間で、何ギガバイトも消費します。これらはVHSテープ(私の家族の「ホームムービー」)のデジタルコピーです。 各2.5時間の.movビデオファイルには、多くの「チャプター」が含まれています(シーンが黒い画面にフェードして終了し、新しいシーンがフェードインするという意味)。 私の主な目標は、65個の大きなファイルを章ごとに小さなファイルにスライスすることです。そして、「シーン」間の黒いフレームを検出することで、それが自動的に行われるようにしたいと思います。 ffmpeg(または何でも)を使用して65の元のファイル名を渡し、各ビデオを自動的に反復して切り取って、結果の部分にtape_01-ch_01.mov、tape_01-ch_02.mov、tape_01-ch_03.mov、等?そして、私はそれを再エンコードせずにそれをしたいです(私はそれを単純なロスレススライスにしたいです)。 これどうやってするの? ここに私が欲しいステップがあります: .movファイル(tape_01.mov、tape_02.mov、...、tape_65.mov)のフォルダーを反復処理して、mp4ファイル(tape_01.mp4、tape_02.mp4、...、tape_65.mp4)としてエクスポートします。 。このステップでは、圧縮設定を簡単に構成できるようにしたいと考えています。元の.movファイルは、.mp4ファイルの作成後も存在しているはずです。 mp4ファイルを反復処理します。各mp4ファイルについて、「シーン」間の黒いセグメントの開始時間と継続時間を指定するテキストファイルを生成します。各mp4は、これらの黒いシーンブレークを0以上持つことができます。開始時間と継続時間は、1秒未満の精度である必要があります。HH:MM:SS形式は正確ではありません。 次に、これらのテキストファイルを手動でダブルチェックして、シーンの変化(黒いセグメント)を正しく識別できるかどうかを確認します。必要に応じてタイミングを調整できます。 別のスクリプトが各mp4ファイルとそのtxtファイルを読み取り、テキストファイルの行(そこに示されているタイミング)に基づいて、mp4を必要な数の断片に(超高速かつ無損失で)分割します。分割は、各黒いセグメントの中央で行われる必要があります。以下は、フェードトゥブラックのシーンに変更されたサンプルのmp4ファイルです(プライバシー保護のためにオーディオが削除されています)。小さいmp4ファイルが作成されるため、元のmp4ファイルはそのままにしておく必要があります。小さいmp4ファイルには、tape_01_001.mp4、tape_01_002.mp4、tape_01_003.mp4などの命名スキームが必要です。 ボーナス!次に、別のスクリプトが小さなmp4ファイルを反復処理し、それぞれに対して1つの.png画像を生成できれば、この人が試したようなスクリーンショットのモザイクになります。FFmpegを使用したビデオの意味のあるサムネイル これらのスクリプトをMac、Ubuntu、およびWindows Git Bashで実行できるシェルスクリプトにしたいのですが。

9
FFmpegにはそのようなファイルやディレクトリはありません
私はFFmpegを使用してMP4からオーディオを抽出しようとしていますが、このエラーが発生し続けます。 CFileffmpegvideo.mp4: No such file or directory exist. 私は(Windows 7の)コマンドプロンプトにいて、C:\Files\ffmpeg(ffmpegがどこにあるか)というパスを持っています。 このコマンドラインを実行します ffmpeg -i C:\ Files \ ffmpeg \ video.mp4 -f mp3 -ab 320000 -vn music.mp3 ファイルはffmpegと同じフォルダーにあります。ここに簡単なものがないのはわかっていますが、それは何ですか? ここに正確なプロセスを示す短いビデオがあります。
11 ffmpeg 

2
VP8 / 9のエンコードがH.264と比較して遅いのはなぜですか?
最近、WebmコーデックVP8とVP9を試してみたかったのですが、実行ffmpegしてH.264 MP4ファイルを他の2つのコーデックのいずれかにエンコードすると、エンコードが(ほぼ1桁)遅いことがわかりました。 H.264から3 MBit / sのVP9への1080p30ビデオは約6〜7 fpsでエンコードされていますが、同じビデオは約40 fpsでH.264にエンコードされます。VP9形式のlibvpx-vp9コーデックを使用しffmpegました。VP8とTheoraでも同じ結果が得られます。 誰かがVP9が非常に遅い理由を私に説明できますか?私は、Handbrakeを使用して、同様のリサルトが得られる別のマシンを試しました。

2
FFMPEG mkvからmp4への変換で字幕が失われる
現在、私のmkvライブラリをmp4に変換しようとしています(Iphone 6 plus) mkvからmp4への変換を正しく行うことができましたが、字幕部分(SRT)がありません これが私のコードです: dir/b/s *.mkv >mkvlist.txt ///////// this gets a list of all the mkv files on the directory for /F "delims=;" %%F in (mkvlist.txt) do ffmpeg.exe -i "%%F" -format mp4 -vcodec copy -acodec aac -strict -2 -sn "%%~dF%%~pF%%~nF.mp4" ///////////// this makes the conversion del mkvlist.txt ////// this …

2
ffmpegステレオチャネルを2つのモノチャネルに
ステレオを2つのモノWAVファイルに分割する方法があるかどうか知りたいと思いました。私の最初の推測は ffmpeg -threads "16" -i "$2" -map 0:1:1 "$3" 私のサンプル動画には次の情報があるため: Audio ID : 2 Format : AAC Format/Info : Advanced Audio Codec Format profile : LC Codec ID : 40 Duration : 39mn 0s Bit rate mode : Constant Bit rate : 256 Kbps Channel(s) : 2 channels Channel positions …

1
ffmpegでwavからflacに変換
ffmpegでWAVファイルをFLACファイルに変換する方法は? さまざまなファイルを16ビットに1つ、24ビットに1つ、32ビットに1つずつ作成する必要があります。 私はまた異なるサンプルレートを作る必要があります。たとえば、176,400 kHzに1つ、44,100 kHzに1つです。知っている ffmpeg -i input-file.wav output-file.flac ファイルを変換しますが、私は残りについてはよくわかりません。 ffmpegのドキュメント( https://www.ffmpeg.org/doxygen/2.1/flac_8h.html )これではあまり役に立ちません。


3
ffmpeg / avconvは、スケーリングされた出力を2で割り切れるように強制します
デスクトップをavconv(別名ffmpeg)で記録し、720pにスケーリングします。 最近スクリプトに追加して、xwininfoでウィンドウを選択できるようにしました。これにより、ウィンドウが明確に記録されます。 ただし、出力形式が2で割り切れない場合、エンコーダーが異常動作し、ビデオを取得できません。 ffmpeg内でこれを修正する方法はあるので、スケール値を設定するためにbashで大量の手動計算を実行する必要はありませんか? それらが不均一である場合、スケールフィルターに幅/高さを1つ減算/追加させることは可能ですか?(円形?) これを達成できる元のスケールの後に別のフィルターを適用することは可能ですか?(これにより、入力サイズが不均一でスケーリングのないビデオが丸められます) #!/bin/bash avconv \ -f x11grab -r $fps -s $capturesize -i :0.0$offset \ -vcodec libx264 \ -vf scale=-1:720 \ -pre:v lossless_ultrafast \ -threads 4 \ -y $@ 一部の古いメーリングリストではround()、フィルターで使用できる関数が提案されていますが、構文が正しくないようです。それが機能する場合scale=round(iw,2):round(ih,2)、最後に適用されるフィルターはすべての問題を一度に解決します。iw動作してihいないようです。
10 bash  ffmpeg 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.