タグ付けされた質問 「ffmpeg」

複数のコーデック、フィルター、コンテナーをサポートするメディアツール。FFmpegツールに関する質問をするときは、実際のコマンドと完全なコンソール出力を含めてください。これを行う簡単な方法は、コマンドに「-report」を追加し、生成されたログファイルの内容を貼り付けることです。CLIのヘルプでは、ff *バイナリー(ffmpeg、ffprobe、ffplay)のみを使用してください。APIの使用方法については、Stack Overflowに投稿してください。

1
ffmpegの2つのオーディオ/ビデオファイルをPicture in Pictureとマージする方法
ピクチャインピクチャと両方のビデオのオーディオを使用してマージしたい2つのオーディオ/ビデオファイルがあります。 次のコマンドは、ピクチャインピクチャを作成するために機能しました。また、local.webmからの音声も含まれていました。ただし、remote.webmからの音声はありませんでした。 ffmpeg -i local.webm -i remote.webm -filter_complex "[1]scale=iw/4:ih/4 [pip]; [0][pip] overlay=main_w-overlay_w-10:main_h-overlay_h-10" -ar 44100 -vcodec h264 -acodec aac -strict experimental outstream.mp4
2 audio  video  ffmpeg 

2
FFmpegを使用してFLVをOGG Theoraビデオに変換すると、「theora_encode_initが失敗しました」
FFmpegを使用してフラッシュビデオ(.flv)をOGG Theoraビデオに変換してHTML 5で表示するにはどうすればよいですか? 使ってみたとき ffmpeg -i dayinthelife.wmv -vcodec libtheora -acodec libvorbis -b 750k dayinthelife.ogv 次の出力が生成されました。 Seems stream 1 codec frame rate differs from container frame rate: 1000.00 (1000/1) -> 29.97 (30000/1001) Input #0, asf, from 'dayinthelife.wmv': Duration:output 00:01:14.19, start: 5.000000, bitrate: 3754 kb/s Stream #0.0: Audio: wmav2, 48000 Hz, stereo, …

1
FFmpegの複数のビデオフィルター
PNG透かしを追加してから、ビデオを拡大したい。さらにフィルターを追加できます。これは私のFFmpegコマンドです。 sweb@sweb-laptop:/tmp$ ffmpeg -i Wildlife.wmv -sn -acodec libvorbis -vcodec libvpx -b:a 128k -ar 44100 -b:v 384k -r 25 -vf "movie=/tmp/icon.png [watermark]; [in][watermark] overlay=main_w/2-overlay_w/2:main_h/2-overlay_h/2 [out], scale=480:-1" video.webm …しかし、それは私にエラーを与えました: Simple filtergraph 'movie=/tmp/icon.png [watermark]; [in][watermark] overlay=main_w/2-overlay_w/2:main_h/2-overlay_h/2 [out], scale=480:-1' does not have exactly one input and output. Error opening filters!

1
cPanelサーバーにffmpeg(fdk-aac)をインストールすると、perlスレッドで問題が発生します
基本的に、cPanelサーバーにFFMPEGをインストールしようとしています。ffmpeg -vlibfdk-aacを除くすべてをインストールして動作させることができます(を使用してテスト済み)。私はgit cloneすべてをうまく行うことができますautoreconf -fivが、fdk-aacディレクトリで実行しようとすると次のようになります: root@matrix [~/ffmpeg-source/fdk-aac]# autoreconf -fiv autoreconf: Entering directory `.' autoreconf: configure.ac: not using Gettext autoreconf: running: aclocal -I m4 --output=aclocal.m4t /usr/share/automake-1.11/Automake/ChannelDefs.pm line 23: This Perl hasn't been configured and built properly for the threads module to work. (The 'useithreads' configuration option hasn't been used.) Having threads support …
2 ffmpeg  perl  threads 

1
ffmpegでmp4ファイルをスプライスするには、どのコーデックが必要ですか?
必要なすべてのパッケージをインストールしたと確信しています。ビデオの最初の14分間を切り取る試みです。 meder@meder-desktop:/media/12dbbb01-4f96-433d-96a0-9b6c88598a51$ sudo ffmpeg -i HDV_0178.MP4 -ss 00:00:00 -t 00:14:32 out.mp4 -acodec copy FFmpeg version SVN-r0.5.1-4:0.5.1-1ubuntu1, Copyright (c) 2000-2009 Fabrice Bellard, et al. configuration: --extra-version=4:0.5.1-1ubuntu1 --prefix=/usr --enable-avfilter --enable-avfilter-lavf --enable-vdpau --enable-bzlib --enable-libgsm --enable-libschroedinger --enable-libspeex --enable-libtheora --enable-libvorbis --enable-pthreads --enable-zlib --disable-stripping --disable-vhook --enable-runtime-cpudetect --enable-gpl --enable-postproc --enable-swscale --enable-x11grab --enable-libdc1394 --enable-shared --disable-static libavutil 49.15. 0 …
2 ffmpeg 

1
GIFの各フレームの遅延を取得する
GIFの各フレームの遅延を取得したいです。MP4ファイルに変換する予定です。 「アニメーションGIFをYouTubeフレンドリービデオ形式に変換するにはどうすればよいですか?」に対する回答の1つで、FFMPEGを使用した方法を説明していますが、GIFファイル内の各画像のフレームレート/遅延を取得する方法は説明していません。 ImageMagick(またはその他)を使用してGIFのフレームの遅延を取得し、可変フレームレートでMP4を作成するにはどうすればよいですか?


1
ffmpegを使用して、選択したオーディオトラックと字幕をリマックスするにはどうすればよいですか?
そのため、複数のオーディオトラックと複数の字幕(異なる言語)を含むビデオ(MKVまたはMP4)があります。 私が望むのは、新しいビデオにリマックスすることです。 1つまたは2つのオーディオトラックのみを選択する 1つまたは2つの字幕トラックを選択する VLCを使用してビデオを再生するときに自動的に選択されるように、1つのオーディオトラックと1つのサブタイトルトラック(利用可能な場合)をデフォルトとして作成します。 ネットを検索しましたが、探しているものが見つかりません。「man ffmpeg」も見てきました。-mapパラメーターを使用する必要があるかもしれませんが、指定された例はオーディオのみのコピーに限定されているようです。 どうもありがとう!:)
2 video  ffmpeg 

1
ffmpegでh.264 .MP4ビデオファイルをスマートにトリミング
ライブキャプチャされたh.264ビデオを入力として使用し、黒からフェードアップで開始し、できるだけ少ないエンコードで黒へのフェードで終了するようにトリムします。これらのフェードイン/アウトポイントは、Iフレームの間にある場合があります。再エンコードせずに非Iフレームでトリミングすることはできません。 図を作成しました: 入力ファイルを3つの部分に分割します。パートAは、ポイント1の前のIフレームで始まり、ポイント1で終わります。パートCは、ポイント2のIフレームで始まり、黒へのフェード後の次のIフレームで終わります。それらはすべてIフレーム形式に再エンコードされます。これらの2つのセグメントは10〜30秒と比較的短くなります。パートB(ビデオのほとんど)は、codec:copyを使用してトランスコードできます。 パーツAおよびCは(黒検出を使用して自動的に、または手動で)トリミングされ、その後、ffmpegを使用してビデオ全体が連結されます。 ffmpegを使用したいのは、それが私が最もよく知っていることであり、私のワークフローの残りの部分では排他的に使用されるからです。どのコマンドラインでこれを達成できますか? 好奇心が強い人のために、ライブビデオをエンコードされたセグメントにキャプチャするためのコマンドラインを次に示します。この時点から、不要なビデオを破棄し、トリミングに必要な場合はセグメントを再エンコードするのは簡単です。最後のステップは、セグメントを連結することです。 ffmpeg -f dshow -rtbufsize 702000k -video_size 1920x1080 -framerate 29.97 -pixel_format uyvy422 -i video="Decklink Video Capture":audio="Decklink Audio Capture" -threads 0 -c:v libx264 -s 1280x720 -crf 18 -profile:v main -level 3.1 -pix_fmt yuv420p -c:a libvo_aacenc -b:a 128k -ac 1 -f segment -segment_time 0.01 -reset_timestamps 1 seg%02d.mp4
2 video  ffmpeg  h.264  mpeg4 

1
FFmpeg concat mp4の破損
走るとき ffmpeg -f concat -i resizedvideolist.txt -c copy concatenated_time.mp4 2>&1 txt内のすべてのビデオを連結しますが、途中で1つのビデオがグリッチされます。オーディオはそのビデオでは再生されませんが、次のビデオで再生が開始されるため、遅延しています。その後、どこかでオーディオが追いついて同期に戻りました。ここで起こっているいくつかの大きな破損のようです。 コーデックは他のすべてのビデオ、H.264と同じであり、他のコーデックと同様のmp4であるため、これを修正する方法はわかりません。このffmpegコマンドの前に、私は実行したので、個々のビデオファイルはそのままで正常に実行され、既に同じタイムスケールにあります ffmpeg -i ./tempDownloadedMemes/$videoFileName -filter_complex 'scale=1080:-1,pad=1080:1080:(ow-iw)/2:(oh-ih)/2:0x2F2F2F' -video_track_timescale 15360 ./resizedVideos/resized_videoFileName 2>&1 正直に言うと、タイムスケールが何であるかさえ知りませんが、それが機能するためには同じである必要があると読みました。リストからビデオを削除し、この同じコマンドを試してみたところ、ビデオが表示されるはずだった問題が同時になくなりました。その1つのファイル自体と関係があるようです。連結バグに関する既知の問題/回避策はありますか?これは私にとって非常に重要です。ありがとう。

2
透明なビデオをMP4にオーバーレイするにはどうすればよいですか?
electron-recorderスマートフォンからMP4ビデオにオーバーレイする必要がある、わずかに変更したバージョンを使用して生成した透明なwebmビデオがあります。overlayフィルターを使用してみましたが、オーバーレイでは常に透明ではなく黒い背景が表示されます。オーバーレイの背景は透明であると確信しています。ウェブページで再生でき、背景が透けて見えます。 これを機能させるにはどのコマンドが必要ですか? これは、webm透明なPNGから生成するために使用したコマンドです(electron-recorderテスト用に抽出および変更)。cat *.png | ffmpeg -y -f image2pipe -r 30 -i - -c:v libvpx -pix_fmt yuva420p -metadata:s:v:0 alpha_mode="1" output.webm 出力はffprobe overlay.webm次のとおりです。 ffprobe version 3.0.2 Copyright (c) 2007-2016 the FFmpeg developers built with Apple LLVM version 8.0.0 (clang-800.0.42.1) configuration: --prefix=/usr/local/Cellar/ffmpeg/3.0.2 --enable-shared --enable-pthreads --enable-gpl --enable-version3 --enable-hardcoded-tables --enable-avresample --cc=clang --host-cflags= --host-ldflags= --enable-opencl …
2 video  ffmpeg 

2
Centosにgstreamerプラグインをインストールする際の、試行されたインストール間の競合
gstreamer-ffmpegCentos-6.7にopencv c ++コーディング目的のパッケージをインストールしようとしています 入力するとき; sudo yum install gstreamer-ffmpeg* エラーが発生します: Transaction Check Error: file /usr/lib64/libavutil.so.50 conflicts between attempted installs of libavutil50-0.7.16-33.el6.x86_64 and ffmpeg-compat-0.6.7-1.el6.x86_64 ただし、そのようなファイルはありません。 [mg@MgCentOS Desktop]$ locate libavutil.so.50 [mg@MgCentOS Desktop]$ また、インストールされていないため、削除できません。 [mg@MgCentOS Desktop]$ sudo yum remove libavutil* [sudo] password for mg: Loaded plugins: fastestmirror, refresh-packagekit, security Setting up Remove Process No …

0
FFMPEG(ビットレートビューアー)を介したF4VからMP4
Flash Media Live Encoderを使用してキャプチャしたF4Vがいくつかあり、それらをMP4に変換する必要があります。私が理解しているように、F4VはMP4形式とかなり同一なので、ビデオとオーディオのコーデックに「コピー」を使用しました。 これは私が使用したFFmpegコマンドラインです。 ffmpeg.exe -i %1 -vcodec copy -acodec copy -loglevel debug -report %1.mp4 コマンドは、ビットレートビューアーを品質チェック(http://www.winhoros.de/docs/bitrate-viewer/)として使用しており、結果のMP4に誤った情報(http://tinyurl.com / nafcozw)。対照的に、FFmpegからログを確認してMediaInfoを使用すると、ソースファイル(F4V)と比較した場合、結果は正確です。ビットレートビューアーが表示しているものを心配する必要がありますか、またはファイルのビットレートをグラフ化するために使用できる他のプログラムがありますか? 私が理にかなっていることを願っています、FFMPEGが初めてなので、あなたは私の理解の欠如を言い訳する必要があります。ありがとう

1
FFMPEGでは、ビデオのサイズを変更する最も効率的な方法は何ですか?
4:3形式のmkvおよびmp4ビデオファイルの大規模なコレクションがあります。最大のサイズを、より管理しやすい640x480サイズに変更しようとしています。これは、ディスクスペースを節約することも、ラップトップ画面で視聴しやすくすること、および再生に使用するプロセッササイクルを少なくすることも目的の1つです。 しかし、私はそれらのサイズを変更する効率的な手段を見つけていません。MediaInfoによって報告された元のファイルに使用されているエンコーディングに厳密に準拠しようとしています(MediaInfoによって報告された変数を標準のプリセットとは異なる場所で再現するためにx264optsオプションを使用)。2パスビデオエンコーディングに基づきます。 しかし、これにより、以下に示すように、ffmpegの非常に複雑なコマンドが残ります。私は何を見落としていますか?ffmpegで使用できるもっと簡単なコマンドラインはありますか。それでも、入力ファイルで使用されているエンコーディングを再現するという公正な仕事をしますか? :: Resize Image to 640x480 (e.g. 960x720 x 2/3) :: Input File (WITH .ext) SET input=video_960x720_320kbps.mkv :: Resize from 960x720 to 640x480 (i.e. 960x720 x 2/3) :: Resize Picture to 2/3rd SET multiply=2 SET divide=3 :: Location of FFMPEG (64-bit) SET ffmpeg="C:\Program Files\FFmpeg\ffmpeg.exe" -hide_banner -threads 1 :: …
2 video  ffmpeg 

1
3つのライブオーディオストリームを1つのライブオーディオストリームにまとめる
私は1つの複合オーディオストリームとして再放送したい3つのライブオーディオフィードを持っています。これら3つのライブオーディオフィードすべてを一度に聴きたいのですが、自宅との接続は1か月あたりのデータに制限されているので、1つのソースからのみストリーミングしたいと思います。私が代わりに自分のオフサイトサーバーからのフィードを1つ使用したいのはそのためです。 これを達成するためにffmpegのようなものを使用することは可能ですか、それともそれよりも複雑でしょうか? ライブオーディオフィードはさまざまな形式で入手できます。ストリーミングをサポートしているのは、Windows Media Player、Real Player、iTunes、Winamp、Web Player、およびJava Web Playerです。そのため、サポートされているフィードタイプを取得しても問題ありません。 これが2つのフィードの例です。 http://audio2.radioreference.com/342138428 http://audio7.radioreference.com/333108723 これらを一つのフィードにしたいのですが、 http://example.com/radiostream そして私はストリームがあると思います。フィードは現在MPEG形式であり、まったく同じコーデックで出力するのはまったく問題ありません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.