タグ付けされた質問 「raspicam」

Raspberry Pi FoundationのCSIインターフェイスカメラは、ナチュラルカラーと、赤外線フィルターなしのNoIRバージョンで利用できます。後者は、暗視やその他の特別なアプリケーションに適しています。

8
RasPiカメラボードとモーション
カメラボードとモデルA Raspberry Piを入手して、家のセキュリティカメラとして使用しました。Model BボードのLogitech C170 USBカメラでMotionを使用していましたが、品質を除いてはうまく機能しました。Raspberry Pi Camera Boardが表示されることを期待していました/dev/video0が、Motionを実行するとエラーが発生します: ビデオデバイス/ dev / video0を開けませんでした:そのようなファイルまたはディレクトリはありません カメラはで正常に動作しraspistill -dます。動きが検出されたときにビデオ/写真を撮る必要があり、仕事からアクセスできるようにする必要があるため、これはMotionで動作する必要があります。 この質問は私の質問に決して答えず、私はpythonを使用していないため、私にとっては良くありませんでした。
37 camera  raspicam  motion  mmal  v4l2 

12
Raspberry Piカメラモジュールを使用しているときにENOSPCエラーが発生する原因は何ですか?
Raspberry Piカメラを使用しようとすると、以下のエラーメッセージが表示されます。 # raspistill -o /tmp/gate_now.jpg mmal: mmal_vc_component_enable: failed to enable component: ENOSPC mmal: camera component couldn't be enabled mmal: main: Failed to create camera component mmal: Failed to run camera app. Please check for firmware updates これを調査すると、ENOSPCメッセージにつながる多くの理由があります。考えられる原因をカタログ化するために、ここで質問を作成すると思いました。
33 raspicam 

3
raspi-configを使用せずにカメラを有効にするにはどうすればよいですか?
wheezyの最小化バージョンでraspiカメラを使用しようとしています。コマンドraspi-configは使用できません。私はこれまでのところ、/boot/config.txt不足しているソフトウェアを編集またはインストールすることにより、それなしですべてを行うことができましたapt-get。 残念なことに、私が見ているすべての場所で、カメラに関するすべてのチュートリアル(公式のRaspiCam-Documentation.pdfを含む)は、最初にを使用して有効にするように言っていraspi-configます。だから、raspi-configは実際に手動で再現できるPiに対して何をしますか?

4
Raspistillはトリガーに時間がかかりますか?
私は「多くの」ラズベリーを一緒にトリガーしようとしていますが、raspistillを使用するのはテストのためだけであり、写真を撮るのがなぜ遅いのか疑問に思っています。 raspistill -o /home/pi/test55.jpg -ex sports --nopreview カメラの前でiPhoneクロノメーターを起動します。結果?7秒、09(ただし、シャープなので、シャッタースピードなどは問題ありませんでしたが、数値がぼやけていませんでした)。写真を撮る前にX秒を「取らない」ようにするにはどうすればよいですか?私は何百ものRPIを同期しますが、4秒で写真を撮り、10秒で他の写真を撮って欲しくないので、そこで何が起こっているのかを理解したいと思います。
18 camera  raspicam 

3
Raspberry CamからH.26​​4をストリーミングする最新の方法
Pi B +とPiカメラを入手し、H.264でエンコードされたビデオをカメラからホームサーバーにストリーミングするための最も効率的な(低CPU)低レイテンシ構成を見つけようとしています。 私は次を読んだ: http://pi.gbaman.info/?p=150 http://blog.tkjelectronics.dk/2013/06/how-to-stream-video-and-audio-from-a-raspberry-pi-with-no-latency/comment-page-1/#comments http://www.raspberrypi.org/forums/viewtopic.php?p=464522 (すべてのリンクはからgstreamer-1.0を使用しdeb http://vontaene.de/raspbian-updates/ . mainます。) 過去数年間、この点に関して多くのことが行われてきました。 もともと、出力をにパイプする必要がありraspividましたgst-launch-1.0(リンク1を参照)。 次に(リンク2)公式V4L2ドライバーが作成されました。これは現在標準であり、gstreamerのみを使用してパイプなしで直接データを取得できます(特にtowolfの投稿を参照してください»Sat Dec 07、2013 3:34 pm link 2): 送信者(Pi): gst-launch-1.0 -e v4l2src do-timestamp=true ! video/x-h264,width=640,height=480,framerate=30/1 ! h264parse ! rtph264pay config-interval=1 ! gdppay ! udpsink host=192.168.178.20 port=5000 レシーバー: gst-launch-1.0 -v udpsrc port=5000 ! gdpdepay ! rtph264depay ! avdec_h264 ! …

3
Raspberry Pi 3のOSレベルで使用可能なメモリは1GB未満です
それが重大な問題であるかどうかはわかりません。しかし、私は頭の中の疑問符を取り除く必要があります。 最近Raspberry Pi 3ボードを購入し、遊んでいると、meminfo の物理メモリサイズが1GB(公式サイトで指定されている)よりもはるかに小さい(〜880MB)ことを確認しました。 root@mypi:~# cat /proc/meminfo MemTotal: 882780 kB MemFree: 536068 kB MemAvailable: 712180 kB GPUで使用できるメモリの量は、関連するraspi-configメニュー項目で2回チェックされる16MB(最小許容制限)です。 raspi-config -> Advanced Options -> Memory Split ブート構成では、gpu_memが16MBであることも示されています。 root@mypi:~# cat /boot/config.txt | grep -i gpu gpu_mem=16 問題領域を絞り込むためのシステム情報は次のとおりです。ところで、システムは最新です。 OSリリース: root@mypi:~# cat /etc/os-release | grep PRETTY_NAME PRETTY_NAME="Raspbian GNU/Linux 8 (jessie)" カーネルバージョン: root@mypi:~# uname -a …

2
RasPiCamとpythonでOpenCVを使用する
pythonを使用してRasPiCamボードからビデオを直接OpenCVで再生できる人はいますか? 回避策を含むいくつかのプロジェクトを見てきましたが、私が興味を持っているのは、OpenCVでRasPiCamボードをUSBカムであるかのように使用できることです。 理想的には、私はこのようなことをしたいと思います: import cv2.cv as cv capture = cv.CreateCameraCapture(-1) #some other code to actually display the video

2
Raspberry Piカメラモジュールを使用して短時間で画像を撮影する
Raspberry Piカメラモジュールを使用して、1秒あたり約30枚の画像(映画なし)を撮影する必要があるプロジェクトに取り組んでいます。 私はそのためにPicameraライブラリ(http://picamera.readthedocs.org/en/latest/api.html)を使用していますが、問題は、写真を撮るのに約0.2-0.4 秒かかることです。すでにuse_video_portプロパティをTrueに設定していますが、これは少し役立ちましたが、まだ時間がかかります。 PythonとRaspberry Piカメラモジュールを使用して、短時間(約0.025秒)で写真​​を撮る方法を知っている人はいますか?
13 camera  image  raspicam 


2
Raspividでh264エンコーディングをスキップするにはどうすればよいですか?(5秒のレイテンシストリーミングビデオを取り除く)
監視カメラとしてPI-Camと一緒にPiを使用する場合、5秒間のレイテンシを解消するための膨大な数のフォーラムとスレッドがあります。多くのチュートリアルは、RTCプロトコルを使用して画像をエンコードおよびストリーミングするためにvlcを使用する方法を示しています。これにより、約5秒の遅延が生じます。 私によると、理由はraspividがストリームをH264にエンコードしているのに対し、VLCは再度デコードして、RTPが何であれ再エンコードする必要があるためです。コマンドラインは次のようになります。 raspivid -w 640 -h 480 -o - -t 0 |cvlc -vvv stream:///dev/stdin --sout '#rtp{sdp=rtsp://:8554/}' :demux=h264 最初の部分は、raspividにビデオを標準出力にストリーミングするように指示します。 raspivid -w 640 -h 480 -o - -t 0 パイプの後の部分は、VLCにそれをピックアップし、h264を使用してデコードするように指示します。 cvlc -vvv stream:///dev/stdin --sout '#rtp{sdp=rtsp://:8554/}' :demux=h264 この多重化と逆多重化は、リソースのかなりの部分です! 私はgithub でraspicamのソースを見つけましたが、encoder_buffer_callbackメソッド(現在は848行目)でエンコードをスキップするために何かできると思います。しかし、私はcが得意ではなく、ビデオエンコーディングにも精通していないため、どこから始めればよいのかわかりません。 Githubでは330個のフォークを見ることができますが、それらは特にraspicam(ユーザーランドプロジェクト全体)向けではないようです。エンコーディングを削除したり、mjpegのような簡単なものを実装したりするフォークを見つけようとして迷いました。 cおよびビデオコーデックの知識を持つ誰かが、私と他の億兆のユーザーがレイテンシを取り除くのを助けることができますか?おそらく、解決策はすでにこれらのフォークの1つにありますが、運が悪ければ何時間もかけて検索してきました。 PS私はブラウザソリューションを探していませんが、最終的にはそれをSynologyにストリーミングしたいのですが、できればmjpegストリーミングを使用します(ただしWebページではなく、ほとんどの商用IPカメラに組み込まれている標準のmjpegストリームを使用します)。最初のステップは、h264をgettigで取り除くことです。

3
Raspberry Piカメラを交換する必要がありますか?
この問題について説明しているスレッドがいくつかあることは知っていますが、どの解決策でも違いはありません。とにかく、RPiカメラをBボードに接続すると、次のエラーが発生します。 mmal: No data received from sensor. Check all connections, including the Sunny one on the camera board カメラの赤いライトは点灯したままですが、写真は撮れません。すべてを更新およびアップグレードしました。また、カメラリボンの両端を再接続して、正しく接続されていることを確認しましたが、何も変わっていません。これは、B +ボードで発生するエラーと同じですが、これもアップグレードして更新しました。 Raspi-ConfigでRPiカメラを無効にしてから再度有効にし、1-Wireに使用するピンをピン18に切り替え(ここを参照)、他のいくつかの方法を試しました。 それは単なるリボンなのか、それともカメラボードそのものなのか?それともソフトウェアの回避策がありますか? さらに情報が必要な場合はお知らせください!

3
パイカメラ-フラッシュを作成する方法?
Piカメラで写真を撮る必要がありますが、被写体を照らす必要があります。被写体は1m程度離れていますが、ほとんどの場合、真っ暗闇になります。したがって、私はある種のフラッシュが必要です。 私は毎時かそこらの写真を撮るだけです。私はどちらかについて考えていました: USB LEDランプ(ただし、Pythonスクリプトでこれをオン/オフにすることはできません) 切り替え可能なGPIOピンにリンクされたいくつかの超高輝度LED 誰かが同様のことをして、自分の経験と部品リストを共有するように気をつけていますか?
10 gpio  python  camera  raspicam 

3
遅延が最も小さいPicamのストリーミングソリューションはどれですか?
この投稿では、VLCを使用してストリーミングする方法を示します。それはうまく機能し、シンプルですが、それは私に約2ラグを与えます。この投稿はGStreamerを使用しており、0.3秒の遅延があります。少なめにお願いします。 Raspberry Piグラフィックチップを使用してエンコードを高速化することは可能ですか?

1
picameraのキャプチャから派手な配列やパスまで、さまざまな画質
numpy配列にキャプチャした場合とパスに直接キャプチャした場合、Piカメラからのキャプチャの品質は異なります。前者は後者よりもピンクがかった色合いです。 何故ですか。? 画像のキャプチャに使用したコード: from picamera import PiCamera import cv2 import time camera = PiCamera() camera.resolution = (1280, 720) img = np.empty((720, 1280, 3), dtype=np.uint8) start = time.time() camera.capture(img, "bgr") print("Trigger time: " + str(time.time() - start)) cv2.imwrite("array_capture.png", img) start = time.time() camera.capture("normal_capture.png") print("Trigger time: " + str(time.time() - start)) numpy配列にイメージをキャプチャするのにかかる時間は、ダイレクトパスキャプチャの半分です。だから、それは画像のノイズ除去に関連していますか? …
8 pi-3  raspicam  opencv 

1
Raspberry Pi Camera-次のフレームの準備はいつですか
C ++やraspicam apiなどのAPI を使用する場合は、grab()などのメソッドを使用してカメラをポーリングします。フレームの準備ができると、メソッドは戻ります。フレームをつかむことなくカメラの準備ができているかどうかを確認する方法はありますか? これは、コマンドラインツール、C ++呼び出し、Pythonライブラリ、文字通り任意のメソッドにすることができます。 私は、4つのカメラを備えた4つのラズベリーピスを持っていて、各フレームを正確に同時にフレームごとにフレームビデオで撮りたいので、質問します。カメラは私のアプリケーションが他の方法でそれを行うのに十分な速度ではありません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.