내 컴퓨터에 v4l2loopback 커널 모듈을 설치하고 sudo modprobe v4l2loopback exclusive_caps=1
.
/dev/video0
카메라를 만들었어요녹 바인딩정지 이미지를 카메라로 전송하기 시작합니다(명령어는위키피디아):
sudo ffmpeg -loop 1 -re -i 60828015.jpg -f v4l2 -vcodec rawvideo -pix_fmt yuv420p /dev/video0
데스크톱 환경 없이 VPS에서 실행하고 있기 때문에 noVNC와 데스크톱 환경으로 Docker 컨테이너를 빠르게 시작하여 모든 것을 테스트했습니다( sudo docker run --rm -it --device /dev/video0 --privileged -p 8090:8080 theasp/novnc
). 모든 것이 괜찮아 보이고 실행하면 ffplay /dev/video0
카메라에서 이미지를 성공적으로 볼 수 있습니다. 이제 문제는 다른 응용 프로그램입니다.
치즈는 카메라에서도 감지되지 않았습니다. Chromium이 카메라를 감지하지만 사용할 수는 없습니다.
[15749:15755:1024/025614.520951:ERROR:v4l2_capture_delegate.cc(1138)] Dequeued v4l2 buffer contains invalid length (11441 bytes).
내가 뭘 잘못하고 있는지, 왜 Chromium이 카메라에서 데이터를 읽을 수 없는지 잘 모르겠습니다.
- 커널 버전: 5.4.0-164-일반
- v4l2loopback 버전: 마스터 브랜치에서 5bb9bed 커밋(현재 최신)
- 모듈 매개변수: Exclusive_caps=1
FFmpeg 파이프라인 로그:
ffmpeg version 4.2.7-0ubuntu0.1 Copyright (c) 2000-2022 the FFmpeg developers
built with gcc 9 (Ubuntu 9.4.0-1ubuntu1~20.04.1)
configuration: --prefix=/usr --extra-version=0ubuntu0.1 --toolchain=hardened --libdir=/usr/lib/x86_64-linux-gnu --incdir=/usr/include/x86_64-linux-gnu --arch=amd64 --enable-gpl --disable-stripping --enable-avresample --disable-filter=resample --enable-avisynth --enable-gnutls --enable-ladspa --enable-libaom --enable-libass --enable-libbluray --enable-libbs2b --enable-libcaca --enable-libcdio --enable-libcodec2 --enable-libflite --enable-libfontconfig --enable-libfreetype --enable-libfribidi --enable-libgme --enable-libgsm --enable-libjack --enable-libmp3lame --enable-libmysofa --enable-libopenjpeg --enable-libopenmpt --enable-libopus --enable-libpulse --enable-librsvg --enable-librubberband --enable-libshine --enable-libsnappy --enable-libsoxr --enable-libspeex --enable-libssh --enable-libtheora --enable-libtwolame --enable-libvidstab --enable-libvorbis --enable-libvpx --enable-libwavpack --enable-libwebp --enable-libx265 --enable-libxml2 --enable-libxvid --enable-libzmq --enable-libzvbi --enable-lv2 --enable-omx --enable-openal --enable-opencl --enable-opengl --enable-sdl2 --enable-libdc1394 --enable-libdrm --enable-libiec61883 --enable-nvenc --enable-chromaprint --enable-frei0r --enable-libx264 --enable-shared
libavutil 56. 31.100 / 56. 31.100
libavcodec 58. 54.100 / 58. 54.100
libavformat 58. 29.100 / 58. 29.100
libavdevice 58. 8.100 / 58. 8.100
libavfilter 7. 57.100 / 7. 57.100
libavresample 4. 0. 0 / 4. 0. 0
libswscale 5. 5.100 / 5. 5.100
libswresample 3. 5.100 / 3. 5.100
libpostproc 55. 5.100 / 55. 5.100
Input #0, image2, from 'input.jpg':
Duration: 00:00:00.04, start: 0.000000, bitrate: 1854 kb/s
Stream #0:0: Video: mjpeg (Baseline), yuvj420p(pc, bt470bg/unknown/unknown), 360x287 [SAR 96:96 DAR 360:287], 25 fps, 25 tbr, 25 tbn, 25 tbc
Stream mapping:
Stream #0:0 -> #0:0 (mjpeg (native) -> rawvideo (native))
Press [q] to stop, [?] for help
[swscaler @ 0x55b19c9fab80] deprecated pixel format used, make sure you did set range correctly
Output #0, video4linux2,v4l2, to '/dev/video0':
Metadata:
encoder : Lavf58.29.100
Stream #0:0: Video: rawvideo (I420 / 0x30323449), yuv420p, 360x287 [SAR 1:1 DAR 360:287], q=2-31, 30996 kb/s, 25 fps, 25 tbn, 25 tbc
Metadata:
encoder : Lavc58.54.100 rawvideo
frame= 2277 fps= 25 q=-0.0 size=N/A time=00:01:31.08 bitrate=N/A speed= 1x
답변1
~에서https://github.com/umlaeute/v4l2loopback/wiki/Faq
색상 인코딩에 따라 이상한 크기의 프레임은 문제를 일으킬 수 있습니다. 예를 들어 YUV420p에서는 U 및 V 평면을 2배로 다운샘플링해야 하며 이는 너비와 높이를 2로 나눌 수 있는 경우 가장 잘 작동합니다. 당신은 또한 볼 수 있습니다이슈 #561
이미지 크기를 변경했더니 오류가 사라졌습니다.