導航:首頁 > 操作系統 > v4llinux

v4llinux

發布時間:2022-11-15 01:26:26

Ⅰ 如何利用Video4linux獲取攝像頭數據

1. 攝像頭的安裝

在Linux下常用的攝像頭驅動是spca5xx。這個網站還給出了這款驅動支持的攝像頭的種類。另外,ov511晶元直接就支持Linux,使用者款晶元的攝像頭有網眼V2000。我使用的是網眼V2000的攝像頭,和Z-Star
301p+現代7131R晶元的攝像頭。後一種需要spca5xx的驅動。關於spca5xx的安裝方法,網上有很多介紹,這里就不說了。

2. 攝像頭的調試

安裝好攝像頭後,為了測試攝像頭能否正常工作,可以用一下軟體。比較著名的是xawtv,在網上搜以下可以下載到。安裝好後,打開xawtv則可以調試攝像頭。

3. Video4Linux 編程獲取數據

現有的video4linux有兩個版本,v4l和v4l2。本文主要是關於v4l的編程。利用v4l API獲取視頻圖像一般有以下幾步:

a> 打開設備

b> 設置設備的屬性,比如圖像的亮度,對比度等等

c> 設定傳輸格式和傳輸方式

d> 開始傳輸數據,一般是一個循環,用以連續的傳輸數據

e> 關閉設備

下面具體介紹v4l編程的過程。首先指出,在video4linux編程時要包含頭文件,其中包含了video4linux的數據結構和函數定義。

1)v4l的數據結構

在video4linux API中定義了如下數據結構,詳細的數據結構定義可以參考v4l API的文檔,這里就編程中經常使用的數據結構作出說明。

首先我們定義一個描述設備的數據結構,它包含了v4l中定義的所有數據結構:
typedef struct
_v4ldevice
{int fd;//設備號
struct video_capability capability;
struct
video_channel channel[10];
struct video_picture picture;
struct video_clip
clip;
struct video_window window;
struct video_capture capture;
struct
video_buffer buffer;
struct video_mmap mmap;
struct video_mbuf
mbuf;
struct video_unit unit;
unsigned char
*map;//mmap方式獲取數據時,數據的首地址
pthread_mutex_t mutex;
int frame;
int
framestat[2];
int overlay;
}v4ldevice;
下面解釋上面這個數據結構中包含的數據結構,這些結構的定義都在中。
* struct
video_capability
name[32] Canonical name for this interface
type Type of
interface
channels Number of radio/tv channels if appropriate
audios
Number of audio devices if appropriate
maxwidth Maximum capture width in
pixels
maxheight Maximum capture height in pixels
minwidth Minimum capture
width in pixels
minheight Minimum capture height in pixels

這一個數據結構是包含了攝像頭的屬性,name是攝像頭的名字,maxwidth maxheight是攝像頭所能獲取的最大圖像大小,用像素作單位。

在程序中,通過ioctl函數的VIDIOCGCAP控制命令讀寫設備通道已獲取這個結構,有關ioctl的使用,比較復雜,這里就不說了。下面列出獲取這一數據結構的代碼:
int v4lgetcapability(v4ldevice *vd)
{
if(ioctl(vd->fd,
VIDIOCGCAP, &(vd->capability)) < 0)
{
v4lperror("v4lopen:VIDIOCGCAP");
return -1;
}
return 0;
}
*
struct video_picture
brightness Picture brightness
hue Picture hue (colour
only)
colour Picture colour (colour only)
contrast Picture
contrast
whiteness The whiteness (greyscale only)
depth The capture depth
(may need to match the frame buffer depth)
palette Reports the palette that
should be used for this image

這個數據結構主要定義了圖像的屬性,諸如亮度,對比度,等等。這一結構的獲取通過ioctl發出VIDIOCGPICT控制命令獲取。
* struct video_mbuf
size The number of bytes to
map
frames The number of frames
offsets The offset of each frame

這個數據結構在用mmap方式獲取數據時很重要:

size表示圖像的大小,如果是640*480的彩色圖像,size=640*480*3

frames表示幀數

offsets表示每一幀在內存中的偏移地址,通過這個值可以得到數據在圖像中的地址。

得到這個結構的數據可以用ioctl的VIDIOCGMBUF命令。源碼如下:
int v4lgetmbuf(v4ldevice
*vd)
{
if(ioctl(vd->fd, VIDIOCGMBUF, &(vd->mbuf))<0)
{
v4lperror("v4lgetmbuf:VIDIOCGMBUF");
return -1;
}
return
0;
}

而數據的地址可以有以下方式計算:
unsigned char
*v4lgetaddress(v4ldevice *vd)
{
return (vd->map +
vd->mbuf.offsets[vd->frame]);
}

2)獲取影像mmap方式。

在video4Linux下獲取影像有兩種方式:overlay和mmap。由於我的攝像頭不支持overlay方式,所以這里只談mmap方式。

mmap方式是通過內存映射的方式獲取數據,系統調用ioctl的VIDIOCMCAPTURE後,將圖像映射到內存中,然後可以通過前面的v4lgetmbuf(vd)函數和v4lgetaddress(vd)函數獲得數據的首地址,這是李可以選擇是將它顯示出來還是放到別的什麼地方。

下面給出獲取連續影像的最簡單的方法(為了簡化,將一些可去掉的屬性操作都去掉了):
char*
devicename="/dev/video0";
char* buffer;
v4ldevice device;
int width =
640;
int height = 480;
int frame =
0;
v4lopen("/dev/video0",&device);//打開設備
v4lgrabinit(&device,width,height);//初始化設備,定義獲取的影像的大小
v4lmmap(&device);//內存映射
v4lgrabstart(&device,frame);//開始獲取影像
while(1){
v4lsync(&device,frame);//等待傳完一幀
frame
= (frame+1)%2;//下一幀的frame
v4lcapture(&device,frame);//獲取下一幀
buffer =
(char*)v4lgetaddress(&device);//得到這一幀的地址
//buffer給出了圖像的首地址,你可以選擇將圖像顯示或保存......
//圖像的大小為
width*height*3
..........................
}
轉載僅供參考,版權屬於原作者。祝你愉快,滿意請採納哦

Ⅱ 請教各位大蝦,linux怎樣查看系統是支持v4l2還是v4l啊

查看系統/usr/include 下面的頭文件,,<linux/videodev2.h>就說明支持v4l2
<linux/videodev.h> 支持v4l

一般情況下,只有其中的一個頭文件

不過很多系統已經不支持v4l 了,,ubuntu就是的,,,

Ⅲ V4L的簡介

II.Linux系統中的文件操作
有關Linux系統中的文件操作不屬於本文的內容。但是還是要了解相關系統調用的作用和使用方法。其中包括open(),read(),close(),ioctl(),mmap()。詳細的使用不作說明。在Linux系統中各種設備(當然包括視頻設備)也都是用文件的形式來使用的。他們存在與dev目錄下,所以本質上說,在Linux中各種外設的使用(如果它們已經正確的被驅動),與文件操作本質上是沒有什麼區別的。
現在出現Video4Linux2 (Video for Linux Two),簡稱V4L2。很顯然,他是V4L的改進版,修復了第一代的部分設計bug。從2.5.x開始,V4L2就被集成到內核裡面去了。盡管如此,還是有一部分設備的驅動不支持新版本的V4L2,所以,有時候我們會看到V4L跟V4L2同時出現在代碼裡面。
可參考網路詞條:Video4Linux,或者擴展閱讀部分。

Ⅳ 求armv4l-unknown-linux-gcc編譯器 我在編譯gsoap時ubuntu里找不到了

具體講一下是怎麼回事. 為什麼用armv4l-unknown-linux-gcc

Ⅳ make: armv4l-unknown-linux-gcc:命令未找到

在 bashrc 加上 export PATH="$PATH:/usr/local/arm/gcc-3.4.5-glibc-2.3.6/bin" 路徑自己改

Ⅵ 在linux下寫v4l,編譯的時候出現error: expected 『;』, 『,』 or 『)』 before numeric constant

語法錯誤,最好找的錯誤了

Ⅶ video4linux(v4l)使用攝像頭圖像採集的實驗 在fedora下ioctl(vd->fd, VIDIOCGMBUF, &(vd->mbuf)) 執行失敗

1.video4linux基礎相關
1.1 v4l的介紹與一些基礎知識的介紹
I.首先說明一下video4linux(v4l)。
它是一些視頻系統,視頻軟體,音頻軟體的基礎,經常使用在需要採集圖像的場合,如視頻監控,webcam,可視電話,經常應用在embedded linux中是linux嵌入式開發中經常使用的系統介面。它是linux內核提供給用戶空間的編程介面,各種的視頻和音頻設備開發相應的驅動程序後,就可以通過v4l提供的系統API來控制視頻和音頻設備,也就是說v4l分為兩層,底層為音視頻設備在內核中的驅動,上層為系統提供的API,而對於我們來說需要的就是使用這些系統的API。
II.Linux系統中的文件操作
有關Linux系統中的文件操作不屬於本文的內容。但是還是要了解相關系統調用的作用和使用方法。其中包括open(),read(),close(),ioctl(),mmap()。詳細的使用不作說明。在Linux系統中各種設備(當然包括視頻設備)也都是用文件的形式來使用的。他們存在與dev目錄下,所以本質上說,在Linux中各種外設的使用(如果它們已經正確的被驅動),與文件操作本質上是沒有什麼區別的。
1.2 建立一套簡單的v4l函數庫
這一節將一邊介紹v4l的使用方法,一邊建立一套簡單的函數,應該說是一套很基本的函數,它完成很基本的夠能但足夠展示如何使用v4l。這些函數可以用來被其他程序使用,封裝基本的v4l功能。本文只介紹一些和攝像頭相關的編程方法,並且是最基礎和最簡單的,所以一些內容並沒有介紹,一些與其他視頻設備(如視頻採集卡)和音頻設備有關的內容也沒有介紹,本人也不是很理解這方面的內容。
這里先給出接下來將要開發出來函數的一個總覽。
相關結構體和函數的定義我們就放到一個名為v4l.h的文件中,相關函數的編寫就放在一個名為v4l.c的文件中把。
對於這個函數庫共有如下的定義(也就是大體v4l.h中的內容):
#ifndef _V4L_H_
#define _V4L_H_
#include <sys/types.h>
#include <linux/videodev.h> //使用v4l必須包含的頭文件
這個頭文件可以在/usr/include/linux下找到,裡麵包含了對v4l各種結構的定義,以及各種ioctl的使用方法,所以在下文中有關v4l的相關結構體並不做詳細的介紹,可以參看此文件就會得到你想要的內容。
下面是定義的結構體,和相關函數,突然給出這么多的代碼很唐突,不過隨著一點點解釋條理就會很清晰了。
struct _v4l_struct
{
int fd;//保存打開視頻文件的設備描述符
struct video_capability capability;//該結構及下面的結構為v4l所定義可在上述頭文件中找到
struct video_picture picture;
struct video_mmap mmap;
struct video_mbuf mbuf;
unsigned char *map;//用於指向圖像數據的指針
int frame_current;
int frame_using[VIDEO_MAXFRAME];//這兩個變數用於雙緩沖在後面介紹。
};
typedef struct _v4l_struct v4l_device;
//上面的定義的結構體,有的文中章有定義channel的變數,但對於攝像頭來說設置這個變數意義不大通常只有一個channel,本文不是為了寫出一個大而全且成熟的函數庫,只是為了介紹如何使用v4l,再加上本人水平也有限,能夠給讀者一個路線我就很知足了,所以並沒有設置這個變數同時與channel相關的函數也沒有給出。

extern int v4l_open(char *, v4l_device *);
extern int v4l_close(v4l_device *);
extern int v4l_get_capability(v4l_device *);
extern int v4l_get_picture(v4l_device *);
extern int v4l_get_mbuf(v4l_device *);
extern int v4l_set_picture(v4l_device *, int, int, int, int, int,);
extern int v4l_grab_picture(v4l_device *, unsigned int);
extern int v4l_mmap_init(v4l_device *);
extern int v4l_grab_init(v4l_device *, int, int);
extern int v4l_grab_frame(v4l_device *, int);
extern int v4l_grab_sync(v4l_device *);
上述函數會在下文中逐漸完成,功能也會逐漸介紹,雖然現在看起來沒什麼感覺只能從函數名上依稀體會它的功能,或許看起來很煩,不過看完下文就會好了。
前面已經說過使用v4l視頻編程的流程和對文件操作並沒有什麼本質的不同,大概的流程如下:
1.打開視頻設備(通常是/dev/video0)
2.獲得設備信息。
3.根據需要更改設備的相關設置。
4.獲得採集到的圖像數據(在這里v4l提供了兩種方式,直接通過打開的設備讀取數據,使用mmap內存映射的方式獲取數據)。
5.對採集到的數據進行操作(如顯示到屏幕,圖像處理,存儲成圖片文件)。
6.關閉視頻設備。
知道了流程之後,我們就需要根據流程完成相應的函數。

那麼我們首先完成第1步打開視頻設備,需要完成int v4l_open(char *, v4l_device *);
具體的函數如下
#define DEFAULT_DEVICE 「/dev/video0」
int v4l_open(char *dev , v4l_device *vd)
{
if(!dev)dev= DEFAULT_DEVICE;
if((vd-fd=open(dev,O_RDWR))<0){perror(「v4l_open:」);return -1;}
if(v4l_get_capability(vd))return -1;
if(v4l_get_picture(vd))return -1;//這兩個函數就是即將要完成的獲取設備信息的函數
return 0
}
同樣對於第6步也十分簡單,就是int v4l_close(v4l_device *);的作用。
函數如下:
int v4l_close(v4l_device *vd)
{close(vd->fd);return 0;}
現在我們完成第2步中獲得設備信息的任務,下面先給出函數在對函數作出相應的說明。
int v4l_get_capability(v4l_device *vd)
{
if (ioctl(vd->fd, VIDIOCGCAP, &(vd->capability)) < 0) {
perror("v4l_get_capability:");
return -1;
}
return 0;
}
int v4l_get_picture(v4l_device *vd)
{
if (ioctl(vd->fd, VIDIOCGPICT, &(vd->picture)) < 0) {
perror("v4l_get_picture:");
return -1;
}
return 0;
}
對於以上兩個函數我們不熟悉的地方可有vd->capability和vd->picture兩個結構體,和這兩個函數中最主要的語句ioctl。對於ioctl的行為它是由驅動程序提供和定義的,在這里當然是由v4l所定義的,其中宏VIDIOCGCAP和VIDIOCGPICT的分別表示獲得視頻設備的capability和picture。對於其他的宏功能定義可以在你的Linux系統中的/usr/include/linux/videodev.h中找到,這個頭文件也包含了capability和picture的定義。例如:
struct video_capability
{
char name[32];
int type;
int channels;
int audios;
int maxwidth;
int maxheight;
int minwidth;
int minheight;
};capability結構它包括了視頻設備的名稱,頻道數,音頻設備數,支持的最大最小寬度和高度等信息。
struct video_picture
{
__u16 brightness;
__u16 hue;
__u16 colour;
__u16 contrast;
__u16 whiteness;
__u16 depth;
__u16 palette;
}picture結構包括了亮度,對比度,色深,調色板等等信息。頭文件里還列出了palette相關的值,這里並沒有給出。
了解了以上也就了解了這兩個簡單函數的作用,現在我們已經獲取到了相關視頻設備的capabilty和picture屬性。
這里直接給出另外一個函數
int v4l_get_mbuf(v4l_device *vd)
{
if (ioctl(vd->fd, VIDIOCGMBUF ,&(vd->mbuf)) < 0) {
perror("v4l_get_mbuf:");
return -1;
}
return 0;
}
int v4l_get_mbuf(v4l_device *vd)
{
if (ioctl(vd->fd, VIDIOCGMBUF ,&(vd->mbuf)) < 0) {
perror("v4l_get_mbuf:");
return -1;
}
return 0;
}
對於結構體video_mbuf在v4l中的定義如下,video_mbuf結構體是為了服務使用mmap內存映射來獲取圖像的方法而設置的結構體,通過這個結構體可以獲得攝像頭設備存儲圖像的內存大小。具體的定義如下,各變數的使用也會在下文詳細說明。
struct video_mbuf
{
int size; 可映射的攝像頭內存大小
int frames; 攝像頭可同時存儲的幀數
int offsets[VIDEO_MAX_FRAME];每一幀圖像的偏移量
};
下面完成第3步按照需要更改設備的相應設置,事實上可以更改的設置很多,本文以更改picture屬性為例說明更改屬性的一般方法。
那麼我們就完成extern int v4l_set_picture(v4l_device *, int, int, int, int, int,);這個函數吧
int v4l_set_picture(v4l_device *vd,int br,int hue,int col,int cont,int white)
{
if(br) vd->picture.brightnesss=br;
if(hue) vd->picture.hue=hue;
if(col) vd->picture.color=col;
if(cont) vd->picture.contrast=cont;
if(white) vd->picture.whiteness=white;
if(ioctl(vd->fd,VIDIOCSPICT,&(vd->picture))<0)
{perror("v4l_set_picture: ");return -1;}
return 0;
}
int v4l_get_mbuf(v4l_device *vd)
{
if (ioctl(vd->fd, VIDIOCGMBUF ,&(vd->mbuf)) < 0) {
perror("v4l_get_mbuf:");
return -1;
}
return 0;
}
對於結構體video_mbuf在v4l中的定義如下,video_mbuf結構體是為了服務使用mmap內存映射來獲取圖像的方法而設置的結構體,通過這個結構體可以獲得攝像頭設備存儲圖像的內存大小。具體的定義如下,各變數的使用也會在下文詳細說明。
struct video_mbuf
{
int size; 可映射的攝像頭內存大小
int frames; 攝像頭可同時存儲的幀數
int offsets[VIDEO_MAX_FRAME];每一幀圖像的偏移量
};
下面完成第3步按照需要更改設備的相應設置,事實上可以更改的設置很多,本文以更改picture屬性為例說明更改屬性的一般方法。
那麼我們就完成extern int v4l_set_picture(v4l_device *, int, int, int, int, int,);這個函數吧
int v4l_set_picture(v4l_device *vd,int br,int hue,int col,int cont,int white)
{
if(br) vd->picture.brightnesss=br;
if(hue) vd->picture.hue=hue;
if(col) vd->picture.color=col;
if(cont) vd->picture.contrast=cont;
if(white) vd->picture.whiteness=white;
if(ioctl(vd->fd,VIDIOCSPICT,&(vd->picture))<0)
{perror("v4l_set_picture: ");return -1;}
return 0;
}
上述函數就是更改picture相關屬性的例子,其核心還是v4l給我們提供的ioctl的相關調用,通過這個函數可以修改如亮度,對比度等相關的值。

Ⅷ Linux下OpenCV 、V4L、MJPG-streamer的區別及應用相關問題,有點糊塗!

V4L是內核中的視頻驅動框架,比如驅動電視機。
這個框架又包括用戶需要的一系列API,好吧,這個API很復雜,你可以去V4L的官網看看。
MJPG-streamer,MJPG是一種視頻編碼格式,用於存儲視頻,網路傳輸視頻的一種格式,所以本地顯示視頻前需要解碼。V4L框架已經包含了硬體解碼模塊,所以你可以用V4L的API播放視頻。

OpenCV 那就更高層了,你用opencv播放視頻只需要幾個函數就可以了,因為內部幫你做好了一切,你只需要控制邏輯就行了,opencv主要是用於視頻智能分析的,比如移動偵測,手勢控制等等。

Ⅸ v4l-utils設置攝像頭曝光參數

客戶需要設置android usb攝像頭曝光參數

Video4Linux(V4L)是Linux中關於視頻設備的內核驅動,它為針對視頻設備的應用程序編 程提供一系列介面函數,這些視頻設備包括現今市場上流行的TV卡、視頻捕捉卡和USB攝像頭等。對於USB口攝像頭,其驅動程序中需要提供基本的I/O操 作介面函數open、read、write、close的實現.

android下使用v4l-utils,需要v4l-utils源碼交叉編譯Android的v4l-utils軟體, 命令使用方法同上.

Ⅹ 利用linux的V4L獲取圖像數據時,用READ和MMAP兩種方式的一些不理解

使用read和write需要在用戶進程的緩沖和內核的緩沖區之間進行一次數據的拷貝過程是非常的浪費CPU的。而使用mmap可以將內核的緩沖區直接的映射在用戶的進程內存中,減少了一次無價值的數據復制過程。

閱讀全文

與v4llinux相關的資料

熱點內容
dvd光碟存儲漢子演算法 瀏覽:757
蘋果郵件無法連接伺服器地址 瀏覽:963
phpffmpeg轉碼 瀏覽:672
長沙好玩的解壓項目 瀏覽:145
專屬學情分析報告是什麼app 瀏覽:564
php工程部署 瀏覽:833
android全屏透明 瀏覽:737
阿里雲伺服器已開通怎麼辦 瀏覽:803
光遇為什麼登錄時伺服器已滿 瀏覽:302
PDF分析 瀏覽:485
h3c光纖全工半全工設置命令 瀏覽:143
公司法pdf下載 瀏覽:382
linuxmarkdown 瀏覽:350
華為手機怎麼多選文件夾 瀏覽:683
如何取消命令方塊指令 瀏覽:350
風翼app為什麼進不去了 瀏覽:778
im4java壓縮圖片 瀏覽:362
數據查詢網站源碼 瀏覽:150
伊克塞爾文檔怎麼進行加密 瀏覽:892
app轉賬是什麼 瀏覽:163