Ⅰ 樹莓派opencv python讀取攝像頭
你的報錯是找不到制定的function。
我的電腦上有這個:
In[1]:importcv2
In[2]:cv2.cvtColor
Out[2]:<functioncv2.cvtColor>
如果你沒有的話查查安裝的opencv全了么?
下面代碼跟你的基本一致,這個測試可用。
defcap_frame():
cap=cv2.VideoCapture(0)
ret,frame=cap.read()
plt.imshow(frame,cmap='gray',interpolation='bicubic')
cap.release()
returnframe
Ⅱ 如何使用PYTHON操作攝像頭
建議在知乎上問,知乎上大神比較多。
(我學了兩年python了 也不知道python可以操作攝像頭這么厲害。。。)
Ⅲ python如何能採集多個攝像頭的數據
可以,用PYQT+CV2,四個USB連接成功,程序如下,UI要自己搞了,放不下
# -*- coding: utf-8 -*-
import sys#, time
from PyQt5 import QtWidgets
from PyQt5.QtCore import QTimer, QThread, pyqtSignal
from Ui_cv2ui_thread import Ui_MainWindow
import cv2 as cv
from PyQt5.QtGui import QImage, QPixmap
from PyQt5.QtWidgets import (QApplication, QDialog, QFileDialog, QGridLayout,
QLabel, QPushButton, QColorDialog)
import numpy as np
class MainWindow(QtWidgets.QMainWindow, Ui_MainWindow):
def __init__(self, parent=None):
super(MainWindow, self).__init__(parent=parent)
self.setupUi(self) #這個一定要在這個最前面位置
# define the slot for pushbutton to save the merged image
self.pushButton.clicked.connect(self.savemergeimage)
self.img = np.ndarray(()) #空的numpy array
self.img1 = np.ndarray(())
self.img2= np.ndarray(())
self.img3= np.ndarray(())
self.img4= np.ndarray(())
self.img4= np.empty([960,1280, 3], int)
self.cap = cv.VideoCapture(3) #注意,由大開到小,很重要
self.cap.set(3, 640) # setup the resolution of CCD
self.cap.set(4, 480)
ret, self.img=self.cap.read()
self.cap1 = cv.VideoCapture(2)
self.cap1.set(3, 640)
self.cap1.set(4, 480)
ret, self.img1=self.cap1.read()
self.cap2 = cv.VideoCapture(1)
self.cap2.set(3, 640)
self.cap2.set(4, 480)
ret, self.img2=self.cap2.read()
self.cap3 = cv.VideoCapture(0)
self.cap3.set(3, 640)
self.cap3.set(4, 480)
ret, self.img3=self.cap3.read()
#time.sleep(1)也許需要延遲,等他准備好
# 初始化一個定時器,在其他條件下用的
#self.timer = QTimer(self)
# 實例化一個線程
self.work0= WorkThread()
self.work0.trigger.connect(self.ccd2)
# 定義時間任務是一次性任務就設定下一行
#self.timer.setSingleShot(True)
# 啟動時間任務,注意一致性
self.work0.start()
# 實例化一個線程
self.work= WorkThread()
# 多線程的信號觸發連接到ccd3
self.work.trigger.connect(self.ccd3)
self.work.start()
# 實例化一個線程
self.work2 = WorkThread()
# 多線程的信號觸發連接到ccd4
self.work2.trigger.connect(self.ccd4)
self.work2.start()
# 實例化一個線程
self.work3 = WorkThread()
# 多線程的信號觸發連接到ccd1
self.work3.trigger.connect(self.ccdmerge)
self.work3.start()
self.work4 = WorkThread()
# 多線程的信號觸發連接到ccd1
self.work4.trigger.connect(self.ccd1)
self.work4.start()
def refreshShowa(self):#顯示ccd1到label1
# 提取圖像的尺寸和通道, 用於將opencv下的image轉換成Qimage
height, width, channel = self.img.shape
bytesPerLine = 3 * width
self.qImg = QImage(self.img.data, width, height, bytesPerLine,
QImage.Format_RGB888).rgbSwapped()
# 將Qimage顯示出來
self.label.setPixmap(QPixmap.fromImage(self.qImg))
def refreshShowb(self):#顯示ccd2到label2
# 提取圖像的尺寸和通道, 用於將opencv下的image轉換成Qimage
height, width, channel = self.img1.shape
bytesPerLine = 3 * width
self.qImg1 = QImage(self.img1.data, width, height, bytesPerLine,
QImage.Format_RGB888).rgbSwapped()
# 將Qimage顯示出來
self.label_2.setPixmap(QPixmap.fromImage( self.qImg1))
def refreshShowc(self):#顯示ccd3到label3
# 提取圖像的尺寸和通道, 用於將opencv下的image轉換成Qimage
height, width, channel = self.img2.shape
bytesPerLine = 3 * width
self.qImg2 = QImage(self.img2.data, width, height, bytesPerLine,
QImage.Format_RGB888).rgbSwapped()
# 將Qimage顯示出來
self.label_3.setPixmap(QPixmap.fromImage( self.qImg2))
def refreshShowd(self):#顯示ccd4到label4
# 提取圖像的尺寸和通道, 用於將opencv下的image轉換成Qimage
height, width, channel = self.img3.shape
bytesPerLine = 3 * width
self.qImg3 = QImage(self.img3.data, width, height, bytesPerLine,
QImage.Format_RGB888).rgbSwapped()
# 將Qimage顯示出來
self.label_4.setPixmap(QPixmap.fromImage( self.qImg3))
def refreshShowe(self):#顯示合並的影像到label6
# 提取圖像的尺寸和通道, 用於將opencv下的image轉換成Qimage
height, width, channel = self.img4.shape
bytesPerLine = 3 * width
self.qImg4 = QImage(self.img4.data, width, height, bytesPerLine,
QImage.Format_RGB888).rgbSwapped()
# 將Qimage顯示出來
self.label_6.setPixmap(QPixmap.fromImage( self.qImg4))
def ccd1(self):
self.cap.set(3, 640)
self.cap.set(4, 480)
ret, self.img = self.cap.read()
self.refreshShowa()
# 啟動另一個線程
self.work0.start()#注意一致性
def ccd2(self, str):
self.cap1.set(3, 640)
self.cap1.set(4, 480)
ret, self.img1 = self.cap1.read()
self.refreshShowb()
self.work.start()#注意一致性
def ccd3(self, str):
self.cap2.set(3, 640)
self.cap2.set(4, 480)
ret, self.img2= self.cap2.read()
self.refreshShowc()
self.work2.start()#注意一致性
def ccd4(self, str):
self.cap3.set(3, 640)
self.cap3.set(4, 480)
ret, self.img3 = self.cap3.read()
self.refreshShowd()
self.work3.start()#注意一致性
def ccdmerge(self, str):
self.img4=np.hstack((self.img, self.img1))
self.img4=np.vstack((self.img4, np.hstack((self.img2, self.img3))))
#print ('here is a merge process') 可以用來判斷多線程的執行
self.refreshShowe() #later to remove the remark
self.work4.start()#注意一致性
def savemergeimage(self):
# 調用存儲文件dialog
fileName, tmp = QFileDialog.getSaveFileName(
self, 'Save Image', './__data', '*.png *.jpg *.bmp', '*.png')
if fileName == '':
return
if self.img.size == 1:
return
# 調用opencv寫入圖像
cv.imwrite(fileName,self.img4)
class WorkThread(QThread): #多線程核心,非常重要
# 定義一個信號
trigger = pyqtSignal(str)
def __int__(self):
# 初始化函數,默認
super(WorkThread, self).__init__()
def run(self):
self.trigger.emit('')
if __name__ == "__main__":
app = QtWidgets.QApplication(sys.argv)
w = MainWindow()
w.show()
sys.exit(app.exec_())
Ⅳ python怎樣通過opencv調用攝像頭
Import cv2,cap = cv2.VideoCapture(0),ret,frame = cap.read(),cv2.imwrite("a.png",frame),調用攝像頭並輸出圖像即可。
Ⅳ python如何調用IP攝像頭
正在用python+opencv做一個視頻採集程序,在一個區域網中有多個ip攝像頭和一個usb攝像頭,如何知道調用的是哪個攝像頭,檢查該攝像狀態,並且獲得該攝像頭的許可權,也就是收到該攝像頭的返回數據
Ⅵ 用python編程做了個攝像頭拍照程序,為何拍出來的照片解析度不可調
OpenCV讀的是視頻流,所以攝像機視頻流的像素上限要弄清楚,跟單純拍照不一樣,一個800萬像素的相機視頻流應該只有1080,再往上調像素沒有意義了已經。
Ⅶ python+opencv 調用電腦攝像頭,怎麼解決,求大神指點
把攝像頭的驅動刪掉了重新安裝試下 不好說,電腦攝像頭硬體是不是出現問題了。
Ⅷ python 怎麼打開電腦攝像頭
此方案為朋友LSJ提出並實現的,轉過來供學慣用,由於在測試時沒有架設WEB伺服器,也沒有做手機上的測試,僅通過PC測試了下,最完整解決方案請參考原出處《DIY手機監控系統》。
方法:
1 下載並安裝VideoCapture、PIL。
2.編碼,3s抓一個圖片並保存
[python]view plain
fromVideoCaptureimportDevice
importtime,string
interval=2
cam=Device(devnum=0,showVideoWindow=0)
#cam.setResolution(648,480)
cam.saveSnapshot('image.jpg',timestamp=3,boldfont=1,quality=75)
i=0
quant=interval*.1
starttime=time.time()
while1:
lasttime=now=int((time.time()-starttime)/interval)
printi
cam.saveSnapshot('image.jpg',timestamp=3,boldfont=1)
i+=1
whilenow==lasttime:
now=int((time.time()-starttime)/interval)
time.sleep(quant)
3.寫個網頁,3s刷新一次,如下:
[html]view plain
<HTML>
<HEAD>
<metahttp-equiv="Content-Type"content="text/html;charset=gb2312"/>
<title>Web監視</title>
<METAhttp-equiv="refresh"content="3">
<METAhttp-equiv="Expires"content="0">
<METAhttp-equiv="Pragma"content="no-cache">
</HEAD>
<body>
<imgsrc='[email protected]'width="47%"height="381"/>
</body>
</HTML>
4. 測試:
Ⅸ 如何使用Python操作攝像頭
用過USB攝像頭的都知道,你需要使用滑鼠來操作它,比如截個圖,錄個像什麼的,要點N次滑鼠,對於我們那些不喜歡多次點擊滑鼠的人來說,這是一件很boring的事情!
Ⅹ python如何獲取本機安裝的多個攝像頭
python一般要與攝像頭等硬體交互時,要用到ctypes模塊引用攝像頭sdk開發包中的dll,根據開發包中的函數說明文檔來調用函數即可實現。例如:
import ctypes
libc=ctypes.CDLL('libc.dylib')
libc.atoi()輸出12345