㈠ 华为手机拍照识物功能在哪里
以华为P40手机为例:
1.进入相机 > 拍照,点击智慧视觉图标,然后点击识物图标。
2.将镜头对准要识别的目标,静待识别结果,或点击识物图标拍照识别。
点击图库,可选择图库中的图片进行识别。
3.如果识别到多个目标,可点击目标上的圆圈,快速切换和查看识别结果。
4.点击识别结果中的服务卡片,可获取更多信息。
点击三个点可分享和保存识别结果。
㈡ android Google源生生物识别(Biometric依赖库)
Android Google源生生物识别(FingerprintManager)
Android Google源生生物识别(Biometric依赖库)
Android 6 中引入了 FingerprintManager 用于集成指纹识别,在后续的更新版本中弃用了 FingerprintManager ,需要更新到使用 Biometric 支持库去集成,本文是基于 Biometric 依赖库进行指纹识别的集成完成指纹登录的流程,设计架构参考 Android Google源生生物识别(FingerprintManager)
Android框架和安全团队发布的生物识别库,这是一个支持库,它取代了所有之前的API迭代。整个库使得所有在Android 10 中公布的特性都可以都可以一直使用到 Android 6
在应用或模块的build.gradle中
调用 BiometricManager 的 canAuthenticate 函数检查当前是否满足使用生物识别的条件,会检查你的设备是否拥有指纹识别硬件,是否已经至少录入一个指纹,是否已经开启指纹验证
Authenticators 定义了身份验证器的类型
BIOMETRIC_STRONG : 满足第三类要求的生物识别传感器
BIOMETRIC_WEAK:满足第二类要求的生物识别传感器
DEVICE_CREDENTIAL:安全设备的要求 (PIN, pattern, or password)
注意 :Android 10(API 级别 29)及更低版本不支持以下身份验证器类型组合: DEVICE_CREDENTIAL 和 BIOMETRIC_STRONG | DEVICE_CREDENTIAL 。如需检查 Android 10 及更低版本中是否存在 PIN 码、解锁图案或密码,请使用 KeyguardManager.isDeviceSecure() 方法。
参考 Android Google源生生物识别(FingerprintManager) ,已经有完整的密钥创建流程
我们使用了 Biometric 依赖库,他可以调用系统提供的对话框在使用它的各个应用之间均保持一致,从而打造更值得信赖的用户体验,使用 BiometricPrompt API,
首选先需要基于 BiometricPrompt 创建生物验证的callback
发起调用指纹传感器
在指纹识别成功之后我们可以获取到经过授权的密钥,然后使用此密钥加密用户信息并且进行存储
当你之前已经识别过指纹并且将用户信息加密存储之后,后续的登录操作就可以使用直接使用指纹自动去解密信息并且登录
Android 知识整理
㈢ 目标检测算法(R-CNN,fast R-CNN,faster R-CNN,yolo,SSD,yoloV2,yoloV3)
深度学习目前已经应用到了各个领域,应用场景大体分为三类:物体识别,目标检测,自然语言处理。 目标检测可以理解为是物体识别和物体定位的综合 ,不仅仅要识别出物体属于哪个分类,更重要的是得到物体在图片中的具体位置。
2014年R-CNN算法被提出,基本奠定了two-stage方式在目标检测领域的应用。它的算法结构如下图
算法步骤如下:
R-CNN较传统的目标检测算法获得了50%的性能提升,在使用VGG-16模型作为物体识别模型情况下,在voc2007数据集上可以取得66%的准确率,已经算还不错的一个成绩了。其最大的问题是速度很慢,内存占用量很大,主要原因有两个
针对R-CNN的部分问题,2015年微软提出了Fast R-CNN算法,它主要优化了两个问题。
R-CNN和fast R-CNN均存在一个问题,那就是 由选择性搜索来生成候选框,这个算法很慢 。而且R-CNN中生成的2000个左右的候选框全部需要经过一次卷积神经网络,也就是需要经过2000次左右的CNN网络,这个是十分耗时的(fast R-CNN已经做了改进,只需要对整图经过一次CNN网络)。这也是导致这两个算法检测速度较慢的最主要原因。
faster R-CNN 针对这个问题, 提出了RPN网络来进行候选框的获取,从而摆脱了选择性搜索算法,也只需要一次卷积层操作,从而大大提高了识别速度 。这个算法十分复杂,我们会详细分析。它的基本结构如下图
主要分为四个步骤:
使用VGG-16卷积模型的网络结构:
卷积层采用的VGG-16模型,先将PxQ的原始图片,缩放裁剪为MxN的图片,然后经过13个conv-relu层,其中会穿插4个max-pooling层。所有的卷积的kernel都是3x3的,padding为1,stride为1。pooling层kernel为2x2, padding为0,stride为2。
MxN的图片,经过卷积层后,变为了(M/16) x (N/16)的feature map了。
faster R-CNN抛弃了R-CNN中的选择性搜索(selective search)方法,使用RPN层来生成候选框,能极大的提升候选框的生成速度。RPN层先经过3x3的卷积运算,然后分为两路。一路用来判断候选框是前景还是背景,它先reshape成一维向量,然后softmax来判断是前景还是背景,然后reshape恢复为二维feature map。另一路用来确定候选框的位置,通过bounding box regression实现,后面再详细讲。两路计算结束后,挑选出前景候选框(因为物体在前景中),并利用计算得到的候选框位置,得到我们感兴趣的特征子图proposal。
卷积层提取原始图像信息,得到了256个feature map,经过RPN层的3x3卷积后,仍然为256个feature map。但是每个点融合了周围3x3的空间信息。对每个feature map上的一个点,生成k个anchor(k默认为9)。anchor分为前景和背景两类(我们先不去管它具体是飞机还是汽车,只用区分它是前景还是背景即可)。anchor有[x,y,w,h]四个坐标偏移量,x,y表示中心点坐标,w和h表示宽度和高度。这样,对于feature map上的每个点,就得到了k个大小形状各不相同的选区region。
对于生成的anchors,我们首先要判断它是前景还是背景。由于感兴趣的物体位于前景中,故经过这一步之后,我们就可以舍弃背景anchors了。大部分的anchors都是属于背景,故这一步可以筛选掉很多无用的anchor,从而减少全连接层的计算量。
对于经过了3x3的卷积后得到的256个feature map,先经过1x1的卷积,变换为18个feature map。然后reshape为一维向量,经过softmax判断是前景还是背景。此处reshape的唯一作用就是让数据可以进行softmax计算。然后输出识别得到的前景anchors。
另一路用来确定候选框的位置,也就是anchors的[x,y,w,h]坐标值。如下图所示,红色代表我们当前的选区,绿色代表真实的选区。虽然我们当前的选取能够大概框选出飞机,但离绿色的真实位置和形状还是有很大差别,故需要对生成的anchors进行调整。这个过程我们称为bounding box regression。
假设红色框的坐标为[x,y,w,h], 绿色框,也就是目标框的坐标为[Gx, Gy,Gw,Gh], 我们要建立一个变换,使得[x,y,w,h]能够变为[Gx, Gy,Gw,Gh]。最简单的思路是,先做平移,使得中心点接近,然后进行缩放,使得w和h接近。如下:
我们要学习的就是dx dy dw dh这四个变换。由于是线性变换,我们可以用线性回归来建模。设定loss和优化方法后,就可以利用深度学习进行训练,并得到模型了。对于空间位置loss,我们一般采用均方差算法,而不是交叉熵(交叉熵使用在分类预测中)。优化方法可以采用自适应梯度下降算法Adam。
得到了前景anchors,并确定了他们的位置和形状后,我们就可以输出前景的特征子图proposal了。步骤如下:
1,得到前景anchors和他们的[x y w h]坐标。
2,按照anchors为前景的不同概率,从大到小排序,选取前pre_nms_topN个anchors,比如前6000个
3,剔除非常小的anchors。
4,通过NMS非极大值抑制,从anchors中找出置信度较高的。这个主要是为了解决选取交叠问题。首先计算每一个选区面积,然后根据他们在softmax中的score(也就是是否为前景的概率)进行排序,将score最大的选区放入队列中。接下来,计算其余选区与当前最大score选区的IOU(IOU为两box交集面积除以两box并集面积,它衡量了两个box之间重叠程度)。去除IOU大于设定阈值的选区。这样就解决了选区重叠问题。
5,选取前post_nms_topN个结果作为最终选区proposal进行输出,比如300个。
经过这一步之后,物体定位应该就基本结束了,剩下的就是物体识别了。
和fast R-CNN中类似,这一层主要解决之前得到的proposal大小形状各不相同,导致没法做全连接。全连接计算只能对确定的shape进行运算,故必须使proposal大小形状变为相同。通过裁剪和缩放的手段,可以解决这个问题,但会带来信息丢失和图片形变问题。我们使用ROI pooling可以有效的解决这个问题。
ROI pooling中,如果目标输出为MxN,则在水平和竖直方向上,将输入proposal划分为MxN份,每一份取最大值,从而得到MxN的输出特征图。
ROI Pooling层后的特征图,通过全连接层与softmax,就可以计算属于哪个具体类别,比如人,狗,飞机,并可以得到cls_prob概率向量。同时再次利用bounding box regression精细调整proposal位置,得到bbox_pred,用于回归更加精确的目标检测框。
这样就完成了faster R-CNN的整个过程了。算法还是相当复杂的,对于每个细节需要反复理解。faster R-CNN使用resNet101模型作为卷积层,在voc2012数据集上可以达到83.8%的准确率,超过yolo ssd和yoloV2。其最大的问题是速度偏慢,每秒只能处理5帧,达不到实时性要求。
针对于two-stage目标检测算法普遍存在的运算速度慢的缺点, yolo创造性的提出了one-stage。也就是将物体分类和物体定位在一个步骤中完成。 yolo直接在输出层回归bounding box的位置和bounding box所属类别,从而实现one-stage。通过这种方式, yolo可实现45帧每秒的运算速度,完全能满足实时性要求 (达到24帧每秒,人眼就认为是连续的)。它的网络结构如下图:
主要分为三个部分:卷积层,目标检测层,NMS筛选层。
采用Google inceptionV1网络,对应到上图中的第一个阶段,共20层。这一层主要是进行特征提取,从而提高模型泛化能力。但作者对inceptionV1进行了改造,他没有使用inception mole结构,而是用一个1x1的卷积,并联一个3x3的卷积来替代。(可以认为只使用了inception mole中的一个分支,应该是为了简化网络结构)
先经过4个卷积层和2个全连接层,最后生成7x7x30的输出。先经过4个卷积层的目的是为了提高模型泛化能力。yolo将一副448x448的原图分割成了7x7个网格,每个网格要预测两个bounding box的坐标(x,y,w,h)和box内包含物体的置信度confidence,以及物体属于20类别中每一类的概率(yolo的训练数据为voc2012,它是一个20分类的数据集)。所以一个网格对应的参数为(4x2+2+20) = 30。如下图
其中前一项表示有无人工标记的物体落入了网格内,如果有则为1,否则为0。第二项代表bounding box和真实标记的box之间的重合度。它等于两个box面积交集,除以面积并集。值越大则box越接近真实位置。
分类信息: yolo的目标训练集为voc2012,它是一个20分类的目标检测数据集 。常用目标检测数据集如下表:
| Name | # Images (trainval) | # Classes | Last updated |
| --------------- | ------------------- | --------- | ------------ |
| ImageNet | 450k | 200 | 2015 |
| COCO | 120K | 90 | 2014 |
| Pascal VOC | 12k | 20 | 2012 |
| Oxford-IIIT Pet | 7K | 37 | 2012 |
| KITTI Vision | 7K | 3 | |
每个网格还需要预测它属于20分类中每一个类别的概率。分类信息是针对每个网格的,而不是bounding box。故只需要20个,而不是40个。而confidence则是针对bounding box的,它只表示box内是否有物体,而不需要预测物体是20分类中的哪一个,故只需要2个参数。虽然分类信息和confidence都是概率,但表达含义完全不同。
筛选层是为了在多个结果中(多个bounding box)筛选出最合适的几个,这个方法和faster R-CNN 中基本相同。都是先过滤掉score低于阈值的box,对剩下的box进行NMS非极大值抑制,去除掉重叠度比较高的box(NMS具体算法可以回顾上面faster R-CNN小节)。这样就得到了最终的最合适的几个box和他们的类别。
yolo的损失函数包含三部分,位置误差,confidence误差,分类误差。具体公式如下:
误差均采用了均方差算法,其实我认为,位置误差应该采用均方差算法,而分类误差应该采用交叉熵。由于物体位置只有4个参数,而类别有20个参数,他们的累加和不同。如果赋予相同的权重,显然不合理。故yolo中位置误差权重为5,类别误差权重为1。由于我们不是特别关心不包含物体的bounding box,故赋予不包含物体的box的置信度confidence误差的权重为0.5,包含物体的权重则为1。
Faster R-CNN准确率mAP较高,漏检率recall较低,但速度较慢。而yolo则相反,速度快,但准确率和漏检率不尽人意。SSD综合了他们的优缺点,对输入300x300的图像,在voc2007数据集上test,能够达到58 帧每秒( Titan X 的 GPU ),72.1%的mAP。
SSD网络结构如下图:
和yolo一样,也分为三部分:卷积层,目标检测层和NMS筛选层
SSD论文采用了VGG16的基础网络,其实这也是几乎所有目标检测神经网络的惯用方法。先用一个CNN网络来提取特征,然后再进行后续的目标定位和目标分类识别。
这一层由5个卷积层和一个平均池化层组成。去掉了最后的全连接层。SSD认为目标检测中的物体,只与周围信息相关,它的感受野不是全局的,故没必要也不应该做全连接。SSD的特点如下。
每一个卷积层,都会输出不同大小感受野的feature map。在这些不同尺度的feature map上,进行目标位置和类别的训练和预测,从而达到 多尺度检测 的目的,可以克服yolo对于宽高比不常见的物体,识别准确率较低的问题。而yolo中,只在最后一个卷积层上做目标位置和类别的训练和预测。这是SSD相对于yolo能提高准确率的一个关键所在。
如上所示,在每个卷积层上都会进行目标检测和分类,最后由NMS进行筛选,输出最终的结果。多尺度feature map上做目标检测,就相当于多了很多宽高比例的bounding box,可以大大提高泛化能力。
和faster R-CNN相似,SSD也提出了anchor的概念。卷积输出的feature map,每个点对应为原图的一个区域的中心点。以这个点为中心,构造出6个宽高比例不同,大小不同的anchor(SSD中称为default box)。每个anchor对应4个位置参数(x,y,w,h)和21个类别概率(voc训练集为20分类问题,在加上anchor是否为背景,共21分类)。如下图所示:
另外,在训练阶段,SSD将正负样本比例定位1:3。训练集给定了输入图像以及每个物体的真实区域(ground true box),将default box和真实box最接近的选为正样本。然后在剩下的default box中选择任意一个与真实box IOU大于0.5的,作为正样本。而其他的则作为负样本。由于绝大部分的box为负样本,会导致正负失衡,故根据每个box类别概率排序,使正负比例保持在1:3。SSD认为这个策略提高了4%的准确率
另外,SSD采用了数据增强。生成与目标物体真实box间IOU为0.1 0.3 0.5 0.7 0.9的patch,随机选取这些patch参与训练,并对他们进行随机水平翻转等操作。SSD认为这个策略提高了8.8%的准确率。
和yolo的筛选层基本一致,同样先过滤掉类别概率低于阈值的default box,再采用NMS非极大值抑制,筛掉重叠度较高的。只不过SSD综合了各个不同feature map上的目标检测输出的default box。
SSD基本已经可以满足我们手机端上实时物体检测需求了,TensorFlow在Android上的目标检测官方模型ssd_mobilenet_v1_android_export.pb,就是通过SSD算法实现的。它的基础卷积网络采用的是mobileNet,适合在终端上部署和运行。
针对yolo准确率不高,容易漏检,对长宽比不常见物体效果差等问题,结合SSD的特点,提出了yoloV2。它主要还是采用了yolo的网络结构,在其基础上做了一些优化和改进,如下
网络采用DarkNet-19:19层,里面包含了大量3x3卷积,同时借鉴inceptionV1,加入1x1卷积核全局平均池化层。结构如下
yolo和yoloV2只能识别20类物体,为了优化这个问题,提出了yolo9000,可以识别9000类物体。它在yoloV2基础上,进行了imageNet和coco的联合训练。这种方式充分利用imageNet可以识别1000类物体和coco可以进行目标位置检测的优点。当使用imageNet训练时,只更新物体分类相关的参数。而使用coco时,则更新全部所有参数。
YOLOv3可以说出来直接吊打一切图像检测算法。比同期的DSSD(反卷积SSD), FPN(feature pyramid networks)准确率更高或相仿,速度是其1/3.。
YOLOv3的改动主要有如下几点:
不过如果要求更精准的预测边框,采用COCO AP做评估标准的话,YOLO3在精确率上的表现就弱了一些。如下图所示。
当前目标检测模型算法也是层出不穷。在two-stage领域, 2017年Facebook提出了mask R-CNN 。CMU也提出了A-Fast-RCNN 算法,将对抗学习引入到目标检测领域。Face++也提出了Light-Head R-CNN,主要探讨了 R-CNN 如何在物体检测中平衡精确度和速度。
one-stage领域也是百花齐放,2017年首尔大学提出 R-SSD 算法,主要解决小尺寸物体检测效果差的问题。清华大学提出了 RON 算法,结合 two stage 名的方法和 one stage 方法的优势,更加关注多尺度对象定位和负空间样本挖掘问题。
目标检测领域的深度学习算法,需要进行目标定位和物体识别,算法相对来说还是很复杂的。当前各种新算法也是层不出穷,但模型之间有很强的延续性,大部分模型算法都是借鉴了前人的思想,站在巨人的肩膀上。我们需要知道经典模型的特点,这些tricks是为了解决什么问题,以及为什么解决了这些问题。这样才能举一反三,万变不离其宗。综合下来,目标检测领域主要的难点如下:
一文读懂目标检测AI算法:R-CNN,faster R-CNN,yolo,SSD,yoloV2
从YOLOv1到v3的进化之路
SSD-Tensorflow超详细解析【一】:加载模型对图片进行测试 https://blog.csdn.net/k87974/article/details/80606407
YOLO https://pjreddie.com/darknet/yolo/ https://github.com/pjreddie/darknet
C#项目参考:https://github.com/AlturosDestinations/Alturos.Yolo
项目实践贴个图。
㈣ 华为拍图识物在哪里
华为手机里都有智能识物功能,通过它可以快速识别不认识的字、物品以及人物,那么这个功能在哪里呢?具体如何使用呢?下面小编教给大家使用方法...
工具/原料
华为手机
方法/步骤
1/5分步阅读
我们首先在华为手机的桌面上找到“相机”图标,然后点击打开相机拍摄界面,如下图...
2/5
进入到拍摄界面以后,华为手机都是可以左右滑动的,我们往左滑动进入到“模式”;
买手机,上“天猫手机馆”大牌低价抢!
广告
3/5
一般来说模式页面里即可看到“智能识物”功能选项了,如果没有的话点击其中的“下载”;
11.11拼多多狂欢钜惠华为手机的型号无套路,直接底价!
广告
4/5
在下载页面中会有这个下载项,安装以后再次进入手机模式就能看到如图二所示的智能识物了;
查看剩余1张图
5/5
接着我们找到自己身边或者网络上不认识的人或物,小编以下面的图片为例,对着图片拍摄然后点击页面下面的放大镜图标,这样会跳转到网页,并且会告诉我们相似的人物名字,如图所示...
查看剩余2张图
注意事项
以上小编以华为荣耀手机为例,其他的华为手机也类似;
手机 智能识物 华为智能识物
编辑于2018-10-16,内容仅供参考并受版权保护
赞踩分享阅读全文
华为手机如何拍照识别物品?一来看看具体的操作方法。
工具/原料
more
手机型号:荣耀v20 系统版本:magic 2.1.0
方法/步骤
1/6分步阅读
打开手机,仔细观察界面,点击相机图标。
2/6
界面切换,点击左上角圆圈图标。
3/6
左右拖拽至识物。
4/6
镜头对准物品进行拍摄。
5/6
相机会自动识别出物体,点击下方的网络。
6/6
左右拖拽,找到对应的物体。
方法总结:
1/1
1、仔细观察界面,点击相机图标。
2、点击左上角圆圈图标。
3、左右拖拽,至识物。
4、镜头对准物品进行拍摄。
5、相机会自动识别出物体,点击下方的网络。
6、左右拖拽,找到对应的物体。
注意事项
如果遇到问题,可以在下面提出疑问。
华为 手机
编辑于2019-11-30,内容仅供参考并受版权保护
赞踩分享阅读全文
㈤ Opencv 图像识别Android实战(识别扑克牌 4.图像识别扫盲)
我想来看这篇文章的人大多对机器学习都有一定的了解,我觉得没有必要非常学术话的解读这个意义。人的学习目的不就是为了认识更多的事物么,机器学习也是一样,就是让计算机通过学习类比来认识更多的事物。
在这里我们是让计算机认识图像,要让计算机认识事物,首先得教他,他学会了自然就认识了,所以我们准备了很多样本来告诉计算机什么是方块,什么是梅花等等,当样本足够多的时候,计算机通过类比自然就能区别它所看到的事物了。
机器学习算法有很多种,比如KNN,K-means,决策树,SVM,贝叶斯等,我们通过提取样本和目标的特征数据,再应用这些分类算法达到事物分类的目的,这样就简单的完成了一个机器学习的过程。当然机器学习不光用来分类,还有用来完成更多,更复杂的事情,目前图像识别领域的机器学习,千变万化的应用其实还是用来分类。所以图像分类还是图像识别的最基本,最重要的工作之一。
在任何情况对任何事物分类都需要有分类目标,比如一株植物是什么科,那么分类目标是这个植物,样本自然就是我们已经定义好的各种植物以及植物类别。一个人是谁,我们可以用ta的面部特征来分类,人脸就是一个需要分类的目标。同样图像分类我么首先要找到分类的目标,比如我们需要知道某张图里面是否有苹果,通常情况下我们需要把可能存在苹果的地方扣下来和苹果图片作为对比,通过对比当匹配度达到一定程度时我们就认为被扣下来图片区域就是苹果,这样的处理过程通常来讲叫做图像分割,是图像识别中不可或缺的过程,图像分割的效果直接影响图像识别的最终效果。为了解决这个过程,人们提出了很多算法来解决这个问题,在我看来图像分割任然是一个需要不断改进技术。碰巧在这个开源项目中用到的图像分割很简单,不需要知道太多其中的原理,也可以很好的完成这个任务。
当前图像识别领域有两类主要的图像识别手段;单步法和基于候选区识别。单步法比如yolo算法,他直接把未知图片传入到神经网络,不用查找候选区就可以识别目标物体。基于候选区方法则多一个过程,第一首先找到可能存在某个物体的候选区,第二步把这些候选区和已知的样本比对,如果匹配达到一定的程度就认为识别到某个物体。
基于候选区的算法优缺点如下:
更少的样本,更高效的运行速度,更容易理解的算法,更廉价的设备,但是有些情况无法用单步法解决或者效果非常差,本开源项目就是用的基于候选区方式来解决问题。
单步法优缺点:
更多的样本,单步法更多的使用神经网络,对设备性能要求高,能解决更加复杂的问题。
㈥ 恩施职业技术学院的专业介绍
<1>计算机与信息工程系(高职)
一、计算机应用技术
1、培养目标:
面向IT行业,培养具有与本专业相适应的文化水平和良好职业道德,掌握计算机应用技术及相关专业方向的基本知识、基本技能,能够从事计算机软硬件的安装与配置、基本图形图像设计与制作、计算机硬件销售、常用计算机应用软件的应用与维修及技术服务等工作的技术应用性人才。
2、主要课程:
a.软件技术方向
【培养目标】
通过学习SQLServer数据库、JAVA面向对象的编程、JAVA WEB 三层架构技术、JAVA WEB 应用开发技术、JAVA开发框架和大型项目分析等专业课程及技能。培养能进行现代软件开发和企业信息化建设的、具有职业生涯发展基础与前途的高技能人才。
【就业方向】
程序员、数据库管理员、高级办公文员、企业信息化建设与管理员、计算机软硬件系统维护员、多媒体制作员。
【职业资格证书】
软件开发程序员、网页开发程序员、软件硬件维护员、营销员等。
b.金融电信管理软件开发方向
【培养目标】
通过学习JAVAOOP、JSP、SQLSERVER、Oracle、MYSQL、PHP、Struts2.0、Spring2、Hibernate等核心技术,以及掌握ERPCRMOA等企业级项目开发技巧。培养具备熟练的金融、电信、银行等行业软件开发技能和工程管理能力,同时具备相关企业信息化管理知识的高素质技能型软件研发人才。
【就业方向与就业岗位】
可以胜任大型金融、电信、银行等公司的软件开发工程师、实施工程师、企业ERP、CRM、BRP等项目开发与管理工作。
【职业资格证】
国家NCIE高级软件工程师认证、SCCE国际软件工程师认证。
【专业特色与优势】
引进国际领先的美斯坦福SCCE课程,实行校企共同培养模式,采用“厚基础、宽平台、多方面”培养体系和“院系高级教授、企业项目经理”双师资授课架构,基于工作过程的工学结合模块式项目课程体系,项目化综合实训,以职业岗位为目标,以职业能力为本位,突出理实一体工学教学环节,培养企业所需的“高技能、好职素、丰富项目经验”的高端计算机应用或软件开发人才,双重职业认证,三重就业保障,全国五大一线城市知名企业高薪就业。
c.高级软件工程师方向
【培养目标】
通过学习JAVA、JSP、Oracle、PSFlash、HTML、XHTML、JAVASCRIPT、AJAX、Struts2.0、EJB3、Spring2、Flex、JBPM、Hibernate等软件开发的高端技能。培养成为软件研发企业、软件外包企业、大型信息化企业急需的掌精通软件研发技术及软件项目管理的高级人才。
【就业方向与就业岗位】
可以胜任大型IT公司的高级软件开发工程师、高级网站开发工程师、高级JAVA开发工程师、高级实施工程师、高级系统培训工程师、外包工程师、企业高级项目管理等工作。
【职业资格证】
国家NCIE高级软件工程师认证、SCCE国际软件工程师认证。
【专业特色与优势】
引进国际领先的美斯坦福SCCE课程,实行校企共同培养模式,采用“厚基础、宽平台、多方面”培养体系和“院系高级教授、企业项目经理”双师资授课架构,基于工作过程的工学结合模块式项目课程体系,项目化综合实训,以职业岗位为目标,以职业能力为本位,突出理实一体工学教学环节,培养企业所需的“高技能、好职素、丰富项目经验”的高端计算机应用或软件开发人才,双重职业认证,三重就业保障,全国五大一线城市知名企业高薪就业。
d.企业电子商务系统研发方向
【培养目标】
通过C、SQL Server、PSFlash、HTML、XHTML、JAVASCRIPT、AJAX、 C#3.0、Linq、Asp.NET MVC、WCF、Enterprise Library、 Silverlight、PMP项目管理、.NET平台下的电子商务系统开发等技术。培养掌握现代企业电子商务运营管理、市场策划,特别是掌握电子商务网站、商务交易支付平台开发核心技术与维护的高素质技能型企业信息化管理人才。
【就业方向与就业岗位】
可以胜任企业电子商务系统的设计、推广、开发、实施、维护工作。从事大型B2BB2C电子商务开发工程师、网上支付平台开发工程师、ASP.NET开发工程师等职位。
【职业资格证】
国家NCIE高级软件工程师认证、SCCE国际软件工程师认证。
【专业特色与优势】
引进国际领先的美斯坦福SCCE课程,实行校企共同培养模式,采用“厚基础、宽平台、多方面”培养体系和“院系高级教授、企业项目经理”双师资授课架构,基于工作过程的工学结合模块式项目课程体系,项目化综合实训,以职业岗位为目标,以职业能力为本位,突出理实一体工学教学环节,培养企业所需的“高技能、好职素、丰富项目经验”的高端计算机应用或软件开发人才,双重职业认证,三重就业保障,全国五大一线城市知名企业高薪就业。
3、就业方向:
本专业毕业生可在地方政府、企事业单位、计算机软硬件公司等行业从事与其专业方向相应的系统管理、初级软件编码、多媒体制作、网页制作、网站建设与维护、计算机系统应用维护与技术支持,以及计算机软硬件销售工作,还可从事办公自动化、业务软件的使用与维护等工作。
二、计算机网络技术
1、培养目标:
面向计算机网络管理和应用岗位,培养具有与本专业相适应的文化水平和良好的职业素质,掌握本专业的基本知识、基本技能、基本工具以及较强的实际工作能力,熟悉常用网络体系结构,具备常用网络系统的操作和维护技能,了解中小企业网络管理需求,能够从事中小型网络建设、管理和维护工作的专业人员。
2、主要课程:
a.网络工程方向
【培养目标】
通过学习局域网组建、网络服务器的搭建、JAVA程序设计、 网页设计与制作、 Web应用开发、网站建设等专业课程及技能,培养从事网络设备安装、调试、运行、维护以及网络建设、管理、维护等工作的高素质高技能人才。
【就业方向】
网络规划设计、电信和联通等大型网络公司的网络工程施工与维护、政府和企业网络管理、企业网站建设与维护、网络编程程序员、计算机网络产品的销售及相关岗位,与企业合作办学,负责推荐就业,可与学生签定就业合同,学生本专业就业率高,毕业后一般可拿三千以上的月工资。
【职业资格证书】
网络工程师、网络规划设计师、网络监理师、程序员、网络管理员。
【专业特色与优势】
本专业实验实训设施完善,有总投资约440万元的国家计算机应用与软件技术实训基地,还有十个校外实训基地;师资力量雄厚,有副教授四人,讲师5人,专任教师“双师”素质教师的比例达90%以上。
b.3G/4G移动商务开发方向
【培养目标】
通过学习3G/4G前端软件开发、WAP 移动站点开发、3G/4G移动商务软件开发、iPhone3G移动平台开发:MAC XCode、Objective C、iPhone SDK。培养熟练掌握3G/4G移动通信技术、物联网、微软WinCE手机操作系统平台、3G/4G信息技术、3G/4G运营能力和管理能力的高级通信实用型和管理型人才。
【就业方向与就业岗位】
可以胜任3G前端软件开发工程师、WAP软件工程师、Sun J2ME 3G平台开发工程师、Apple iPhone 3G平台开发工程师、移动商务管理工程师、移动商务师、3G/4G网络运营管理、移动通讯客户端管理等相关工作。
【职业资格证】
国家NCIE高级信息化工程师认证、SCME移动通讯工程师认证。
【专业特色与优势】
引进国际领先的美斯坦福SCME课程,实行校企共同培养模式,采用“厚基础、宽平台、多方面”培养体系和“院系高级教授、企业项目经理”双师资授课架构,基于工作过程的工学结合模块式项目课程体系,项目化综合实训,是领先行业前沿技术的重点专业、理实一体、工学交替的重点专业,每年建设更新投入过百万的重点专业。以高端技术为核心,以企业需求为导向,以职业能力为本位,以职业素养为突破,以项目经验为保障,突出理实一体工学教学环节,培养掌握前沿的基于网络高端开发和3G/4G移动通讯(iPhone Android)开发人才,双重职业认证,三重就业保障,全国五大一线城市知名企业高薪就业。
c.3G/4G物联网设计方向
【培养目标】
通过学习3G/4G前端软件开发、WAP 移动站点开发、3G/4G增值业务开发、J2ME移动平台开发、Android 3G/4G移动平台开发:Android SDK、Android API、Android 体系、Android 组件等技术。培养掌握物联网物体识别系统开发、全球定位系统、红外感应器、激光扫描器、气体感应器、采用Android系统平台以及中国移动OPhone平台程序相关研发等技术型、设计型人才。
【就业方向与就业岗位】
可以胜任智能楼宇、智能交通、智能水利、智能物流、智能城管等系统设计和开发工作,从事物联网物体识别技术、红外感应,特别是采用Android系统平台以及中国移动OPhone平台程序相关3G研发等工作。
【职业资格证】
国家NCIE高级信息化工程师认证、SCME移动通讯工程师认证。
【专业特色与优势】
引进国际领先的美斯坦福SCME课程,实行校企共同培养模式,采用“厚基础、宽平台、多方面”培养体系和“院系高级教授、企业项目经理”双师资授课架构,基于工作过程的工学结合模块式项目课程体系,项目化综合实训,是领先行业前沿技术的重点专业、理实一体、工学交替的重点专业,每年建设更新投入过百万的重点专业。以高端技术为核心,以企业需求为导向,以职业能力为本位,以职业素养为突破,以项目经验为保障,突出理实一体工学教学环节,培养掌握前沿的基于网络高端开发和3G/4G移动通讯(iPhone Android)开发人才,双重职业认证,三重就业保障,全国五大一线城市知名企业高薪就业。
d.3G/4G智能游戏设计方向
【培养目标】
通过学习WAP 移动站点开发、3G/4G增值业务开发、Android游戏及应用,iPhone游戏及应用,J2ME游戏及应用(主要包括包括:坦克大战/雷电游戏/俄罗斯方块/对对碰/联网斗地主/远程视频监控 /商务警务通/无线点餐系统等)。培养能够从事游戏软件开发和运营管理,能够胜任游戏软件开发技术的研制和开发的应用型专业人才。
【就业方向与就业岗位】
主要是从事3G/4G游戏开发工作,如单机版手机游戏开发工程师、网络版手机游戏开发工程师、游戏策划架构师、游戏动画设计师等工作。
【职业资格证】
国家NCIE高级信息化工程师认证、SCME移动通讯工程师认证。
【专业特色与优势】
引进国际领先的美斯坦福SCME课程,实行校企共同培养模式,采用“厚基础、宽平台、多方面”培养体系和“院系高级教授、企业项目经理”双师资授课架构,基于工作过程的工学结合模块式项目课程体系,项目化综合实训,是领先行业前沿技术的重点专业、理实一体、工学交替的重点专业,每年建设更新投入过百万的重点专业。以高端技术为核心,以企业需求为导向,以职业能力为本位,以职业素养为突破,以项目经验为保障,突出理实一体工学教学环节,培养掌握前沿的基于网络高端开发和3G/4G移动通讯(iPhone Android)开发人才,双重职业认证,三重就业保障,全国五大一线城市知名企业高薪就业。
三、计算机应用技术(多媒体方向)
1、培养目标
面向平面、动画、视音频的制作和编辑岗位,熟悉相关平面、动画、视音频的常用工具,了解制作过程,掌握制作方法,能够从事平面设计、多媒体制作、动画和游戏制作工作的专业人员。
2、主要课程:
信息采集与处理、美术设计、多媒体技术应用、图像处理、网页设计与网站建设、3Dmax教程、Auto CAD教程、计算机平面设计、视音频编辑处理、二维动画设计与制作、三维动画设计与制作等。
3、就业方向:
本专业毕业生可在广告公司、彩印中心、出版社、杂志社、报社、网站、学校电教中心、多媒体课件制作公司、电视台、动画制作公司、游戏制作公司等的平面设计、出版、多媒体制作、网页设计、动画制作、视音频处理岗位从事相应工作
四、广告设计与制作
1、培养目标
采用全新校企合作实训模式,定向培养影视动画 、地产建筑展示、3D广告特效等领域高端实用型人才,全程商业项目实训教学,1:1配置高端图形工作站实训机房,第二学年即可应征参加动漫游戏专业专属的企业级创意工作室,以真实商业项目制作驱动技能提升;
2、主要课程:
Photoshop软件操作、Maya高级模型、Maya材质与贴图、Maya高级影视动画、Maya高级特效、AfterEffects影视后期合成、Premiere视频编辑、ZBrush高级雕刻,BodyPaint三维纹理绘制,群体建筑渲染表现技术。
3、就业方向:
专业的影视特效制作公司、影视广告 制作公司、影视动画片制作公司、影视后期合成公司、电视栏目制作公司的3D角色模型师(3DCharacterArtist);3D场景艺术师(3DEnvironmentArtist);3D道具艺术师(3DPropsArtist)等。电影特效动画师(为特效电影提供写实动画);角色动画师(电影/电视/动画片/广告);室内表现师;建筑模型师;建筑渲染师;建筑动画师等。
五、建筑工程系
1、培养目标:
建筑工程施工一线技术与管理等工作的高等技术应用型人才。
2、就业方向:
工程项目组织、现场施工管理、质量验收、施工安全、材料检测、技术资料及工程造价等方面的技术工作与管理工作。
3、职业资格证书:施工员、质检员、安全员、材料员、造价员、资料员、工程监理员、施工测量员。
4、专业特色与优势:国家级建筑技术实训基地,专业教师90%是建造工程师、监理工程师、造价工程师,长期从事工程项目技术管理工作,有深厚理论知识和丰富的实践能力;学生实现“顶岗实习就业一体化”,本专业初次就业率在96%以上,专业对口率98%。
<2>旅游系
<3>电气与机械工程系>
<4>经济管理系
<5>生物工程系
<6>外语系
<7>人文科学系
<8>体育系
<9>政法教研室
<10>中等职业专科部
㈦ unity+vuforia打包Android,AR扫描界面是黑白的,而在某些角度又会变成彩色,或是闪烁不定,是什么原因
我也碰到了一样的问题,unity2018.4.9f1
内置的vuforia 目标平台android9.0
整个画面是黑白,某些角度能看到两个带颜色的重影,一个偏绿一个偏水红。若使用unity2017.4.11f1是直接黑屏,而且不显示vuforia水印。但是却可以识别物体,也就是说摄像头在使用。发布苹果却没有问题。十分诡异。找不到解决方法