❶ 震惊世界的Magic Leap与微软的Hololens有哪些异同
先说一下我关于Magic Leap的信息来源:
1、2014年11月10日,Magic Leap在2014年9月融了5个亿以后,来Stanford招人,开了一个Info Session,标题是“The World is Your New Desktop”(世界就是你的新桌面)多么霸气!当时是Magic Leap感知研究的高级副总裁(VP of Perception)Gary Bradski和计算视觉的技术负责人(Lead of Computer Vision)Jean-Yves Bouguet来作演讲。Gary是计算机视觉领域的领军人物,在柳树车库(Willow Garage)创造了OpenCV(计算视觉工具库),同时也是Stanford顾问教授。Jean-Yves原来在Google负责谷歌街景车(Street View Car)的制造,是计算视觉技术的大牛。他们加入Magic Leap是非常令人震惊的。我参加了这次Info Session,当时Gary来介绍Magic Leap在感知部分的技术和简单介绍传说中的数字光场Cinematic Reality的原理,并且在允许录影的部分都有拍照记录。本文大部分的干货来自这次演讲。
2、我今年年初上了Stanford计算摄影和数字光场显示的大牛教授Gordon Wetzstein的一门课:EE367 Computational Imaging and Display(计算影像和显示器):其中第四周的Computational illumination,Wearable displays和Displays Blocks(light field displays)这三节都讲到Magic Leap的原理。现在大家也可以去这个课程网站上看到这些资料,EE367 / CS448I: Computational Imaging and Display
顺便介绍一下Gordon所在的Stanford计算图形组,Marc Levoy(后来跑去造Google Glass的大牛教授)一直致力于光场的研究,从Marc Levoy提出光场相机,到他的学生Ren Ng开创Lytro公司制造光场相机,到现在Gordon教授制造光场显示器(裸眼光场3D显示器),这个组在光场方面的研究一直是世界的领头羊。而Magic Leap可能正在成为光场显示器的最大应用。(相关内容可参考:Computational Imaging Research Overview)
3、今年参加了光场影像技术的研讨会Workshop on Light Field Imaging ,现场有很多光场技术方面的展示,我和很多光场显示技术的大牛交流了对Magic Leap的看法。特别的是,现场体验了接近Magic Leap的光场技术Demo,来自Nvidia的Douglas Lanman的Near-Eye Light Field Displays 。(相关内容可参考:Near-Eye Light Field Displays)
4、今年年中去了微软研究院Redmond访问,研究院的首席研究员Richard Szeliski(计算机视觉大神,计算机视觉课本的作者,Computer Vision: Algorithms and Applications)让我们试用了Hololens。感受了Hololens牛逼无比的定位感知技术。有保密协议,本文不提供细节,但提供与Magic Leap原理性的比较。
下面是干货:
首先呢,科普一下Magic Leap和Hololens这类AR眼镜设备,都是为了让你看到现实中不存在的物体和现实世界融合在一起的图像并与其交互。从技术上讲,可以简单的看成两个部分:
对现实世界的感知(Perception);
一个头戴式显示器以呈现虚拟的影像 (Display) 。
我会分感知部分和显示部分来分别阐释Magic Leap的相关技术。
一、显示部分
先简单回答这个问题:
Q1. Hololens和Magic Leap有什么区别?Magic Leap的本质原理是什么?
在感知部分,其实Hololens和Magic Leap从技术方向上没有太大的差异,都是空间感知定位技术。本文之后会着重介绍。Magic Leap与Hololens最大的不同应该来自显示部分,Magic Leap是用光纤向视网膜直接投射整个数字光场(Digital Lightfield)产生所谓的Cinematic Reality(电影级的现实)。Hololens采用一个半透玻璃,从侧面DLP投影显示,虚拟物体是总是实的,与市场上Espon的眼镜显示器或Google Glass方案类似,是个2维显示器,视角还不大,40度左右,沉浸感会打折扣。
本质的物理原理是:光线在自由空间中的传播,是可以由4维光场唯一表示的。成像平面的每个像素中包含到这个像素所有方向的光的信息,对于成像平面来讲,方向是二维的,所以光场是4维的。平时成像过程只是对四维光场进行了一个二维积分(每个像素上所有方向的光的信息都叠加到一个像素点上),传统显示器显示这个2维的图像,是有另2维方向信息损失的。而Magic Leap是向你的视网膜直接投射整个4维光场, 所以人们通过Magic Leap看到的物体和看真实的物体从数学上是没有什么区别的,是没有信息损失的。理论上,使用Magic Leap的设备,你是无法区分虚拟物体和现实的物体的。
使用Magic Leap的设备,最明显的区别于其他技术的效果是人眼可以直接选择聚焦(主动选择性聚焦)。比如我要看近的物体,近的物体就实,远的就虚。注意:这不需要任何的人眼跟踪技术,因为投射的光场还原了所有信息,所以使用者直接可以做到人眼看哪实哪,和真实物体一样。举个例子:在虚拟太阳系视频的27秒左右(如下面这个gif图),摄影机失焦了,然后又对上了,这个过程只发生在摄影机里,和Magic Leap的设备无关。换句话说,虚拟物体就在那,怎么看是观察者自己的事。这就是Magic Leap牛逼的地方,所以Magic Leap管自己的效果叫Cinematic Reality。
Q2. 主动选择性聚焦有什么好处?传统的虚拟显示技术中,为什么你会头晕?Magic Leap是怎么解决这个问题的?
众所周知,人类的眼睛感知深度主要是靠两只眼睛和被观察物体做三角定位(双目定位,triangulation cue)来感知被观察物体的与观察者的距离的。但三角定位并不是唯一的人类感知深度的线索,人脑还集成了另一个重要的深度感知线索:人眼对焦引起的物体锐度(虚实)变化(sharpness or focus cue) 。但传统的双目虚拟显示技术(如Oculus Rift或Hololens)中的物体是没有虚实的。举个例子,如下图,当你看到远处的城堡的时候,近处的虚拟的猫就应该虚了,但传统显示技术中,猫还是实的,所以你的大脑就会引起错乱,以为猫是很远的很大的一个物体。但是这和你的双目定位的结果又不一致,经过几百万年进化的大脑程序一会儿以为猫在近处,一会儿以为猫在远处,来来回回你大脑就要烧了,于是你要吐了。而Magic Leap投影了整个光场,所以你可以主动选择性聚焦,这个虚拟的猫就放在了近处,你看它的时候就是实的,你看城堡的时候,它就是虚的,和真实情况一样,所以你不会晕。演讲中Gary调侃对于Jean-Yves这种带10分钟Oculus就吐的家伙来说,现在他一天带16个小时Magic Leap都不会晕。
补充:有人问为什么网上说虚拟现实头晕是因为帧率不够原因?
帧率和延时虽然是目前的主要问题,但都不是太大的问题,也不是导致晕得决定性因素。这些问题用更快的显卡,好的IMU和好的屏幕,还有头部动作预测算法都能很好解决。我们要关心一些本质的晕眩问题。
这里要说到虚拟现实和增强现实的不同。
虚拟现实中,使用者是看不到现实世界的,头晕往往是因为人类感知重力和加速度的内耳半规管感受到的运动和视觉看到的运动不匹配导致的。所以虚拟现实的游戏,往往会有晕车想吐的感觉。这个问题的解决不是靠单一设备可以搞定的,如果使用者的确坐在原定不动,如果图像在高速移动,什么装置能骗过你的内耳半规管呢?一些市场上的方案,比如Omni VR,或者HTC Vive这样的带Tracking的VR系统让你实际行走才解决这个不匹配的问题,但这类系统是受场地限制的。不过THE VOID的应用就很好的利用了VR的局限,不一定要跑跳,可以用很小的空间做很大的场景,让你以为你在一个大场景里就好了。现在大部分虚拟现实的体验或全景电影都会以比较慢得速度移动视角,否则你就吐了。
但是Magic Leap是AR增强现实,因为本来就看的到现实世界,所以不存在这个内耳半规管感知不匹配的问题。对于AR来讲,主要挑战是在解决眼前投影的物体和现实物体的锐度变化的问题。所以Magic Leap给出的解决方案是很好地解决这个问题的。但都是理论上的,至于实际工程能力怎么样就靠时间来证明了。
Q3. 为什么要有头戴式显示器?为什么不能裸眼全息?Magic Leap是怎么实现的?
人类希望能凭空看到一个虚拟物体,已经想了几百年了。各种科幻电影里也出现了很多在空气中的全息影像。
但其实想想本质就知道,这事从物理上很难实现:纯空气中没有可以反射或折射光的介质。显示东西最重要的是介质。很多微信上的疯传,以为Magic Leap不需要眼镜,我估计是翻译错误导致的,视频中写了Shot directly through Magic Leap tech.,很多文章错误的翻译成“直接看到”或“裸眼全息",其实视频是相机透过Magic Leap的技术拍的。
目前全息基本还停留在全息胶片的时代(如下图,我在光场研讨会上看到的这个全息胶片的小佛像),或者初音未来演唱会那种用投影阵列向特殊玻璃(只显示某一特定角度的图像,而忽略其他角度的光线)做的伪全息。
Magic Leap想实现的是把整个世界变成你的桌面这样的愿景。所以与其在世界各个地方造初音未来那样的3D全息透明屏做介质或弄个全息胶片,还不如直接从人眼入手,直接在眼前投入整个光场更容易。其实Nvidia也在做这种光场眼镜。
Nvidia采用的方法是在一个二维显示器前加上一个微镜头阵列Microlens array来生成4维光场。相当于把2维的像素映射成4维,自然分辨率不会高,所以这类光场显示器或相机(Lytro)的分辨率都不会高。本人亲测,效果基本就是在看马赛克画风的图案。
而Magic Leap采用完全不同的一个方法实现光场显示,它采用光纤投影。不过,Magic Leap用的光纤投影的方式也不是什么新东西。在Magic Leap做光纤投影显示(Fiber optic projector)的人是Brian Schowengerdt,他的导师是来自华盛顿大学的教授Eric Seibel,致力于做超高分辨率光纤内窥镜8年了。简单原理就是光纤束在一个1mm直径管道内高速旋转,改变旋转的方向,然后就可以扫描一个较大的范围。Magic Leap的创始人比较聪明的地方,是找到这些做高分辨率光纤扫描仪的,由于光的可逆性,倒过来就能做一个高分辨率投影仪。如图,他们6年前的论文,1mm宽9mm长的光纤就能投射几寸大的高清蝴蝶图像。现在的技术估计早就超过那个时候了。
而这样的光纤高分辨率投影仪还不能还原光场,需要在光纤的另一端放上一个微镜头阵列microlens array,来生成4维光场。你会疑问这不就和Nvidia的方法一样了么?不,因为光纤束是扫描性的旋转,这个microlens array不用做得很密很大,只要显示扫描到的区域就好了。相当与把大量数据在时间轴上分布开了,和通讯中的分时一样,因为人眼很难分辨100帧上的变化,只要扫描帧率够高,人眼就分辨不出显示器是否旋转显示的。所以Magic Leap的设备可以很小,分辨率可以很高。
他本人也来Stanford给过一个Talk,Near-to-Eye Volumetric 3D Displays using Scanned Light。这个Talk讲的应该就是Magic Leap早期的原型。(相关内容可参考: Fiber Scanned Displays)
二、感知部分
Q4. 首先为什么增强现实要有感知部分?
是因为设备需要知道自己在现实世界的位置(定位),和现实世界的三维结构(地图构建),才能够在显示器中的正确位置摆放上虚拟物体。举个最近的Magic Leap Demo视频的例子,比如桌子上有一个虚拟的太阳系,设备佩戴者的头移动得时候,太阳系还呆在原地,这就需要设备实时的知道观看者视角的精确位置和方向,才能反算出应该在什么位置显示图像。同时,可以看到桌面上还有太阳的反光,这就要做到设备知道桌子的三维结构和表面信息,才能正确的投射一个叠加影像在桌子的影像层上。难点是如何做到整个感知部分的实时计算,才能让设备穿戴者感觉不到延时。如果定位有延时,佩戴者会产生晕眩,并且虚拟物体在屏幕上漂移会显得非常的虚假,所谓Magic Leap宣称的电影级的真实(Cinematic Reality)就没有意义了。
三维感知部分并不是什么新东西,计算机视觉或机器人学中的SLAM(Simultaneous Localization And Mapping,即时定位与地图构建)就是做这个的,已经有30年的历史了。设备通过各种传感器(激光雷达,光学摄像头,深度摄像头,惯性传感器)的融合将得出设备自己在三位空间中的精确位置,同时又能将周围的三位空间实时重建。
最近SLAM技术尤其火爆,去年到今年两年时间内巨头们和风投收购和布局了超级多做空间定位技术的公司。因为目前最牛逼的3大科技技术趋势:无人车,虚拟现实,无人机,他们都离不开空间定位。SLAM是完成这些伟大项目基础中的基础。我也研究SLAM技术,所以接触的比较多,为了方便大家了解这个领域,这里简单提几个SLAM界最近的大事件和人物:
1、(无人车)Stanford的机器人教授Sebastian Thrun是现代SLAM技术的开创者,自从赢了DARPA Grand Challenge的无人车大赛后,去了Google造无人车了。SLAM学术圈的大部分研究派系都是Sebastian徒子徒孙。
2、(无人车)Uber在今年拿下了卡耐基梅隆CMU的NREC(国家机器人工程研发中心),合作成立高等技术研发中心ATC。这些原来做火星车的定位技术的研究人员都去Uber ATC做无人车了。
3、(虚拟现实)最近Surreal Vision被Oculus Rift收购,其中创始人Richard Newcombe是大名鼎鼎的DTAM,KinectFusion(HoloLens的核心技术)的发明人。Oculus Rift还在去年收购了13th Labs(在手机上做SLAM的公司)。
4、(虚拟现实)Google Project Tango 今年发布世界上第一台到手就用的商业化SLAM功能的平板。Apple五月收购Metaio AR,Metaio AR 的 SLAM 很早就用在了AR的app上了。Intel 发布Real Sense,一个可以做SLAM的深度摄像头,在CES上Demo了无人机自动壁障功能和自动巡线功能。
5、(无人机)由原来做Google X Project Wing 无人机的创始人MIT机器人大牛Nicholas Roy 的学生Adam Bry创办的Skydio,得到A16z的两千万估值的投资,挖来了Georgia Tech的SLAM大牛教授Frank Dellaert 做他们的首席科学家。(相关内容:http://www.cc.gatech.e/~dellaert/FrankDellaert/Frank_Dellaert/Frank_Dellaert.html)
SLAM作为一种基础技术,其实全世界做SLAM或传感器融合做得好的大牛可能不会多于100人,并且大都互相认识。这么多大公司抢这么点人,竞争激烈程度可想而知,所以Magic Leap作为一个创业公司一定要融个大资,才能和大公司抢人才资源。
Q5. Magic Leap的感知部分的技术是怎么样的?
这张照片是Gary教授在Magic Leap Stanford 招聘会中展示了Magic Leap在感知部分的技术架构和技术路线。可以看到以Calibration为中心,展开成了4支不同的计算机视觉技术栈。
1、从图上看,整个Magic Leap感知部分的核心步骤是Calibration(图像或传感器校准),因为像Magic Leap或Hololens这类主动定位的设备,在设备上有各种用于定位的摄像头和传感器, 摄像头的参数和摄像头之间关系参数的校准是开始一切工作的第一步。这步如果摄像头和传感器参数都不准,后面的定位都是无稽之谈。从事过计算机视觉技术的都知道,传统的校验部分相当花时间,需要用摄像头拍摄Chess Board,一遍一遍的收集校验用的数据。但Magic Leap的Gary,他们发明了一种新的Calibration方法,直接用一个形状奇特的结构体做校正器,摄像头看一遍就完成了校正,极为迅速。这个部分现场不让拍照。
2、有了Calibration部分后,开始最重要的三维感知与定位部分(左下角的技术栈),分为4步。
2.1 首先是Planar Surface Tracking(平面表面跟踪)。大家可以在虚拟太阳系的Demo中看到虚拟太阳在桌子上有反光,且这个反光会随着设备佩戴者的移动而改变位置,就像是太阳真的悬在空中发出光源,在桌子表面反射产生的。这就要求设备实时地知道桌子的表面在哪里,并且算出虚拟太阳与平面的关系,才能将太阳的反光的位置算出来,叠在设备佩戴者眼镜相应的位子上,并且深度信息也是正确的。难点在平面检测的实时性和给出平面位置的平滑性(否则反光会有跳变)从Demo中可以看出Magic Leap在这步上完成得很好。
2.2 然后是Sparse SLAM(稀疏SLAM);Gary在Info Session上展示了他们实时的三维重构与定位算法。为了算法的实时性,他们先实现了高速的稀疏或半稀疏的三维定位算法。从效果上看,和目前开源的LSD算法差不了太多。
2.3 接着是Sensors; Vision and IMU(视觉和惯性传感器融合)。
导弹一般是用纯惯性传感器做主动定位,但同样的方法不能用于民用级的低精度惯性传感器,二次积分后一定会漂移。而光靠视觉做主动定位,视觉部分的处理速度不高,且容易被遮档,定位鲁棒性不高。将视觉和惯性传感器融合是最近几年非常流行的做法。
举例:
Google Tango在这方面就是做IMU和深度摄像头的融合,做的很好;大疆的无人机Phantom 3或Inspire 1将光流单目相机和无人机内的惯性传感器融合,在无GPS的情况下,就能达到非常惊人的稳定悬停;Hololens可以说在SLAM方面是做得相当好,专门定制了一个芯片做SLAM,算法据说一脉相承了KinectFusion的核心,亲自测试感觉定位效果很赞(我可以面对白色无特征的墙壁站和跳,但回到场中心后定位还是很准确的,一点都不飘。)
2.4 最后是3D Mapping and Dense SLAM(3D地图重建)。下图展示了Magic Leap山景城办公室的3D地图重建:仅仅是带着设备走了一圈,就还原了整个办公室的3D地图,并且有很精致的贴图。书架上的书都能重建的不变形。
因为AR的交互是全新的领域,为了让人能够顺利地和虚拟世界交互,基于机器视觉的识别和跟踪算法成了重中之重。全新人机交互体验部分需要大量的技术储备做支持。
接下来的三个分支,Gary没有细讲,但是可以看出他们的布局。我就随便加点注解,帮助大家理解。
3.1 Crowdsourcing众包。用于收集数据,用于之后的机器学习工作,要构建一个合理的反馈学习机制,动态的增量式的收集数据。
3.2 Machine Learning & Deep Learning机器学习与深度学习。需要搭建机器学习算法架构,用于之后的识别算法的生产。
3.3 Scenic Object Recognition场景物体识别。识别场景中的物体,分辨物体的种类,和特征,用于做出更好的交互。比如你看到一个小狗的时候,会识别出来,然后系统可以把狗狗p成个狗型怪兽,你就可以直接打怪了。
3.4 Behavior Recognition行为识别 。识别场景中的人或物的行为,比如跑还是跳,走还是坐,可能用于更加动态的游戏交互。顺便提一下,国内有家Stanford校友办的叫格林深瞳的公司也在做这个方面的研究。
跟踪方面
4.1 Gesture Recognition手势识别。用于交互,其实每个AR/VR公司都在做这方面的技术储备。
4.2 Object Tracking物体追踪。这个技术非常重要,比如Magic Leap的手捧大象的Demo,至少你要知道你的手的三维位置信息,实时Tracking,才能把大象放到正确的位子。
4.3 3D Scanning三维扫描。能够将现实物体,虚拟化。比如你拿起一个艺术品,通过三维扫描,远处的用户就能够在虚拟世界分享把玩同样的物体。
4.4 Human Tracking人体追踪。比如:可以将现实中的每个人物,头上可以加个血条,能力点之类。
5.1 Eye Tracking眼动跟踪。Gary解释说,虽然Magic Leap的呈像不需要眼动跟踪,但因为要计算4维光场,Magic Leap的渲染计算量巨大。如果做了眼动跟踪后,就可以减少3D引擎的物体渲染和场景渲染的压力,是一个优化的绝佳策略。
5.2 Emotion Recognition情感识别。如果Magic Leap要做一个Her电影中描绘的人工智能操作系统,识别主人得情感,可以做出贴心的情感陪护效果。
5.3 Biometrics生物识别。比如要识别现实场景中的人,在每个人头上显示个名字啥的。人脸识别是其中一种,国内有家清华姚班师兄弟们开得公司Face++就是干这个干的最好的。
总结:简单来讲感知这个部分Magic Leap其实和很多其他的公司大同小异,虽然有了Gary的加盟,野心非常的宽广,但这部分竞争非常激烈。
Q6: 就算Magic Leap已经搞定了感知和显示,那么接下来的困难是什么?
1、计算设备与计算量
Magic Leap要计算4维光场,计算量惊人。不知道Magic Leap现在是怎么解决的。如果Nvidia不给造牛逼的移动显卡怎么办?难道自己造专用电路?背着4块泰坦X上路可不是闹着玩的。
下图是,今年我参加SIGGraph 2015里,其中一个VR演示,每个人背着个大电脑包玩VR。10年后的人类看今天的人类追求VR会不会觉得很好笑,哈哈。
2、电池!电池!电池!所有电子设备的痛
3、一个操作系统
说实话,如果说“世界就是你的新桌面”是他们的愿景,现在的确没有什么操作系统可以支持Magic Leap愿景下的交互。他们必须自己发明轮子。
4、为虚拟物体交互体验增加物理感受
为了能有触感,现在交互手套,交互手柄都是 VR 界大热的话题。从目前的专利上看,并没有看出Magic Leap会有更高的见地。说不定某个Kickstarter最后能够独领风骚,Magic Leap再把他收了。
❷ 论内容理解算法
经过几年的膨胀期,算法的热度快速下降,不论是AI四小龙的上市之路艰辛,还是各大头部互联网公司的副总裁重返学术界,以及算法人员的招聘冻结。这里有总体经济形势恶化带来的影响,也与算法本身的能力上限有关,在各类学习任务上,算法的性能正在逐渐进入瓶颈,通用任务效果提升的梯度在逐渐变小,有效的进展都依赖于超大规模的数据和模型参数,以通用语义表征任务为例,完成一次超大规模的预训练模型的成本达到数百万元,极大地限制了中小企业参与的机会。
在业务应用方面,经过几年的持续建设和多种类型功能的输出,业务依赖的不同方向所对应的内容理解算法在应用和效果层面已趋成熟,能够带来惊喜效果的机会变的很少。这种形势下,作为偏后台支持的角色,如何去识别并持续深化内容理解算法的作用变得很重要。本文试图从价值视角分析内容理解的生存形势,发掘未来发展的可能性以及从业人员的应对手段方面做了些不算严谨的阐述。
一直以来我们定义内容理解算法为业务的万金油,随时随地可以插拔式应用。从配合内容生产者做创作提示,帮助运营做质量分析,版权保护,相似查找,帮助搜索算法提供长尾查询的效率增强,帮助推荐算法提供标签等细粒度语义特征,根据消费者的负向反馈进行同类型的内容屏蔽(如软色情,恶心,不喜欢的明星)。因此很自然地,我们把内容理解算法的使命定义为“内容流转的全链路提质提效”,这里的质量包含对确定性劣质的去除,以及优质内容的免审或者高曝推荐。效率指的是把内容从生产到消费的链路上的时间优化到最快,包括配合运营进行快速的内容筛选,辅助分发算法进行人群和内容的精准匹配。
这里需要回答的是,在上述相对完备的能力基础上,内容理解算法所能提供的最核心的价值是什么?
首先是客户的定义问题,内容理解算法的客户不是运营,不是分发算法,也不是生产者和消费者。而是要回归到最原始的“内容”,用于对内容进行附加值的极大化提升。
其次,参与到内容流转各环节的角色承担了对内容理解算法的价值落地和放大,不论是运营所主导的平台意志实现,分发算法对内容和消费者的高效匹配,以及生产者和消费者分别从内容供给和消费方面对内容理解算法的诉求。
最后,内容本身是一种载体,载体背后是人对现实世界的刻画,平台层面有对内容进行按需取用的逻辑,消费者也有用脚投票的权利,这里的内容理解算法不应当做任何的自我倾向,按照业务诉求的多样化能力输出是内容理解存在的核心价值,否则通过简单搬运学术界的开源模型便可形成表面上的业务能力堆砌,显然是无法满足业务的增长诉求。
因此,我们可以形成价值定义: “内容理解算法的核心价值是内容全生命周期内,根据服务业务的多样化诉求,提供智能化和结构化的理解能力,其衡量标准为上述能力带来的附加效率提升和成本下降。”
从这个定义来看,内容理解算法似乎没有站在主战线上,价值被隐性地统计起来。实则不然,就如战争一样,冲锋在前的部队只有少数,而承担防守和辅助任务的兵种实际上是不可或缺的,很多时候也决定了战争的走向, 历史 上由于后勤保障问题导致战争走向改变的例子比比皆是。就如定义中的效率提升,它其实不是一票式的,由于效率的提升会带来供给者和消费者的规模增大,又会产出对内容理解算法效率提升的更多诉求,这种正反馈式的链路也是内容业务可以快速实现既定目标的重要方式。
一、估值 游戏
以2021年11月小红书的估值来看,彼时6千万DAU和47分钟人均时长的内容社区获得200亿美金的估值认可,这属于一个早期内容社区经历过较长时间的成长后才能达到的高度。考虑一个相对创新内容业务,两到三年的时间想要达到5000万DAU和5分钟的人均时长其实还是比较困难的,按照对标小红书的逻辑,估值上限为30亿美金,假设内容理解算法对业务贡献率用3%折算,估算下来内容理解估值为9千万美金,按照简单的市销率10倍计算,内容理解每年的营收为900万美金(按照估值反推营收的原因是是内容理解算法对业务的点状式能力输出难以做到精准的量化统计)。
900万美金是非常尴尬的数字,因为内容理解算法存在比较高昂的成本,从大头上来看,内容理解算法支出分为三部分,第一部分是算法人员,以15人的支撑团队计算(看起来有点多,实则不然,想要支撑对未来预期的增长,15个人实际并不够用),按照单人每年的支付成本150万计算(这个成本折算到员工回报大约为100万左右,已经没多大市场竞争力),大约400万美金/年;第二部分是资源消耗,按照百万内容/天的规模计算,各种资源成本(包括机器,存储、辅助软件等)大约500万美金/年;第三部分是配套工程人员,产品经理,外包标注支持等,这部分大约150万美金/年。可以看到业务发展到这个阶段,内容理解算法是入不敷出的。
按照上述口径,能够改善内容理解价值的核心方法包括三个方向,一是业务估值的上升,需要业务DAU和时长的稳定提升。二是内容理解算法的业务贡献率提升,这里对内容理解算法的要求是比较高的,不仅仅要从内容的质量,生产者的辅助,分发流量效率,业务的大盘生态,或者业务商业化上有所作为。三是降低成本,这个路径的可行性很弱,反倒是随着业务的成长,成本的消耗会进一步增加,能够做的是控制成本增长的速度小于业务增长。
“按照业务贡献对处于业务发展前期的内容理解算法进行价值衡量,情况是非常不乐观的”。
二、价值重塑
前面的视角是业务闭环下的价值衡量,放开到更大的视角,内容理解算法之所以构成相对独立的功能单元是因为它提供的能力是相对通用的,比如标签识别算法不仅仅可用于小红书,也可用于抖音和快手这样的内容业务。
因此在支撑具体的业务的过程中沉淀出通用算法进行其他类似业务的价值输出,是内容理解算法的另一扇门。这里面临的另一个问题是如果是头部业务,一定是要求内容理解算法是为它量身定制的,而中小业务愿意为内容理解算法买单的价钱是有限的。针对这个问题的核心解法是在做头部业务能力定制的时候,提供尽可能通用的能力,通过对数量众多的中小业务形成价值输出,实现量级的堆砌。
此外,要差异化成熟业务和创新业务,对于成熟业务而言,内容理解算法对业务的微小提升可能是非常明显的,以京东平台为例,如果内容理解算法通过图像搜索或者同款识别等能力提升业务成交0.1%,也将是数亿美金每年的价值加成。对于创新业务而言,内容理解算法应当深入业务,从内容的全生命周期为业务提供硬核的能力,用以帮助业务实现生产者和消费者体感的明显提升,最终带来业务的正反馈式增长,早期的抖音就是依托炫酷的AI特效体系实现用户规模的快速增长。
“目前能看到的,让内容理解算法进行价值放大的有效途径是贴身服务头部业务的过程中,沉淀通用化能力横向输出尽可能多的同类型业务。针对成熟业务寻找对业务增长的确定性增长点,创新业务寻找到适合于业务快速增长的硬核能力”。
作为一名内容理解算法沉浮六年的老兵,我对内容理解算法的未来持谨慎乐观的态度。原因有三个方面,一是这一轮深度学习带来的算法提升空间变得有限;二是互联网用户进入存量时代后,头部内容会更加精耕细作,从追求效率转向运营的精细化和粘性保持;三是对未来可能出现的下一代内容消费方式的期待和观望。
一、相对有限的算法提升空间
过去的几年,内容理解算法的演进可以分为三个方向,一次是从传统的手工特征到神经网络特征的升级,通过大数据和大算力实现效果的明显提升,也极大降低了算法人员的准入门槛;二是对内容的理解从单一模态升级为多模态&跨模态,以及以图神经网络为基础的推理能力;三是极大规模数据的模型学习,即以大规模预训练模型为基础的统一内容表征方式,催生了transformer家族的不断壮大。
然则,算法的性能逐渐接近瓶颈,不论是在看图说话、 情感 分析、还是标签识别等算法任务上距离人类仍然存在一定的距离,并且这份距离看起来短期内没有明确的突破机会。反倒是业界开始从监督学习往无监督学习靠近,试图利用海量数据学到背后的范式,这本质上是对追赶上人类能力的背离。
以transformer为例,百亿数据下训练一次消耗数百块GPU,数周的训练时间才有可能获得明显的效果的提升,这还不包括精细的网络调整的令人沮丧时间成本。此外下游任务想要得到期待的效果,还需要进一步的迁移学习。从表象来看,只是提供一个更好的算法学习的起点。
我们经历了一个业务对我们翘首以待到逐渐理性的合作过程,AI算法从来就无法成为救世主,而是有更强生产力的工具。当然我们不应当过于悲观,起码过往的几年,蓬勃发展的算法体系带来了从业人员的准入门槛极大下降,大众对AI算法的广泛认知也有助于内容理解算法相对长期的旺盛生命力和成长。
二、存量用户时代的内容社区的运营方式
中国互联网用于见顶,意味着各大内容业务必须进入存量用户阶段。存量用户阶段面临的困境是粗放式增长不复出现,用户群体开始细分,用户粘性变得更加艰辛,要求内容社区必须进行精细化运营。精细化运营背后的表现为对效率的要求下降,转而对用户心智和长期的战术保持耐心。这种情况下内容理解算法会成为散落到业务众多需求列表的功能支撑点,独当一面的机会愈发减少。
“从算法学习的角度来看,人的创意,玩法设计,互动属性是目标(ground truth)的天花板,因此此时此刻保持工具属性是相对合理的态度”。
三、下一代的内容消费方式
互联网时代的内容消费经历了文本到图像的升级,再到视频的升级,每一次内容消费升级背后产出对内容理解算法的爆发式增长,那么下一代的内容消费方式又是什么呢?
业界目前正在押注元宇宙,facebook甚至把名字都改成了meta。过去有几波VR/AR的热潮,看起来除了在某些线上成人网站和线下 游戏 设备之外,并未有足够颠覆我们日常生活方式的输出。
人类对更高级的感知外部环境和与他人无时空差别的交互需求是明确存在的,只是它是否由“元宇宙”承载却是个未知数。如果元宇宙是这个载体的话,那么虚拟世界的感情识别,触感生成,自然交互,生态的 健康 治理,超大规模内容消费下的负载下降会是内容理解算法可以尝试去攻克和深耕的全新地带,也会承担更为核心的角色。
“下一代的内容理解消费方式有机会成为内容理解的下一个主战场,但是目前的形势并不明朗,需要我们保持耐心地思考和观望”。
四、其他的可能
抛开头部综合性AI大厂商如网络,腾讯,阿里巴巴,华为等企业作为内容理解多样性需求输出的第一极之外,还有以内容理解算法作为平台能力输出的第二极,比较有名的是AI四小龙(商汤、旷视、依图,云从),以及深度结合各民生领域的产业AI能力输出。
医疗AI,解决医疗资源匮乏导致看病需求无法被满足,人工看诊时间长等问题。比较典型的case是COVID-Moonshot众包协议,由500多名国际科学家共同参与,以加速COVID-19的抗病毒药物研发。
教育AI,解决优质教育资源匮乏导致的分配不公,及教师和学生的信息不对称问题,虽然国家正在推新教育双减政策,但是教育作为一项基本的人身权利应当得到更好的满足,比较知名的企业有松鼠AI,猿辅导等。
制造AI,解决制造车间设备、数量、功能增多、调度分配难度大、需求端个性化要求等问题,利用AI,自动化,IOT,边缘计算,云,5G等手段,充分利用生产车间的海量价值数据,把人从简单重复的劳动中解放出来以从事更高级的任务,帮助提高产量的同时降低缺陷率,比较知名的企业有正在香港上市的创新奇智和创新型工业AI-PASS平台提供商远舢智能等。
此外,还有在智能驾驶、智慧城市、芯片AI等产业领域深度耕耘的各种公司,他们正在充分发挥大数据和AI算法的能力,为各大产业带来源源不断的创新能力。
回到内容理解算法的现存生存环境,仍然存在一定的潜力可以挖掘。在下一代内容消费方式到来之前,可以做得更好,形成与上下游的积极联动,在现在的舞台上展现出更佳的风采。
一、产品
内容理解算法的产品是不是刚需,这个话题有点争议,有人说算法的产出速度是比较慢的,让昂贵的产品角色参与建设本身会存在浪费的情况。我个人认为内容理解算法所对应的产品角色必须具备,因为在庞大的业务体系后面,如果缺失了面向业务需求的自顶向下的内容理解算法体系设计和建设,非常容易出现业务赋能的水土不服。
产品需要考虑的核心问题是如何衡量长期和短期投入,算法是比较精细的工作,对结果的预期是非确定性的,因此需要做好对业务预期的管理以及同业务需求的及时交互。为了保障算法最终在业务的使用效果,前期可以通过简化版本或者半成品算法的产品化方案进行快速试错,帮助业务决策的同时给算法的长期迭代争取空间。此外,针对算法长期迭代设计有效的样本数据回流机制,通过配置化输出给到业务尽可能多的试错方式,以及业务上线使用后的效果实时监控等都是产品需要思考的工作。
二、运营
运营应该是内容理解算法打交道最频繁的相关方,内容理解算法的评价标准和业务适配都需要运营来进行构建和监控。内容理解算法是运营进行内容供给生态和消费生态运营的智能助手,从内容结构化标签角度提供到运营各种分析使用方式,如内容审核、内容圈选,内容人群定投等。
和运营打交道对内容理解算法提出高要求,如何快速衡量需求的合理性及可行性非常关键。有时候内容理解算法做了过度承诺,导致上线效果不佳,影响业务的发展。有时候对算法实现效果的不自信或产品化用法借力不够从而拒绝需求导致业务失去宝贵的试错机会。因此内容理解算法应当对内容运营的链路有相当的掌握,可以和运营一起定义全链路算法能力,从应用的视角推进算法需求的合理有序的开展。
三、生产者
生产者对于平台来说至关重要,巧妇难为无米之炊,不论运营和分发算法多么牛逼,缺少了高质量的内容生产来源,业务是不可能有持续增长的。通常情况下两千优质生产者加上数万的普通生产者即可支撑起千万DAU的业务,如何服务好这部分生产者对平台来说非常关键。
内容理解算法和生产者目前的主要交互方式包括几个方面,一是在内容生产的时候给到生产者的内容元素的智能推荐,如话题,标题,配乐的推荐等;二是进行内容展现效果的提升,如滤镜,贴纸,美颜,画质增强等;三是从质量层面给予生产者指导和管控,包括从业务视角给到生产者发布的内容大致因为何种理由不被平台采纳,内容高热趋势消费榜单,内容的版权保护等。
从生产者视角来看,尽可能多地从平台获取流量或者商业化价值是根本追求,因此往往会出现对平台规则的不断试探以攫取利益,如发布大量的擦边球或危言耸听的内容。内容理解算法需要在内容供给规模不断变大的情况下帮助平台保持 健康 的生态和有效的流量分配同时尽可能给到生产者更多指导。这种相爱相杀的关系也给内容理解算法带来了不少的挑战和生存空间。
四、分发算法和消费者
把分发算法和消费者放在一起的核心逻辑是内容理解算法绝大部分情况下是需要通过分发算法和消费者打交道的。从消费者视角观察,高活用户代表主流心智,如何服务好这波群体关系到业务的生存问题。中低活用户是平台的增量所在,持续加强这部分用户的平台粘性是关键任务(这里会有部分用户的出逃,为了维护平台的心智,这部分的牺牲是可接受的)。分发算法承担了把海量内容做负载下降后根据用户的长短期兴趣进行推荐的使命,分发算法是需要秉承平台意志的,用于进行内容的流量调配用于影响消费者的体感和心智,给平台带来源源不断的生机。
早期编辑为主的内容分发模式下,消费者是被教育的对象,一天之内能够看到的新鲜内容是非常少的,这种情况导致消费者的浏览深度和时长是受限的。个性化推荐模式下,用户的兴趣被极致放大,由于相关内容和新鲜内容的快速推送,消费者会感受到强烈的沉浸式消费体感。然而内容的多样性,消费体感的持续维护,兴趣的拓展等变得非常重要,这给分发算法的精准性提出很高要求。提供分发算法细粒度的识别能力是内容理解算法可以大展身手的机会,内容是否具备不错的分发潜力以加大分发流量?内容的适合人群是什么?用户无序浏览背后的核心兴趣是什么?软色情/部分人群不喜好内容(蛇虫宠物)如何精准识别用以分发调控等问题都是分发算法难以触达的地方,这些命题正是内容理解算法可以深入研究并影响内容分发和消费的重要方面。
除了特定的场景(如互动玩法,个性化封面图等),内容理解算法应当恪守自己在内容生命周期的参与广度。涉及到内容的分发和消费,内容理解算法应当把自己定义为分发算法不可或缺的助力,而不是试图去做替换,站在内容理解算法视角,分发算法可以约等于消费者。以饭馆运作为例,分发算法是大厨,根据消费者的口味和食材和菜谱提供个性化的食物服务。内容理解算法可以对食材进行质量管控,研发新的菜谱,在必要的时候提供半成品的菜品。和消费者的交互交由分发算法来处理,毕竟术业有专攻,内容理解算法可以在对内容的深度理解和消费者洞察上做纵向的深入,提供更多的可能性,包括生态、多样性、内容保量等。
内容理解算法和分发算法的理想态是正和 游戏 ,零和 游戏 对双方都是没有意义的,因此这里额外对内容理解算法提出的要求是在内容消费场景建立一套相对客观的评价体系,通过算法的标准化评估进行上线流程的加速,通过不断的快速试错给分发算法提供更多枪支弹药。
五、工程&数据分析
一个好汉三个帮,内容理解算法背后也站着一群小伙伴,面向算法生产的大规模工程基础设施和面向算法洞察的数据分析能力可以帮助内容理解算法更好的发展。在内容爆炸式增长的今天,高效的算法工程体系非常关键,甚至是拉开不同公司差距的最重要手段之一。有个非常明显的例子,在业界举办的各种算法大赛上,只要是大型互联网公司参赛基本上都会出现霸榜的情况,这背后是模型训练效率的强大先发优势,拥有百块级别GPU并发训练能力的高校是非常少的。此外以通用向量检索功能为例,百亿级的向量索引能力在有限的算力和内存消耗下稳定运行起来是需要大量的工程优化手段的,而这个功能对算法的高效使用至关重要。
服务于内容理解算法,数据分析有非常多的应用。根据消费统计行为构建面向内容兴趣的用户画像,风向趋势内容消费对供给的指导,层次耦合的内容标签的合理挂靠关系,算法上线前的有效性分析,及算法上线后持续监控和异常告警等。
内容理解算法需要做的是面向业务场进行完整的架构设计,从算法的效率角度,包括算法服务效率,算法洞察视角等方面联动工程&数据分析提供强大的生产力,通过规模和系统厚度构建足够的技术门槛。
2021年对中国互联网,甚至是中国 社会 的前行都是不同寻找的一年,在全球经济下行,国家间人为壁垒构建的情况下,恰恰又遭遇了国内人口增长的停滞,国家对互联网平台的强管控,以及互联网用户渗透的见顶。
内容理解算法背后的AI算法体系多少也收到了波折,不过从整体形势来看,AI算法体系和产业化仍然在往前走。基础理论研发体系中对应的论文发表、会议举办及大赛的举行和参赛人员的规模都在增长。这两年的遇冷问题主要是受到市场大环境的影响,AI占总体投资的比重仍然在上升。从国内方面来看,全球经济的技术封锁进一步坚定了中国立足自主创新的决心和信心,国家十四五计划也明确提出了大数据,人工智能,VR/AR的产业发展规划,AI产业仍然有很强的潜力值得挖掘。
作为依附于业务的内容理解算法,需要有清晰的自我认知和定位。我们的核心价值是什么?它如何得到有效的定义和量化?作为服务于业务众多角色中的一员,如何做好同其他角色的正向互动?上述问题背后的答案代表了内容理解算法的核心作用。现在的算法界有一股投机风,什么热门就搞什么,有号称无需数据标注的无监督学习,有号称可以效果对标大量标注样本的小样本学习,有号称单个算法模型打遍天下的多模态预训练学习等等。如果从问题抽象简化的角度去研究基础的理论体系和算法学习范式是没有问题的,但是如果业务的算同学也把这类概念摆在嘴上是有问题的,脱离了业务场景的核心诉求去谈技术创造新商业,是一种对客户的傲慢,属于典型的机械主义。
作为深度结合业务的内容理解算法,应当从业务场景出发,结合算法的可行性去 探索 用于业务赋能的核心技术,对于明确可以产生正向业务价值的算法技术,哪怕需要较长一段时期的打磨,也要敢于投注建设,在算法研发的过程中不断地思索业务的更多可能性,逐渐把业务的不确定性转化为技术的相对确定性。对于较长时间无法形成对业务贡献的算法,应当果断放弃深入研究,当然作为技术观望跟进是没有问题的。
从目前形势来看,内容理解算法的发展确实碰到了一些困难,但我们可以保持对未来的谨慎乐观,期待下一代内容消费形态的来临,同时尽可能多地进行业务场景的细化进行能力输出和加强,把存量业务价值做好放大,通过算法自身的持续建设,为将来可能来临的那一刻做好技术储备。
❸ 青岛黄海学院现在的教师待遇怎么样啊教师工作需要坐班吗
青岛黄海学院现在的教师待遇还是不错的,需要坐班。
青岛黄海学院(Qing Huanghai University)是经教育部批准、具有学士学位授予资格的民办普通本科高校。
师资力量
据2018年10月学校官网显示,学校教师总数860余人,大都具有硕士及以上学历,高级职称教师占34%以上。12名教师荣获青岛市高校教学名师、山东省优秀教师等荣誉称号。
以上内容参考 网络-青岛黄海学院
❹ 浠峣R铏氭嫙璇曡。鍒扮ぞ浜ら瓟鏂癸纴銆岃嫳棰嗕箣阃斻嶅笇链涙瀯寤哄畬鏁碅R搴旂敤鐢熸
C绔疉R镄勬牳蹇冩槸搴旂敤鐢熸
2016骞翠互𨱒ワ纴鎴戝浗鐩哥户鍑哄彴浜т笟鏀跨瓥鏀鎸乂R/AR琛屼笟鍙戝𪾢銆2018骞12链堬纴宸ヤ俊閮ㄥ彂甯冦婂叧浜庡姞蹇鎺ㄨ繘铏氭嫙鐜板疄浜т笟鍙戝𪾢镄勬寚瀵兼剰瑙併嬶纴浠庢牳蹇冩妧链銆佷骇鍝佷緵缁欍佽屼笟搴旂敤銆佸钩鍙板缓璁俱佹爣鍑嗘瀯寤虹瓑鏂归溃鎻愬嚭浜嗗彂灞曡櫄𨰾熺幇瀹炰骇涓氱殑閲岖偣浠诲姟銆傝屸滃崄锲涗簲瑙勫垝涔熸寚鍑猴纴瑕佸皢VR/AR浜т笟鍒椾负链𨱒ヤ簲骞存暟瀛楃粡娴庨吨镣逛骇涓氢箣涓銆
鎹璧涜开鏁版嵁鏄剧ず锛2020骞存垜锲絍R/AR琛屼笟甯傚満瑙勬ā杈惧埌413.5浜垮厓锛屽悓姣斿为暱46%锛涢殢镌鎶链镞ヨ秼鎴愮啛锛孷R/AR鍦ㄥ悇棰嗗烟镄勫簲鐢ㄩ愭ュ𪾢寮锛岄勮2023骞存垜锲絍R/AR琛屼笟甯傚満瑙勬ā灏呜秴杩囧崈浜裤
鑻遍嗕箣阃旀垚绔嬩簬2016骞达纴浠ヨ蒋纭浠剁粨钖堢殑鏂瑰纺锛岀爷鍙慉R浜у搧鍙婂簲鐢ㄥ満鏅锛屽苟杩涗竴姝ユ瀯寤篈R浜т笟鐢熸佸湀銆傛彁渚涢溃钖态绔镄𪞝R姹借溅銆丄R宸ヤ笟杩灭▼缁翠缭銆丄R鏁板瓧鍖栧満棣嗘敼阃犵瓑锛屽熀浜庡炲己鐜板疄镄勪紒涓氩畾鍒舵湇锷★纴骞朵笖鍦ㄥ姞阃熸帹杩涢溃钖愠绔镄𪞝R浜у搧镰斿彂銆
鑻遍嗕箣阃斿笇链涙瀯寤哄畬鏁寸殑AR搴旂敤鐢熸
鑻遍嗕箣阃斿皢阃氲繃涓绯诲垪涓篊绔鐢ㄦ埛寮鍙戠殑浜у搧锛屽寘𨰾锛欰R铏氭嫙璇曡呫丄R绌挎惌闂归挓銆丄R绀句氦榄旀柟銆佽。镵旂绣銆丄R娓告垙链恒丄R镓嬭〃銆丄R鏅鸿兘绠″讹纴绛夊崄浣欐捐蒋纭浠舵惌閰岖殑浜у搧锛屽舰鎴愬熀浜峣R镄勭ぞ浜ら棴鐜锛屽苟镙规嵁涓嶅悓闇姹傦纴鎼閰嶈蒋浠跺瑰簲镄勪笉钖屽簲鐢ㄥ満鏅锛屼负缁堢鐢ㄦ埛鎻愪緵涓镐у寲镄勪娇鐢ㄤ綋楠屻
钬沧垚绔嬩箣鍒濓纴鑻遍嗕箣阃旂爷鍙戜简涓濂桝R鐪奸暅锛屽皢鍏跺簲鐢ㄤ簬B绔瀹㈡埛锛屽苟寮鍙戜简閰嶅楃殑宸ヤ笟杩灭▼缁翠缭绛夌郴缁熸柟妗堛傝嫳棰嗕箣阃斿垱濮嬩汉鍏糃EO榛勯槼涔嫔悜36姘浠嬬粛锛气滀笌姝ゅ悓镞讹纴鍏鍙稿畬锽勪简杞纭浠跺洟阒燂纴骞跺皢镰斿彂閲岖偣杞绉诲埌C绔锛屽紑鍙戜简AR铏氭嫙璇曡。绯荤粺锛宊_鍙闇_閮ㄦ櫤鑳絖链烘垨骞虫澘鐢佃剳锛屽氨鑳藉皢铏氭嫙镄刜链嶅疄镞剁┛鍦ㄧ湡瀹炰笘鐣岀殑___涓娿
AR铏氭嫙璇曡
鍦ㄤ紶缁熺嚎涓婅喘鐗╂祦绋嬩腑锛岀敤鎴峰彧鑳藉弬钥冩ā鐗瑰浘锛屽垽鏂鏂瑰纺鍗曚竴锛屽叆镓嫔悗瀹规槗阃犳垚钬滀拱瀹剁镄勯梾棰桡纴阃璐ф祦绋嬮暱锛屽艰嚧钬沧伓镐у惊鐜銆傝屽竞鍦虹幇链夎櫄𨰾熻瘯琛i暅绫讳骇鍝侊纴鏅阆嶅瓨鍦ㄩ犱环楂樸佷娇鐢ㄥ満鏅鍗曚竴銆佷綋楠屽樊绛夌‖浼ゃ
鑻遍嗕箣阃斿埄鐢⊿LAM绌洪棿瀹氢綅绯荤粺銆佺炵粡缃戠粶璁缁冦3D绾圭悊璇嗗埆绛夊氱嶆妧链绠楁硶灏呜櫄𨰾熺殑琛f湇涓庝汉浣撶浉缁揿悎銆佽櫄瀹炵粨钖堬纴链澶х▼搴﹀啀鐜颁简鐪熷疄镄勮瘯瑁呮晥鏋溿
AR铏氭嫙璇曡呯‖浠舵惌杞戒简涓绯诲垪浠跨湡妯℃嫙鍣
浜у搧缁忓巻浜嗕笁娆¤凯浠o纴澧炲姞浜嗕笁涓浠跨湡妯℃嫙鍣锛氩垎鍒鏄浼哥缉浠跨湡妯℃嫙鍣ㄣ侀溃鏂欎豢鐪熸ā𨰾熷櫒鍜屾俯搴︿豢鐪熸ā𨰾熷櫒锛岄珮搴﹁缮铡熶简绾夸笅璇曡。绱ф涧銆侀忔皵镐с侀溃鏂栾川镒熺瓑鐩磋备綋楠屻
鍒涙柊镄勭‖浠剁粨钖堢殑_寮忥纴浣垮缑_鏂栾川镒熼肩湡銆佹湇瑁呬慨_璐村悎锛宊_鍙浠360掳镆ョ湅涓嶅悓_搴︾殑璇旷┛鏁堟灉銆傚苟涓扰鎸乢鐢盌IY鎼閰嶏纴_阌鍒嗕韩濂界墿鍙婄┛鎼鏁堟灉锲剧粰濂藉弸锛屾渶_鍖栬缮铡熺嚎涓嬭喘_浣挞獙锛岄殢_镓娆叉惌閰嶆湇瑁呴犲瀷锛屽紑𨰾揿湪绾胯瘯_璐璤鏂扮帺娉曘
瀵逛簬鍟嗗惰岃█锛岄噰鐢ㄨ嫳棰嗕箣阃旂殑AR铏氭嫙璇曡。绯荤粺锛屽彲灏嗛璐х巼闄崭绠40%锛岀敤鎴风矘镐ф彁楂70%锛屾渶缁埚埄娑﹀彲鎻愰珮4鍊嶃
榛勯槼涔嬭〃绀猴细寮鍙慉R铏氭嫙璇曡。绯荤粺镄勭洰镄勶纴鍏跺疄鏄涓轰简鍙浠ュ湪C绔甯傚満钖稿紩镟村氱殑濂虫х敤鎴枫傚逛簬鑻遍嗕箣阃斾笅涓姝ュ皢闄嗙画鎺ㄥ嚭镄𪞝R绀句氦銆丄R娓告垙銆丄R榄旀柟绛夊钩鍙帮纴濂虫х敤鎴锋槸闱炲父閲嶈佺殑锛屽彲浠ュ拰鐢锋х敤鎴峰舰鎴愰潪甯稿ソ镄勪簰锷锛屽逛簬浠ュ跺涵涓哄崟浣岖殑娑堣垂锛屽ス浠涔熸槸姣旇缉寮哄姏镄勬秷璐圭℃带钥呫
AR绀句氦榄旀柟
鑻遍嗕箣阃旂殑涓嬩竴浠d骇鍝丄R绀句氦榄旀柟涔熷湪蹇阃熻凯浠d腑锛屾渶鍒濈殑镐濊矾锛屾槸锅氢竴涓镀忎箰楂樼Н链ㄦ傚康锛屽彲浠ュ垎浣撴媶鍗哥殑AR鏄剧ず璁惧囥备綔涓轰竴娆続R纭浠朵骇鍝侊纴涓峣R鐪奸暅链夊緢寮虹殑鍏遍氭э纴链镙稿绩镄勯儴鍒嗛兘鏄鍏夊︽ā缁+宓屽叆寮忕郴缁熴傚叾鐗规ц〃鐜板湪锛1锛夌涓浜虹О瑙呜夛绂2锛夊氱獥鍙f搷浣滐绂3锛夌┖闂村畾浣岖郴缁燂绂4锛変氦浜掓с
AR绀句氦榄旀柟镄勪骇鍝佸舰镐佹槸鍏闱浣挞瓟鏂癸纴姣忎釜闱㈤兘鏄涓涓灞忓箷锛屽苟涓斿彲浠ユ嫾鍦ㄤ竴璧峰彉鎴愪竴涓澶у睆骞曪纴涔熷彲浠ュ垎寮𨱒ユ姌鍙狅纴阃氲繃澶氢釜绐楀彛镎崭綔锛岃缮鎻愪緵涓板瘜镄勪簰锷ㄩ厤浠躲
AR绀句氦榄旀柟
鑻遍嗕箣阃斿逛簬链𨱒ヤ骇鍝佽矾寰勭殑瑙勫垝涓昏佹潵镊浜庡湪搴曞眰鎶链鏂归溃澶氩勾𨱒ョ殑绉绱娌夋稳锛岃嚜涓荤爷鍙戜简鍏夊満鑺鐗囷纴骞惰嚜寤烘棤灏樿姱鐗囧皝瑁呭疄楠屽わ纴瀹炵幇鍏夊満鑺鐗囩殑瑙勬ā鍖栭噺浜э绂钖屾椂鍏峰嘇R/VR澶氭櫙娣辨樉绀恒佹縺鍏夐浄杈炬牳蹇冨櫒浠躲侀氲棰嗗烟镄勬牳蹇冩妧链銆
鍦ㄨ蒋浠剁畻娉曟柟闱锛岃嚜涓荤爷鍙戜简澶氶”璁$畻链鸿呜夊拰IMU铻嶅悎镄勭畻娉曪纴鐢ㄤ簬澶氱崭氦浜掑拰瀹氢綅绯荤粺锛屽疄鐜癷nside-out锛屾棤闇澶栭儴镙囱扮偣镄勭┖闂村畾浣嶆妧链锛汼LAM绌洪棿瀹氢綅绠楁硶锛6Dof镓嬫焺杩借釜绠楁硶锛涙坠锷胯瘑鍒绠楁硶銆
鑻遍嗕箣阃旈氲繃AR铏氭嫙璇曡。绯荤粺寤虹珛镊宸辩殑搴旂敤鐢熸侀棴鐜锛屼竴鏂归溃阃氲繃涓庣数鍟嗗钩鍙板悎浣滐纴浠ュ强闱㈠悜灏厦绔鍒惰。浼佷笟镄勫湴鎺锛屽舰鎴愬晢鍝佸强鍐呭规柟闱㈢殑骞冲彴鍙婄佸烟娴侀噺锛涘彟涓鏂归溃浠ヤ绠浠峰皢Eintoo璇曡。纭浠跺悜C绔澶ч噺阈鸿揣銆傜洰鍓嶅凡瀹屾垚甯傚満楠岃瘉锛岃揪鎴愬崈涓囩骇镄勮㈠崟钖堜綔镒忓悜銆傛湭𨱒ラ殢镌AR绀句氦榄旀柟绛夋柊镄勪骇鍝佺嚎闱涓栵纴濞变箰銆佹父鎴忋佹嶅叆骞垮憡绛夊皢鎴愪负钀ユ敹澧为暱镣广
鑻遍嗕箣阃旀ゅ墠镟捐幏缇庡浗PNP銆佸拰闄嗗囧崥澹镄勫囩哗鍒涘潧镄勫氲疆铻嶈祫锛屽叕鍙告嫢链変笁鍗佷綑椤瑰彂鏄庡拰涓揿埄銆傚垱濮嬩汉榛勯槼涔嬬爷绌剁敓姣曚笟浜庤嫳锲藉笣锲界悊宸ヨ$畻链虹郴锛屾槸锲藉唴杈冩棭链熺殑C绔澧炲己鐜板疄镰旂┒瀛﹁咃纴镟惧叆阃2018绂忓竷鏂涓锲経30姒溿2020鑳℃鼎鍒涗笟棰呜栨溿
鎹鎭夛纴鑻遍嗕箣阃斿湪镞犻败褰揿湴鏀垮簻鍙婅屼笟鍗忎细鏀鎸佷笅锛屽缓绔嬩简鍏冨畤瀹欎骇涓氲胺鍒涗笟锘哄湴锛屽勾搴曞皢浼氢妇琛岄暱涓夎掑厓瀹囧畽鍒涙柊鍒涗笟澶ц禌锛屽府锷╂洿澶歑R棰嗗烟镄勫垱涓氩叕鍙告彁鍗囧奖鍝嶅姏锛屽叡钖屾垚闀裤
❺ 鍒桦効鍏浜虹墿浠嬬粛
鍒桦効鍏
鍒桦効鍏锛岀敺锛屽悓娴庡ぇ瀛︽暀鎺堬纴鍗氩+鐢熷煎笀锛岃嫳锲藉伐绋嬩笌鎶链瀛︿细浼氩+锛圛ETFellow锛夛纴ACM楂樼骇浼氩憳锛圆CMSeniorMember锛夛纴IEEE楂樼骇浼氩憳锛圛EEESeniorMember锛夛纴涓锲借$畻链哄︿细锛圕CF锛夋澃鍑轰细锻桡纴阒垮皵鍗$壒链楄镰旂┒闄ALTA锛屽浗闄呮湡鍒奍EEECommunicationsLetters缂栧旓纴IEEEAccess缂栧旓纴KSIITrans.缂栧旓纴銆娄腑锲介氢俊銆嬶纸鑻辨枃鐗堬级锛圕hinaCommunications锛夌紪濮旓纴IEEE涓婃捣鍖哄潡阈句富甯銆傝幏寰椻滃井杞锲介檯瀹ゅ唴瀹氢綅鎶链澶ц禌钬濆啝鍐涳纴钬滀腑锲藉伐涓氩崥瑙堜细锛埚伐鍗氢细锛夆濋珮镙$壒绛夊栥佷腑锲解滀簰镵旂绣+钬濆ぇ瀛︾敓鍒涙柊鍒涗笟澶ц禌鍏ㄥ浗閲戝栵纴涓绘寔镰斿彂钬滀腑锲藉浗闄呰繘鍙e崥瑙堜细钬濆畾浣嶅艰埅绯荤粺銆
涓鏂囧悕锛氩垬鍎垮厐
锲界睄锛氢腑锲
镵屼笟锛氭暀甯
姣曚笟闄㈡牎锛氩崕涓绉戞妧澶у
涓昏佹垚灏憋细2016骞村井杞锲介檯瀹ゅ唴瀹氢綅鎶链澶ц禌鍐犲啗
2014骞翠腑锲藉浗闄呭伐涓氩崥瑙堜细楂樻牎鐗圭瓑濂
涓昏佹垚灏憋细2014骞磋嫳锲藉伐绋嬩笌鎶链瀛︿细浼氩+锛圛ETFellow锛
2018骞村井杞锲介檯瀹ゅ唴瀹氢綅鎶链澶ц禌瀹氢綅绮惧害绗涓
涓绘寔寤鸿鹃栧众钬滀腑锲藉浗闄呰繘鍙e崥瑙堜细钬濆畾浣嶅艰埅绯荤粺
浠h〃浣滃搧锛欴WELT瀹氢綅瀵艰埅鎶链
镵岀О锛氩悓娴庡ぇ瀛︽暀鎺
鐢熷钩
纭曞+/鍗氩+锛氩崕涓绉戞妧澶у︼纴鍏夌数瀛愬伐绋嬬郴/婵鍏夋妧链锲藉堕吨镣瑰疄楠屽わ纴鐗╃悊鐢靛瓙瀛︿笓涓氾纴鍒嗗埆浜1998鍙2001骞磋幏寰楃曞+鍙婂崥澹瀛︿綅锛岀曞+璁烘枃锛氭縺鍏夎皭鎸鑵旇捐★绂鍗氩+璁烘枃(銮锋牎浼樼鍗氩+璁烘枃)锛歁PLS璺鐢卞櫒璁捐°
2001-2003锛氶樋灏斿崱鐗规湕璁鍏鍙革纴鍏夌绣缁滈儴(OND)锛屼换椤圭洰缁忕悊鍙婇珮绾ф妧链椤鹃梾锛屼粠浜婨oS鍏夌绣缁滈”鐩/浜у搧镄勭爷鍙戙佺$悊浠ュ强镙囧嗳鍖栫瓑宸ヤ綔锛屽寘𨰾珽thernetOverSONET/SDH鍜屽氢笟锷′紶阃佸钩鍙癕STP绛夈
2003-2007锛氶樋灏斿崱鐗规湕璁鍏鍙革纴镰旂┒涓庡垱鏂颁腑蹇(R&I)锛屼换楂樼骇镰旂┒绉戝﹀讹纴浠庝簨鍒嗙粍缃戠殑TDM浼犺緭(TDMoP)锛屾棤婧愬厜缃戠粶(GPON/EPON)浠ュ强802.16WiMAX/802.16j镞犵嚎澶氲烦涓缁ч”鐩镄勭爷绌躲佺$悊浠ュ强镙囧嗳鍖栫瓑宸ヤ綔銆
鍦ㄩ樋灏斿崱鐗规湕璁鍏鍙稿伐浣沧湡闂达纴澶氭¤幏寰椾紭绉锻桦伐/𨱒板嚭涓揿埄濂/璁烘枃濂栫瓑銆傚洜鍏舵妧链璐$尞锛2006骞磋幏寰楅樋灏斿崱鐗规湕璁镰旂┒闄㈤佸彂镄勬渶楂樻妧链钻h獕绉板彿ALTA銆
2007-2011骞达细锷犲叆鑻卞浗甯濆浗鐞嗗伐瀛﹂櫌锛岀数姘斿强鐢靛瓙宸ョ▼绯伙纴𨰾呬换镰旂┒锻桡纴浠庝簨涓嬩竴浠f棤绾跨绣缁灭爷绌躲傛圹𨰾呮垨鍙傚姞澶氢釜椤圭洰锛屽悎浣滃崟浣嶅寘𨰾缇庡浗鍐涙柟銆佽嫳锲藉浗阒查儴銆佺害缈.闇嶆櫘閲戞柉澶у︺佸墤妗ュぇ瀛︼纴UCLA銆乁MASS銆佺憺澹鑻忛粠涓栫悊宸ュぇ瀛︺両BMWatson镰旂┒闄銆佹尝阔冲叕鍙革纴鑻辩壒灏斿叕鍙搞侀樋灏斿崱鐗-链楄鍏鍙搞両ntracom銆丆efriel绛夈
2011骞磋呖浠婏细锷犲叆钖屾祹澶у︼纴鐢靛瓙涓庝俊鎭宸ョ▼瀛﹂櫌锛屼俊鎭涓庨氢俊宸ョ▼绯伙纴𨰾呬换鏁欐巿锛埚崥澹鐢熷煎笀锛夛纴浠庝簨鏂颁竴浠f棤绾跨绣缁滃强鐗╄仈缃戞柟钖戠殑镰旂┒銆
棰嗗煎洟阒熺爷鍙戝嚭锲藉唴棣栦釜锏剧背閲忕骇镄勬繁绌块忛氢俊绯荤粺WCD锛岃幏寰2014骞翠腑锲藉浗闄呭伐涓氩崥瑙堜细锛埚伐鍗氢细锛夐珮镙$壒绛夊栥
棰嗗煎洟阒熺爷鍙戝嚭楂樼簿搴﹀ゅ唴瀹氢綅绠楁硶--锷ㄦ佸姞𨱒冭繘鍖栫殑璺寰勮拷韪绠楁硶DWELT銆2016骞磋幏寰椻滃井杞锲介檯瀹ゅ唴瀹氢綅鎶链澶ц禌钬濆啝鍐涳纴鍦ㄤ䌷澶氩浗鍐呭栦紒涓氩拰澶у﹀弬锷犵殑鐜板満娴嬭瘯涓锛屼笉渚濊禆浜庝换浣曞熀纭璁炬柦鍜屽熀绔欙纴鍒╃敤镓嬫満銮峰缑链楂桦畾浣岖簿搴︼纴鎶链镐ц兘杈惧埌锲介檯棰嗗厛姘村钩銆侱WELT鎶链銮峰缑2016骞粹滀腑锲藉浗闄呭伐涓氩崥瑙堜细锛埚伐鍗氢细锛夆濆垱鏂伴摱濂栥2018骞达纴DWELT鎶链鍐嶆¤幏寰椻滃井杞锲介檯瀹ゅ唴瀹氢綅鎶链澶ц禌钬濆畾浣岖簿搴︾涓镄勪紭寮傛垚缁┿
锘轰簬DWELT鎶链镄勯”鐩鍏埚悗銮峰缑2018骞翠腑锲解滀簰镵旂绣+钬濆ぇ瀛︾敓鍒涙柊鍒涗笟澶ц禌涓婃捣甯傚喅璧涢噾濂栦互鍙婂叏锲芥诲喅璧涢噾濂栥2018骞达纴锘轰簬DWELT鎶链镰斿彂镄勨滃艰矾钥呪濈郴缁燂纴铻嶅悎浜嗕汉宸ユ櫤鑳藉拰AR/VR澧炲己鐜板疄/铏氭嫙鐜板疄绛夋妧链锛屾垚涓洪栧众钬滀腑锲藉浗闄呰繘鍙e崥瑙堜细钬濆畾浣嶅艰埅绯荤粺锛埚寘𨰾灏忕▼搴忓拰APP鐗堟湰锛夛纴鏄鍏ㄧ悆棣栦緥鐗瑰ぇ鍨嫔ゅ唴澶栦竴浣撶殑瀹氢綅瀵艰埅绯荤粺銆
浠昏亴
鏄疘ET浼氩+锛圛ETFellow锛夛纴ACM楂樼骇浼氩憳锛圆CMSeniorMember锛夛纴IEEE楂樼骇浼氩憳锛圛EEESeniorMember锛夛纴涓锲借$畻链哄︿细锛圕CF锛夋澃鍑轰细锻桡纴阒垮皵鍗$壒链楄镰旂┒闄ALTA浼氩憳锛屼腑锲界数瀛愬︿细楂樼骇浼氩憳銆傛槸IEEE涓婃捣鍖哄潡阈句富甯锛岃礋璐IEEE鍖哄潡阈句腑锲藉悇鍦板尯灏忕粍镄勭瑰囥傚湪宸ヤ笟鐣屽拰瀛︽湳鐣屽潎链夊氩勾缁忛獙銆傜爷绌跺叴瓒e寘𨰾锛氱墿镵旂绣锛圛oT锛夈佹繁绌块忛氢俊绯荤粺銆5G銆佸嶆潅缃戠粶銆佸ぇ鏁版嵁銆佷汉宸ユ櫤鑳姐佸ゅ唴瀹氢綅銆佸尯鍧楅摼鎶链绛夈
甯稿勾𨰾呬换IEEE/Elsevier/Springer/Wiley/ACM/OSA绛夋枣涓嬫湡鍒/浼氲镄勫$匡纴𨰾呬换澶氢釜锲介檯浼氲镄勬妧链濮斿憳浼氩斿憳銆佷富甯鎴栧垎浼氢富甯锛屾媴浠诲浗闄呭垔鐗㊣EEEAccess镄勫坛涓荤紪锛圆ssociateEditor锛夛纴IEEECommunicationsLetters镄勫坛涓荤紪锛圆ssociateEditor锛夛纴KSIITrans.镄勭紪濮旓纸Editor锛夛纴銆娄腑锲介氢俊銆嬶纸鑻辨枃鐗堬级锛圕hinaCommunications锛夌殑缂栧旓纴ChinaCommunications鍖哄潡阈句笓棰樼殑瀹㈠骇涓荤紪锛圙uestEditor-in-Chief锛変互鍙奍鍖哄潡阈句笓棰樼殑瀹㈠骇缂栧旓纸GuestEditor锛夌瓑銆
鍦ㄦ湡鍒/浼氲涓婂彂琛80澶氱瘒璁烘枃锛岀编锲/娆ф床/镞ラ烦/涓锲界瓑鍦板彂鏄庝笓鍒40澶氶”锛屾彁浜9椤瑰浗闄呮爣鍑嗗寲钻夋堛
棰嗗煎洟阒熺爷鍙戝嚭锲藉唴棣栦釜锏剧背閲忕骇镄勬繁绌块忛氢俊绯荤粺WCD锛岃揪鍒板浗闄呭厛杩涙按骞筹纴銮峰缑2014骞翠腑锲藉浗闄呭伐涓氩崥瑙堜细锛埚伐鍗氢细锛夐珮镙$壒绛夊栥
棰嗗煎洟阒熺爷鍙戝嚭楂樼簿搴﹀ゅ唴瀹氢綅绠楁硶--锷ㄦ佸姞𨱒冭繘鍖栫殑璺寰勮拷韪绠楁硶DWELT銆傚氭¤幏寰楀浗鍐呭栧栧姳锛屽寘𨰾2016骞粹滃井杞锲介檯瀹ゅ唴瀹氢綅鎶链澶ц禌钬濆畾浣岖簿搴︾涓銆2018骞粹滃井杞锲介檯瀹ゅ唴瀹氢綅鎶链澶ц禌钬濆畾浣岖簿搴︾涓銆2016骞粹滀腑锲藉浗闄呭伐涓氩崥瑙堜细锛埚伐鍗氢细锛夆濆垱鏂伴摱濂栥2018骞翠腑锲解滀簰镵旂绣+钬濆ぇ瀛︾敓鍒涙柊鍒涗笟澶ц禌鍏ㄥ浗镐诲喅璧涢噾濂栫瓑锛屾妧链镐ц兘涓哄浗闄呴嗗厛銆傚熀浜嶥WELT鎶链镰斿彂镄勨滃艰矾钥呪濈郴缁燂纴鏄鍏ㄧ悆棣栦緥鐗瑰ぇ鍨嫔ゅ唴澶栦竴浣撶殑瀹氢綅瀵艰埅绯荤粺锛屾槸棣栧众钬滀腑锲藉浗闄呰繘鍙e崥瑙堜细钬濆畼鏂圭殑瀹氢綅瀵艰埅绯荤粺锛埚寘𨰾灏忕▼搴忓拰APP鐗堟湰锛夈
涓氢綑鐖卞ソ锛氶煶涔/鐢靛奖锛屼箳涔撶悆锛岄瓟鏂癸纴TTNews(澶╁ぉ鏂伴椈)/TTNetBars(澶╁ぉ缃戝惂)/SecIt(瀵规秷鎭/闾浠剁瓑锷ㄦ佸姞瀵)绛夊厤璐硅蒋浠惰捐′互鍙娄縿缃楁柉鏂瑰潡娓告垙绛夈