❶ 直播APP系统开发是什么原理
直播分两种:单向直播和互动直播,单向直播就是主播推流,观众观看,观众只能看到一个主播的画面,这种实现难度相对小一点,基本上都是用标准的rtmp。
互动直播观众可以与主播互动,其他观众可以看到主播和连麦观众的画面,这个实现难度较大,很多公司是借助webrtc来实现的
现在很多厂商都开放了自己的直播SDK,比如腾讯视频云SDK,网易视频云SDK,可以让公司的研发同事去比较一下。
❷ android平台http直播应用PVR原理是怎么样的
一般要根据业务逻辑来确定是在前台显示还是后台显示。如果每次进入activity都需要刷新的内容最好是在activity里,如果是推送一类的不确定调用时间的,随时需要传输的建议放在service里。
❸ android 直播怎么实现的
android 的直播,主要使用的是camera采集的数据推流到服务器上,在客户端播放camera采集的数据。采用SurfaceView+ SurfaceTexture来显示camera数据, SurfaceTexture在接收图像流之后,可以进行二次处理,比如(加字体水印), 处理完毕后再送给另一个SurfaceView用于显示.
先说说,android端采集摄像头数据,这个网上有很多的资料,可以网络下。这里可以在回调函数OnPreviewFrame(byte[] data,Camera cma)中获取摄像头数据data.
关键是如何把data传输到服务器,要实现这个目标,我使用ffmpeg 来解决这个为题。在android 工程创建jni文件夹,使用jni调用。native函数如下:
// 在OnPreviewFrame中调用
public native void push(byte[] data);
// 可以在OnSurfcaeChanged()中调用. 在jni中初始化输出路径.
public native int initPush(String outputurl,int width,int height);
在jni 层的代码如下:
static void ffmpeg_init() {
avcodec_register_all();
12
#if CONFIG_AVDEVICE
avdevice_register_all();
#endif
avfilter_register_all();
av_register_all();
avformat_network_init();
1234
}
static int avinit(int width, int height){
/**编码开始*/
int ret;
if(codec==NULL){
yuv_width = width;
yuv_height = height;
y_length = width * height;
uv_length = width * height / 4;
LOGI("init start\n");
codec = avcodec_find_encoder(AV_CODEC_ID_H264);
if (!codec) {
LOGI("Codec not found\n");
return -1;
}
c = avcodec_alloc_context3(codec);
if (!c) {
LOGI("Could not allocate video codec context\n");
return -1;
}
/* put sample parameters */
c->bit_rate = 400000;
/* resolution must be a multiple of two */
c->width = width;
c->height = height;
/* frames per second */
//c->time_base = (AVRational){1,5};
c->time_base.den = 25;
c->time_base.num = 1;
/* emit one intra frame every ten frames
* check frame pict_type before passing frame
* to encoder, if frame->pict_type is AV_PICTURE_TYPE_I
* then gop_size is ignored and the output of encoder
* will always be I frame irrespective to gop_size
*/
if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)
c->flags |= CODEC_FLAG_GLOBAL_HEADER;
c->gop_size = 10;
c->max_b_frames = 10;
c->pix_fmt = AV_PIX_FMT_YUV420P;
//av_opt_set(c->priv_data, "preset", "slow", 0);
av_opt_set(c->priv_data, "preset", "superfast", 0);
av_opt_set(c->priv_data, "tune", "zerolatency", 0);
/* open it */
if (avcodec_open2(c, codec, NULL) < 0) {
LOGI("Could not open codec\n");
return -1;
}
LOGI("init end 1\n");
video_st = avformat_new_stream(ofmt_ctx, codec);
if (video_st == NULL) {
LOGI("video_st == NULL\n");
return -1;
}
video_st->time_base.num = 1;
video_st->time_base.den = 25;
video_st->codec = c;
return 0;
}
/**编码结束*/
}
JNIEXPORT jint JNICALL Java_com_example_directvideo_MainActivity_initPush
(JNIEnv *env, jobject obj,jstring out ,jint width, jint height){
int ret ;
ffmpeg_init();
const char* str = //"rtmp://192.168.1.102:1935/myapp/test1";
//"/storage/emulated/0/zsy.mp4";
(*env)->GetStringUTFChars(env, out, 0);
LOGI("%s %d %d ", str,width,height);
//AVOutputFormat *ofmt = NULL;
//AVFormatContext *ofmt_ctx = NULL;
//Output
avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", str); //RTMP
//avformat_alloc_output_context2(&ofmt_ctx, NULL, "mpegts", output_str);//UDP
if (!ofmt_ctx) {
LOGI( "Could not create output context\n");
ret = AVERROR_UNKNOWN;
goto end;
}
ret = avinit(width, height);
ofmt = ofmt_ctx->oformat;
//Open output URL
if (!(ofmt->flags & AVFMT_NOFILE)) {
ret = avio_open(&ofmt_ctx->pb, str, AVIO_FLAG_WRITE);
if (ret < 0) {
LOGI( "Could not open output URL '%s'", str);
goto end;
}
}
ret = avformat_write_header(ofmt_ctx, NULL);
if (ret < 0) {
LOGE( "Error occurred when opening output URL\n");
goto end;
}
(*env)->ReleaseStringUTFChars(env, out, str);
if (ret < 0 && ret != AVERROR_EOF) {
LOGI( "Error occurred.\n");
return ret;
}
intited = 1;
return 0;
04142434445
}
注意传输视频流时,必须使用h264编码器进行编码。初始化成功后,便可使用push()来推送每一帧的camera数据到服务器上。
本人在ubuntu系统中,利用ngnix + rtmp搭建了简易的流媒体服务器。
在pc机上,使用ffplay rtmp://192.168.1.102:1935/myapp/test1的命令来播放视屏.
http://blog.csdn.net/zsy2012919331/article/details/52444332
❹ 简单说明一下 android开发 直播 + 录播 的原理, 大致的原理就行了, 不用太复杂
camera相关(视频)、AudioRecord(音频)相关、MediaCodec相关(音视频编码)
android-native层(c++):h264、h265等编码库的调用;各种音频编码库的使用(aac、amr、mp3、g711等);容器封装技术(音视频封装ts、ps等);媒体协议(hls、rtsp、rtmp等);socket编程;android-ndk编译so技术;jni技术;
你还需要流媒体服务器
❺ android 直播开发原理
Android手机录制视频、音频;并打包推送至流媒体服务器;通过流媒体发布让大家观看,同时也在播放流媒体服务器发布的直播间音频视频。复杂一些的就涉及到服务器端处理连麦、混流、降噪、鉴黄……等内容很多,慢慢研究吧。
❻ 实现直播APP开发技术难点在哪
1.热门直播产品
映客、斗鱼、熊猫、虎牙、花椒等等。
2.一个完整直播app功能
(1)聊天
私聊、聊天室、点亮、推送、黑名单等;
(2)礼物
普通礼物、豪华礼物、红包、排行榜、第三方充值、内购、礼物动态更新、提现等;
(3)直播列表
关注、热门、最新、分类直播用户列表等;
(4)自己直播
录制、推流、解码、播放、美颜、心跳、后台切换、主播对管理员操作、管理员对用户等;
(5)房间逻辑
创建房间、进入房间、退出房间、关闭房间、切换房间、房间管理员设置、房间用户列表等;
(6)用户逻辑
普通登陆、第三方登陆、注册、搜索、修改个人信息、关注列表、粉丝列表、忘记密码、查看个人信息、收入榜、关注和取关、检索等;
(7)观看直播
聊天信息、滚屏弹幕、礼物显示、加载界面等;
(8)统计
APP业务统计、第三方统计等;
(9)超管
禁播、隐藏、审核等;
3.一个完整直播app原理
(1)直播原理:
把主播录制的视频,推送到服务器,在由服务器分发给观众观看。
(2)直播环节:
推流端(采集、美颜处理、编码、推流)
服务端处理(转码、录制、截图、鉴黄)
播放器(拉流、解码、渲染)
互动系统(聊天室、礼物系统、赞)
4.一个完整直播app实现流程
直播APP实现流程有采集、滤镜处理、编码、推流、CDN分发、拉流、解码、播和聊天互动,
❼ android 微信 多群直播是怎么实现的
现在在做直播的有两种,第一种,依赖直播App做直播。这种视频直播需要其他人也要下载直播App,而且只能在手机上做直播,画面不是很清晰,但是移动起来很方便。最大的好处是不收费,但是纯粹是给这些直播导量。第二种就是需要找一些第三方类似于亲加云直播这样的服务商合作,开通流媒体服务,根据自身的具体情况,进行设备设置,然后开始直播。在亲加云平台上进行视频直播,创建完活动后,都会出现直播地址,直接把直播嵌入公众号自定义菜单中中,或者分享给好友粉丝或者分享到社群,或者分享到朋友圈,待直播开始后,大家就可以进行观看了。
❽ Android直播是如何分发给每一个客户端的
核心是 RTMP / HLS
最简单的模型就是 server 配一个nginx,直播端用 rtmp 协议推到nginx,nginx 拆分为 HLS 分片发布到CDN。
收看端只需要去请求那个CDN的地址即可,iOS 的话, AVFoundation 里的 AVPlayer 就能直接播放.
❾ Android开发,请问类似这种文字直播该怎么实现
1、主动获取,每个n秒去请求数据显示
2、新数据推送,有新数据时服务器给移动端推送数据,移动端接收推送消息并显示