1、android的NDK开发需要在linux下进行: 因为需要把C/C++编写的代码生成能在arm上运行的.so文件,这就需要用到交叉编译环境,而交叉编译需要在linux系统下才能完成。
2、安装android-ndk开发包,这个开发包可以在google android 官网下载: 通过这个开发包的工具才能将android jni 的C/C++的代码编译成库
android应用程序开发环境: 包括eclipse、java、 android sdk、 adt等。
NDK编译步骤:
a.选择 ndk 自带的例子 hello-jni ,我的位于E:\android-ndk-r5\samples\hello-jni( 根据具体的安装位置而定 ) 。
b.运行 cygwin ,输入命令 cd /cygdrive/e/android-ndk-r5/samples/hello-jni ,进入到 E:\android-ndk-r5\samples\hello-jni 目录。
c.输入 $NDK/ndk-build ,执行成功后,它会自动生成一个 libs 目录,把编译生成的 .so 文件放在里面。 ($NDK是调用我们之前配置好的环境变量, ndk-build 是调用 ndk 的编译程序 )
d.此时去 hello-jni 的 libs 目录下看有没有生成的 .so 文件,如果有,ndk 就运行正常啦。
Ⅱ 怎么配置.Android使用ffmpeg的swscale等函数
创建一个VideoPicture结构体用来保存解码出来的图像。 /* * SDL_Lesson.c * * Created on: Aug 12, 2014 * Author: clarck */ #include <jni.h> #include <android/native_window_jni.h> #include "SDL.h" #include "SDL_thread.h" #include "SDL_events.h" #include "../include/logger.h" #include "../ffmpeg/include/libavcodec/avcodec.h" #include "../ffmpeg/include/libavformat/avformat.h" #include "../ffmpeg/include/libavutil/pixfmt.h" #include "../ffmpeg/include/libswscale/swscale.h" #include "../ffmpeg/include/libswresample/swresample.h" #define SDL_AUDIO_BUFFER_SIZE 1024 #define MAX_AUDIO_SIZE (5 * 16 * 1024) #define MAX_VIDEO_SIZE (5 * 256 * 1024) #define FF_ALLOC_EVENT (SDL_USEREVENT) #define FF_REFRESH_EVENT (SDL_USEREVENT + 1) #define FF_QUIT_EVENT (SDL_USEREVENT + 2) #define VIDEO_PICTURE_QUEUE_SIZE 1 #define AVCODEC_MAX_AUDIO_FRAME_SIZE 192000 // 1 second of 48khz 32bit audio typedef struct PacketQueue { AVPacketList *first_pkt, *last_pkt; int nb_packets; int size; SDL_mutex *mutex; SDL_cond *cond; } PacketQueue; typedef struct VideoPicture { SDL_Window *screen; SDL_Renderer *renderer; SDL_Texture *bmp; AVFrame* rawdata; int width, height; /*source height & width*/ int allocated; } VideoPicture; typedef struct VideoState { char filename[1024]; AVFormatContext *ic; int videoStream, audioStream; AVStream *audio_st; AVFrame *audio_frame; PacketQueue audioq; unsigned int audio_buf_size; unsigned int audio_buf_index; AVPacket audio_pkt; uint8_t *audio_pkt_data; int audio_pkt_size; uint8_t *audio_buf; DECLARE_ALIGNED(16,uint8_t,audio_buf2) [AVCODEC_MAX_AUDIO_FRAME_SIZE * 4]; enum AVSampleFormat audio_src_fmt; enum AVSampleFormat audio_tgt_fmt; int audio_src_channels; int audio_tgt_channels; int64_t audio_src_channel_layout; int64_t audio_tgt_channel_layout; int audio_src_freq; int audio_tgt_freq; struct SwrContext *swr_ctx; AVStream *video_st; PacketQueue videoq; VideoPicture pictq[VIDEO_PICTURE_QUEUE_SIZE]; int pictq_size, pictq_rindex, pictq_windex; SDL_mutex *pictq_mutex; SDL_cond *pictq_cond; SDL_Thread *parse_tid; SDL_Thread *audio_tid; SDL_Thread *video_tid; AVIOContext *io_ctx; struct SwsContext *sws_ctx; int quit; } VideoState; VideoState *global_video_state; 如果我的回答没能帮助您,请继续追问。 转载,仅供参考。
Ⅲ android ffmpeg 是啥意思
FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。
用来开发音视频的~!
Ⅳ 如何移植ffmpeg到android
工具/原料
Ubuntu 14.04 LTS
FFmpeg源码,网络FFmpeg进入官网下载,目前版本是ffmpeg-2.6.3.tar
NDK,android-ndk-r8e,Android的C、C++开大工具包
方法/步骤
首先把系统环境配置好,一般情况系统默认都会安装gcc和make编译工具。若提示未安装编译工具,请使用sudo apt-get install build-essential安装即可。
修改编译后库的版本号,在ffmpeg目录下找到configure文件,将下图所示的4行代码修改为
SLIBNAME_WITH_MAJOR='$(SLIBPREF)$(FULLNAME)-$(LIBMAJOR)$(SLIBSUF)'
LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'
SLIB_INSTALL_NAME='$(SLIBNAME_WITH_MAJOR)'
SLIB_INSTALL_LINKS='$(SLIBNAME)'
ffmpeg移植到Android上
将以下代码保存到build.sh中
#!/bin/bashNDK=/home/robot/tools/android-ndk-r8eSYSROOT=$NDK/platforms/android-14/arch-arm/TOOLCHAIN=$NDK/toolchains/arm-linux-androideabi-4.7/prebuilt/linux-x86_64
function build_ffmpeg{./configure \ --prefix=$PREFIX \ --enable-shared \ --disable-static \ --disable-doc \ --disable-ffserver \ --enable-cross-compile \ --cross-prefix=$TOOLCHAIN/bin/arm-linux-androideabi- \ --target-os=linux \ --arch=arm \ --sysroot=$SYSROOT \ --extra-cflags="-Os -fpic $ADDI_CFLAGS" \ --extra-ldflags="$ADDI_LDFLAGS" \ $ADDITIONAL_CONFIGURE_FLAG}PREFIX=$(pwd)/androidADDI_CFLAGS="-marm"build_ffmpeg
使用命令修改build文件的属性
chmod a+x build.sh
接下来就是执行build.sh文件,"."表示当前目录
./build.sh
执行成功后,会生成config.h配置文件
开始编译,
make
make install
执行成功会在Android目录下生成一系列目录,bin、include、lib、share,生成的库就在lib目录下
Ⅳ ffmpeg 命令行 在android执行
对于ffmpeg我是彻底小白,昨天刚开始接触,就是按着网上的教程安装了MingGW和msys神马的一大堆,然后貌似编译出了可以用的ffmpeg。
现在的情况是:打开msys的DOS命令窗口,照着网上写的输入了几个简单的命令,能实现转换格式、截取某时刻的缩略图。这样说明ffmpeg是编译成功了吧?
【但是】我看网上关于ffmpeg的demo程序,都是很长很长的程序,应该是 .c 文档之类的,并不是在DOS命令窗口敲的命令。是应该用VS2010之类的,编辑这些长的程序然后运行么?如果是的话,具体怎么操作的呢?
还是说,这些程序只能在linux环境下运行?
今天费了好大的劲儿才把ffmpeg编译出来,但是由于对编程开发工具不熟悉(只会简单的码代码,编译运行..),引入头文件函数库神马的也都不太懂,实在是不知道怎么用。
身边很少有了解ffmpeg的,网上的信息也很零碎,自己入门实在是太困难了。。 但这是跟老师做的项目,不能不学。所以求各位大神多多指导,多谢了!
泪目~~T_T~~
Ⅵ 如何运行从Android的命令行的ffmpeg
在前面编译FFmpeg类库编译ffmpeg时,编译脚本中使用了参数 –disable-ffmpeg,所以是不会生成ffmpeg工具的,即使生成了,
在Android应用下也无法直接使用。
但是,FFmpeg 命令行是十分强大易用的,我们可以用命令行完成大部分的需求,So,Let’s Do it.
http://blog.csdn.net/chengkaizone/article/details/52984091
Ⅶ 哪位高手做过ffmpeg在android下的运用.小弟我只想调用解码h264的帧
楼主你好!根据你的描述,让我来给你回答!
用NDK把ffmpeg 编译成动态库SO 文件
再android工程利用JNI生成接口调用这个静态库。
希望能帮到你,如果满意,请记得采纳哦~~~
Ⅷ android 中使用ffmpeg,将视频加入字幕,用ass文件,在PC上可以,但在Android上一直不行
理论上来讲:任何视频格式都是支持外挂字幕的 迅雷看看也是支持外挂字幕的 没显示字幕的可能性有两个: 1、播放器不支持外挂字幕(显然应该不是播放器的问题,有可能你关闭了外挂字幕功能,你可以试着重新安装迅雷看看) 2、视频文件名跟字幕文件名不同(在同一个文件夹下要播放器自动载入外挂字幕,首先必须保证视频跟字幕在同一个文件夹内,然后要保证文件名称一样,这里说的文件名称不包括后缀名 举个例子: 视频文件名为:ZXCV.mp4 ,,这里我们可以看到这个视频是一个名称为:ZXCV的MP4格式的视频文件,ZXCV为为视频名称,“.mp4”则为文件的后缀名,即为文件种类 要保证外挂字幕文件顺利的自动载入,那么它的文件名就必须为:“ZXCV.ass”) 明白?