360建站公司,微信做商城网站,软文广告案例分析,电脑谷歌浏览器打开是2345网址导航文章目录 前言android 原生的应用srcreenrecordMediaCodec获取编码数据流程 前言
本篇文章主要是理解Android 12编码的流程#xff0c; 首先从上层的应用出发理解mediacodec提供给外部API的用法。然后针对每个api 分析编码各个流程中框架中的流程。
熟悉一个框架的流程 可以… 文章目录 前言android 原生的应用srcreenrecordMediaCodec获取编码数据流程 前言
本篇文章主要是理解Android 12编码的流程 首先从上层的应用出发理解mediacodec提供给外部API的用法。然后针对每个api 分析编码各个流程中框架中的流程。
熟悉一个框架的流程 可以从简单到复杂、从整体到局部去展开。 同时在理解过中会产生各种各样的问题各种问题的解决就是一个知识经验的形成过程。
android 原生的应用srcreenrecord
应用和代码路径
代码路径frameworks\av\cmds\screenrecord\screenrecord.cpp
编译生成的是screenrecord在system/bin目录默认在android系统都会携带。
使用命令这个命令会将屏幕的操作录制到/sdcard/test.mp4下。 screenrecord /sdcard/test.mp4应用流程 首先在编码器mediacodec调用createInputSurface创建一个inputSurface。这个inputSurface传递出来到显示 作为虚拟显示的bufferProducer。在surfaceFlinger 端inputSurface作为prepareVirtualDisplay的参数 使得surfaceFlinger从这个surface中获取bufffer 然后将屏幕合成后的数据写到这个buffer里面。在编码端将这个buffer 作为编码的输入进行处理。mediacodec编码完成之后调用dequeueOutputBuffer 将编码之后的数据取出来写到文件然后调用releaseOutputBuffer将这个buffer释放回去。在编码器这边surfaceflinger 是生产端mediacodec是消费端。其他有关屏幕录制或者surface 直接到编码的流程大概都是这样的。 创建编码器创建输入的surface配置format启动编码器
spAMessage format new AMessage;
format-setInt32(KEY_WIDTH, gVideoWidth);
format-setInt32(KEY_HEIGHT, gVideoHeight);
.....
codec MediaCodec::CreateByType(looper, kMimeTypeAvc, true);
err codec-configure(format, NULL, NULL,MediaCodec::CONFIGURE_FLAG_ENCODE);
err codec-createInputSurface(bufferProducer);
err codec-start();err prepareVirtualDisplay(displayState, bufferProducer, dpy);从编码器中取出buffer后续就是将这个buffer写入到mp4文件中。
VectorspMediaCodecBuffer buffers;
err encoder-getOutputBuffers(buffers);
err encoder-dequeueOutputBuffer(bufIndex, offset, size, ptsUsec,
flags, kTimeout);上述流程的疑问 mediacodec是如何将surface的数据取出来 然后进行编码的 相对应于解码的流程会有一个queueInbufferbuffer 将未解码的数据喂给mediacodec而在编码这边编码器只有一个从codec创建出来的Surface这个surface会配置到surfaceFlinger那边的虚拟显示中。
MediaCodec获取编码数据流程
代码路径 frameworks\av\media\libstagefright\MediaCodec.cpp frameworks\av\media\codec2\sfplugin\CCodec.cpp frameworks\av\media\libstagefright\bqhelper\GraphicBufferSource.cpp frameworks\av\media\codec2\sfplugin\C2OMXNode.cpp
简单的理解可以分为这两个路径
生产者 surfaceFlinger从MediaCodec创建的InputSurface中申请buffer然后将各个图层的数据合成到这块buffer中合成后 通知到消费者 也就是componet这一端。消费者componet收到生产者surfaceFlinger的通知后将这个合成的buffer给到硬解或者软解编码器进行编码。编码后的数据外部应用通过dequeueOutputBuffer可以获取到。
这里我们关注消费者这一端的实现。 mediacodec creatInputSurface 调用流程 遵循 mediacodec—ccodec这样的流程ccodec调用的是codec2client。client 通过HIDL调用到componentstore端在IComponetSotore.hal中有定义了这样的接口C2PlatformComponentStore–componentStore–IComponetSotore 具体用vendor定义的还是default google实现的 是在之前service端创建服务的时候决定的。 createInputSurface 创建了GraphicBufferSource 在这个类的初始化中调用BufferQueue::createBufferQueue 创建Producer和Consumer通过将GraphicBufferSource监听注册到mConsumer中 这里就是onFrameAvailable注册的地方。Producer和GraphicBufferSource会封装到InputSurface 返回到codec2client。 GraphicBufferSourceWrapper的connect 创建好之后的InputSurface会强制转换为GraphicBufferSourceWrapper然后会调用这个类的connect。connect中是创建了C2OMXNode传递的参数是之前MediaCodec::CreateByType 创建的componet。同时通过调用GraphicBufferSource::configure将这个C2OMXNode配置到GraphicBufferSource的mComponent。 CCodec::createInputSurface()int32_t width 0;(void)outputFormat-findInt32(width, width);int32_t height 0;(void)outputFormat-findInt32(height, height);err setupInputSurface(std::make_sharedGraphicBufferSourceWrapper(gbs, width, height, usage));bufferProducer persistentSurface-getBufferProducer();CCodec::setupInputSurface:status_t err mChannel-setInputSurface(surface);CCodecBufferChannel::setInputSurface:mInputSurface-connect(mComponent);class GraphicBufferSourceWrapper : public InputSurfaceWrapper {
connect(const std::shared_ptrCodec2Client::Component comp) {mNode new C2OMXNode(comp);mOmxNode new hardware::media::omx::V1_0::utils::TWOmxNode(mNode);mNode-setFrameSize(mWidth, mHeight);// Usage is queried during configure(), so setting it beforehand.OMX_U32 usage mConfig.mUsage 0xFFFFFFFF;(void)mNode-setParameter((OMX_INDEXTYPE)OMX_IndexParamConsumerUsageBits,usage, sizeof(usage));mSource-configure(mOmxNode, static_casthardware::graphics::common::V1_0::Dataspace(mDataSpace));return OK;
}
}status_t GraphicBufferSource::configure(const spComponentWrapper component,int32_t dataSpace,int32_t bufferCount,uint32_t frameWidth,uint32_t frameHeight,uint32_t consumerUsage)
{mComponent component;
}onFrameAvailable 通过之前在GraphicBufferSource注册onFrameAvailable到producer中lister当合成后又buffer 可用的时候会回调到GraphicBufferSource的onFrameAvailable。onFrameAvailable经过一系列的处理 会调用到mComponent-submitBuffer这个调用C2OMXNode-emptyBuffer。 c2OMXNode这边将这块omxBuf 封装成c2Buffer然后queue到c2OMXNode 的队列中去。C2OMXNode有专门的mQueueThread来把队列中c2works queue到Codec2Client中。在client中的Codec2Client::Component::queue()在调用 mComponent-queue_nb(c2works)。 mComponet 是simpleC2Componet 在其中的queue_nb会把上面传递的items 放到componet的mWorkQueue中然后发送kWhatProcess消息 收到消息后调用processQueue。然后调用各个组件的process。
// BufferQueue::ConsumerListener callback
void GraphicBufferSource::onFrameAvailable(const BufferItem item __unused) onBufferAcquired_l(buffer);void GraphicBufferSource::onBufferAcquired_l(const VideoBuffer buffer)fillCodecBuffer_l();bool GraphicBufferSource::fillCodecBuffer_l() {err submitBuffer_l(item); status_t GraphicBufferSource::submitBuffer_l(const VideoBuffer item)status_t err mComponent-submitBuffer(codecBufferId, graphicBuffer, codecTimeUs, buffer-getAcquireFenceFd());class OmxComponentWrapper : public ComponentWrapper {status_t submitBuffer(int32_t bufferId, const spGraphicBuffer buffer,int64_t timestamp, int fenceFd) override {ALOGD(submitBuffer bufferId:%d, (int)bufferId);return mOmxNode-emptyBuffer(bufferId, OMX_BUFFERFLAG_ENDOFFRAME, buffer, timestamp, fenceFd);}status_t C2OMXNode::emptyBuffer(buffer_id buffer, const OMXBuffer omxBuf,OMX_U32 flags, OMX_TICKS timestamp, int fenceFd) {mQueueThread-queue(comp, fenceFd, std::move(work), std::move(fd0), std::move(fd1));}class C2OMXNode::QueueThread : public Thread {protected:bool threadLoop() override {comp-queue(items);}总结 Android 录屏编码这一部分 调用的路径非常长主要连接surface和componet的是GraphicBufferSource类。在这里监听surface buffer的生成并将其传递给编码的componet。