彩神大发排列五_神彩大发排列五官方 - 彩神大发排列五,神彩大发排列五官方是新浪网最重要的频道之一,24小时滚动报道国内、国际及社会新闻。每日编发新闻数以万计。

全平台硬件解码渲染方法与优化实践

  • 时间:
  • 浏览:3

MediaCodec居于有并否是输出,其一是ByteBuffer也要是我将结果输出到内存上,当然是不被当当我们采用的;其二是Surface也要是我将结果输出到显存上,接下来当当我们需要讨论怎么构造Surface。这里有有并否是法律办法构造Surface,法律办法一是由Surface View获取Surface并直接输出至View上,但这对当当我们而言意味无法使用OpenGL,故排除。法律办法二是Surface Texture,在解码进程的开使英语 英语 需要配置MediaCodec输出,由纹理构建Surface Texture,而后Surface Texture借助UpdateTexImage法实现渲染进程更新纹理。这里需要明确的是Surface Texture纹理的对象是有哪些样的?机会Android那末相关文档,当当我们可假设此纹理是原来有效纹理,怎么创建此纹理?

D3D11的硬解输出结果为D3D11纹理,输出格式为NV12。后续在转换纹理时当当我们有原来思路:思路一较为常见,这里就不再赘述。思路二是借助EGLStream扩展,在创建原来共享的D3D11纹理后再从此纹理创建原来EGLSurface,此Surface可绑定至OpenGL纹理;当当我们需要做的是将解码出的纹理拷贝至共享的D3D11纹理上,拷贝法律办法是借助D3D11的Video Processor接口将YUV转上加RGB。尽管此法律办法速率较高,但许多Chrome开发者仍然我我觉得需要尽机会减小其带来的性能损失,也要是我追求全部那末任何数据转换的最佳方案。假如有一天在2016年时EGLStream扩展被推出,从而有效改善了性能损失带来的影响。

总结各个平台的情况报告不能自己发现,考虑硬解就让当当我们需要思考硬解的输出,机会硬解的输出不像软解的输出是一组到内存指向各平面的指针,当当我们需要获知硬解输出的对象与格式。现在什么都有有硬解都会 以YUV作为输出格式如NV12等,当然排除个别定制化产品通过参数配置调整输出格式为RGB的情况报告,根据经验硬解一般选取YUV作为输出格式。首先是机会RGB的输出实际上是在GPU内部内部结构进行的色彩空间转换,会对性能产生一定影响;其次当当我们也面临无法保证YUV转上加RGB的精确性,矩阵系数是定值则无法适应多样场景的现象图片。

以上有并否是法律办法基本正确处理了许多相对重要的MediaCodec现象图片,除此之外当当我们也会面临APP后台切换至前台时UpdateTexImage()错误的情况报告,机会是机会上下文不对一般可通过重新初始化解码器或使用TextureView等法律办法正确处理。但机会用户想借助SurfaceView正确处理此现象图片,也可通过共享上下文的法律办法,为SurfaceView提供原来上下文并在每次渲染前激活。但此法律办法具有仅适用于其他同学创建的上下文的局限性,机会上下文由内部内部结构提供,那末当当我们还能必须通过attach法律办法。

解码后的视频数据需经过纹理加载后才会进行下一步的OpenGL ES渲染操作,其关键在于怎么将解码后的数据填充到纹理中。不同的平台对于此现象图片的正确处理方案要是我尽相同,这也是当当我们今天讨论的重点。

以XBMC为例,首先解码进程会给渲染进程以创建好纹理的信息一块儿渲染进程会反馈信息给解码进程。但机会此消息循环机制并未在所有APP上推行,这对设计适用所有APP框架下的播放器来说无须合理,针对此现象图片当当我们有两套正确处理方案:第一套方案是能必须在解码进程创建共享上下文并在此上下文下创建原来可在渲染进程被访问的纹理。

Android平台中集成了Java、MediaCodec、OMX AL(应用层创建播放器)等可直接调用的接口。除此之外还有有并否是提供了如创建、解码器组件等诸多更底层功能的OMX IL接口,但机会将此接口与OpenGL结合,机会EGLImage所需的扩展是非公开的,假如有一天OMX IL无须原来NDK系统库而Android7.0就让的版本不允许访问非NDK系统库,故而当当我们仅使用MediaCodec与OMX AL。

iOS仅提供TextureCache法,这意味需要生成纹理而仅需在准备纹理阶段创建TextureCache类即可并从Cache中直接获取纹理,此流程与绝大多数需要先生成原来纹理再进行转换等操作的传统硬解渲染法律办法有明显不同。

通过上图当当我们能必须发现D3D11+EGLStream的软解流程与常规的OpenGL软解渲染流程有所不同,EGLStream首先需要创建EGLStream对象,而后再创建纹理对象;在纹理准备期间也需要利用此扩展并设置consumer的OpenGL ES纹理,更新、渲染纹理时EGLStream提供了PostD3D11的法律办法,此法律办法大约直接将D3D纹理作为OpenGL ES纹理使用。在后期进行渲染时机会涉及到原来API——D3D11与OpenGL,调用API时必须一块儿访问二者,故需要进行Acquire过程用以锁定D3D11资源使得必须OpenGL可访问此资源。在此就让当当我们就可借助OpenGL渲染纹理,开使英语 英语 渲染后Release也要是我解锁资源。

上图展示的是Texturecache由TexToolbox buffer转到(Texture崩溃)的堆栈,仔细观察不能自己发现另原来的Texturecache法我我觉得也是调用TexImageIOSurface,为甚在么在在老平台居于此接口却那末被启用?最终我在iOS5中发现了TextureImageIOSSurface的居于,而iOS11相对于iOS5仅仅是参数的上加与接口的微调,假如有一天使用GPU分析工具检查后可发现IOS11与老版本系统的Texturecache法律办法你这个,都会 通过调用原来从老版本iOS上就居于至今的接口来实现相关功能。

5、Android硬解渲染及常见现象图片正确处理

这就引起了进一步思考:既然能必须将二者进行统一,那末就让老平台上的Texturecache究竟起了有哪些作用?

最终当当我们成功统一了macOS与iOS原来平台的正确处理流程,在此就让机会开发者想调用官方提供的接口,首先需要判断iOS版本,机会是iOS11则使用新法律办法,老版本则需要使用上加参数的法律办法。 

机会采取数据共享,该怎么找到有有哪些数据共享接口?首先当当我们应当从平台入手,了解像iOS、Android等不同平台提供了有哪些共享接口。如iOS与许多硬解库提供的数据拷贝接口,如英伟达的CUDA提供的转换接口等。Linux中也集成了被称为VA-API的硬解接口,针对GLX环境VA-API提供了有并否是可将硬解输出转换为RGB纹理的法律办法,开发者可直接调用此接口与其相应功能。

1.1 常规的OpenGL渲染

即使iOS与macOS可实现那末数据拷贝的纹理转换,但原来平台居于两套正确处理流程,这也会对开发者带来不便。而苹果77手机公司就让公开的原来被称为IOSurface的新框架为接下来的探索提供了思路,其中包括了从PixelBuffer获取IOSurface的法律办法。IOSurface用以进程间进行GPU数据共享,硬件解码输出至GPU显存并通过IOSurface实现进程间的数据共享。VideoToolbox作为原来服务,必须在APP开使英语 英语 解码时才会启动解码进程。而Get IOSurface的法律办法在macOS上早已居于,但在iOS11的SDK中第一次老出。除了需要GetIOSurface,当当我们还需要转成纹理的函数,同样在macOS的OpenGL Framework中当当我们发现了TextureImageIOSurface。此函数的功能与macOS上的你这个,这是都会 意味当当我们能必须将iOS与macOS的正确处理流程进行整合?

硬解OpenGL渲染的数据流原理与软解略有不同,解码过程中的数据存储在显存上。这里需要强调的是,即使对基于统一内存模型的移动平台而言不一定居于物理显存,但移动平台会通过将内存映射给GPU与CPU来构建逻辑显存。解码后的拷贝、更新纹理、渲染与软解你这个,数据流会分别经过主存、显存、显存。这里的解码在显存上的数据我我觉得是硬解提供的相应解码输出而非各个平面的数据指针,假如有一天系统需要将硬解出的数据拷贝至内存上并借助TexImage2D技术上传纹理。经过实践当当我们发现此法律办法的速率无须高,你这个在实测中当当我们借助软解流程可实现10150P全高清视频的流畅播放,而若借助DXVA硬解流程正确处理同原来全高清视频文件则会变得非常卡顿,那末怎么来优化硬解流程呢?思路一是对显存与内存间的拷贝过程进行优化,你这个在Windows上较为出名的LAV Filters滤镜就使用了如SSEV4.1加速、多进程拷贝等,提升显著。但机会面对一块儿播放多个视频等较为繁杂的应用场景,内存之间的拷贝仍会影响整个正确处理流程的稳定运行。

硬件解码后不恰当地使用OpenGL渲染会意味性能下降,甚至不如软解。本文来自PPTV移动端研发经理王斌在LiveVideoStackCon 2017大会上的分享,并由LiveVideoStack分发而成。分享中王斌全部解析了Windows、Linux、macOS、Android、iOS等多种平台下硬件解码的渲染法律办法及优化实践。

2)软解数据流

上图表示GPU(CPU)内存与显存间数据的交换速率,其中虚线表示数据由显存拷贝到内存的速率,实线表示数据由内存拷贝到显存的速率。从中当当我们能必须都看,数据由显存拷贝到内存的速率大约是内存拷贝到显存的1/5,这也是为有哪些使用DXVA硬解都会老出不如软解流畅的意味。

1)软解OpenGL渲染流程

Apple的macOS使用VideoToolbox作为解码器且输出对象为CVPixelBufferRef也要是我保居于内存或显存上的图像数据;VideoToolbox有多种输出格式,如YUV420P、NV12、RGB、UYVY422等。刚接触此平台时我注意到了许多平台那末的UYVY422格式,机会老版本系统不提供NV12接口,故UYVY442格式普遍用于老系统;而新系统上提供的NV12正确处理速率远高于UVYV442。当时我将此发现反馈给FFmpeg社区,就让社区在FFmpeg中上加了用以选取VideoToolbox输出结果的接口:机会是支持性能不佳的老系统则使用UYVY442格式,而新系统则使用NV12格式。macOS的纹理准备过程与传统软解你这个,而纹理更新过程则略有不同,在其纹理更新中的PixelBuffer就让会输出并保存原来IOSurface,关于IOSurface的全部内容我会在后文提到。macOS通过OpenGL Framework中的原来CGL实现将IOSurface转换为纹理,而输出的结果较为独特,如输出的纹理无须2D类型要是我原来矩形纹理。macOS也可通过TextureCache法律办法实现纹理转换并输出RGB型纹理,但性能较为低下,那末了此赘述。

当当我们期待将你许多现象图片繁杂,也要是我实现从解码开使英语 英语 到渲染开使英语 英语 视频数据无缘无故在显存上进行正确处理。我猜想,否是居于有并否是数据共享法律办法也要是我API间的数据共享从而正确处理数据在内存与显存之间不让要的来回拷贝?你这个使用D3D则会生成D3D的Texture,机会D3D与OpenGL间居于允许数据共享的接口,那末就能必须保证无论数据怎么被传输都保留在显存上或需要传输就可直接进行下一流程的正确处理;机会上述猜想不成立,机会内存与GPU间的数据速率单位和内存与CPU间相比快什么都有有,能必须通过与GPU间的数据拷贝显著提升性能?当然当当我们能够必须针对GPU提供的接口,转换GPU中的数据,你这个将OpenGL的纹理从另原来的YUV转上加RGB以获得理想的硬解数据流,上述都会 当当我们在考虑硬解优化时想到的正确处理方案。

3.、D3D11+EGLStream

分发 / LiveVideoStack

常规的软解OpenGL渲染流程主要分为两帕累托图:一是在渲染纹理前进行的准备纹理,二是渲染前更新纹理。准备纹理具体是居于第一次渲染第一帧前先创建原来设置好相应参数的纹理,而后再使用Texlmage2D将GPU上一定大小的显存空间分配给此纹理;进行渲染前首先需绑定此纹理,并借助TexSublmage2D技术将解码数据填充进就让分配好的纹理存储空间中,也要是我所谓的“纹理上传”。

文 / 王斌

而macOS与iOS也是借助就让提到的平台提供的纹理共享接口。

2、硬解纹理转换一般思路

事实证明另原来是可行的,最终当当我们可统一整个苹果77手机系统的解码渲染流程,除了OpenGL接口与OpenGL ES接口的差异之外,其它的流程全部相同。

接下来我将介绍D3D11硬解,D3D11硬解基于EGL提供的资源共享功能。而D3D可与OpenGL ES无缘无故建立联系的意味是最早的Windows平台对OpenGL驱动的支持无缘无故不佳,而火狐、Chromium等浏览器为了在每个人环境下都能很好支持OpenGL,于是加入了原来由 Google发起的被称为ANGLE的开源项目。ANGLE是指用D3D9与D3D11的许多指令和(着色器)实现OpenGL ES与EGL所有接口你这个的功能。除了使用ANGEL实现对OpenGL  ES的支持,有有哪些厂商也通过ANGEL实现对WebGL的支持。除此之外,许多如QT还有微软推出的Windows Bridge for iOS等开源项目都会 基于ANGEL Project,有有哪些项目都会 通过ANGEL Project实现OpenGL ES的调用。

1、常规法律办法渲染硬解数据

当当我们好,我是来自PPTV的王斌。接下来我将围绕以下几条话题,为当当我们分享有关全平台硬件解码的渲染与优化的实践经验。

1.2 硬解OpenGL渲染

但用GLX的法律办法机会比较过时,而Linux平台上老出的许多新正确处理方案可带来明显的硬解性能提升。如现在比较流行的EGL,当当我们可将其理解为原来连接渲染接口与窗口系统之间的桥梁。EGL的大多数功能通过集成扩展实现,主要的共享法律办法为GELImage与GELStream。

4、 iOS & macOS

软解OpenGL渲染的数据流为:首先,通过调用TexSublmage将解码后放进主存上的数据拷贝到显存上用于更新纹理,就让的渲染过程也是基于显存上的数据进行。

attach法律办法大致流程如下:每次渲染时生成纹理并attach至上下文,调用更新纹理的法律办法使得数据保留在纹理上,最后将此纹理Detach。

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/vn9PLgZvnPs1522s82g/article/details/83747420

被使用最多的EGLImage目前作为扩展形式居于,如OpenMarxAL等专门提供了一套可输出到EGLImage的接口,而树莓派的MMAL硬件解码则提供了一套由MMAL输出的Buffer转换为GELImage的法律办法。EGLImage可与窗口系统无关,同样也可用于那末窗口系统的服务器端。在实际应用中当当我们会优先考虑使用EGLImage,视频数据经过与EGLImage对应的OpenGL扩展输出为OpenGL纹理从而实现了接口之间的共享。而较新的EGLStream是英伟达无缘无故推崇的法律办法,目前我所接触到的应用主要有原来:原来是OpenMarxAL接口,其可直接作为EGLStream的输入扩展并可输出OpenGL纹理,另原来则应用在D3D11的硬件解码上。机会当当我们使用EGLStream则需要重点核对原来扩展名:producer与consumer。producer是硬件解码输出的对象,consumer则是输出的OpenGL纹理。除了有有哪些扩展,当当我们还可利用许多OpenGL扩展。对于Windows平台而言Windows使用DXVA与D3D11解码,输出结果为D3D纹理;在这里,英伟达提供了原来可将D3D资源直接转换为OpenGL纹理的接口,但此接口受到GPU驱动的限制,居于一定的使用环境限制;对于Linux平台而言如X11窗口系统,Linux提供了原来将X11的pixmap转上加GLX也要是我OpenGL纹理的法律办法,此法律办法就让也用于VA-API现在已不被推荐使用。

最后想介绍些关于Open MAX AL的内容。Open MAX AL在安卓上并未提供EGLStream扩展,而创建OMXAL播放器需要要设置输出参数,对安卓而言输出Native Display对象也要是我ANative Window,其由Surface获取并调用NDK接口,与OMX AL输出的Surface一致,什么都有有就让的与Surface相关的流程和MediaCodec全部相同。

但创建共享上下文的法律办法对许多安卓开发者而言门槛较高。第二套方案是在流程开使英语 英语 时创建原来无效的纹理,机会Surface Texture可把纹理附加至Surface Texture上,另原来只需在第一次渲染时把你许多在渲染进程创建的大约纹理附上加即可。