点击上方“LiveVideoStack”关注我们
随着国内新媒体技术发展不断创新,互动媒体作为一种全新的媒体方式逐渐受到更多关注。时隔近一年,LiveVideoStack Meet再次来到上海,这次我们仍旧带来了极丰富的内容,希望与新老朋友一同探讨交流,报名已开放,期待会面~
活动时间:2022年10月16日 14:00 ~ 17:00活动地址:上海科技绿洲A区2号楼(国核大厦)312 会议室防疫要求:进入会场需持24小时内核酸阴性证明&健康码绿色!
陈靖,小红书音视频架构部门负责人,从0搭建了音视频算法和工程团队 51Talk - 首席音视频科学家,从0搭建了音视频算法团队 Google Chrome 视频组 - 工程师,参与了VP9/WebRTC的研发 Mindspeed - 高级DSP软件工程师华为中研多媒体部门 - 工程师出版书籍:《深入理解视频编解码标准》翻译:《计算机视觉实战》《RTP协议解析》。
分享将围绕UGC平台要解决的问题有什么独特性?UGC平台的点播和直播分别面临什么样的挑战?UGC平台如何高效且优雅的应对这些挑战?有没有银弹?这些方面详细展开。
柳建平,目前任职于TVU Networks, 担任研发团队副总。带领开发的TVU 直播背包系统,远程制作和导播系统等, 产品在全球广电行业,媒体领域应用广泛。
视频在公网的传输一直是一个挑战性强的任务。实时视频会议,新闻采访,体育节目直播。各种不同的场景对延迟,画质,流畅度和稳定性有不同的要求。另一方面,无线网络从3G,4G, 5G,Wifi到卫星链路,特定各不相同。把他们工作在一起,一方面提供带宽保障,保证视频直播的成功。另一方面也是成本的控制。TVU在这个领域有着10多年的探索和耕耘。演讲回顾多链路视频传输的应用场景、发展历史和常用的技术实现。对未来技术发展方向进行一个探讨。
王倬遥, Nvidia GPU计算专家团队工程师。参于过基于GPU的视频结构化分析处理引擎的研发工作,主要负责视频处理流水线在GPU上的性能分析与优化。
随着互联网技术的发展,直播与短视频行业兴起,越来越多的网络内容以视频服务的方式提供给终端用户。针对不同的的视频业务场景,不断地涌现出各式各样的新的视频处理技术。而如何快速,灵活地针对业务场景,开发高性能的视频处理流水线也成为了一项极富挑战的工作。为此,NVIDIA为客户提供了从硬件到软件,全栈式的视频分析加速技术方案,涵盖了基于硬件加速的编解码技术,基于CUDA加速的图像处理技术,以及AI加速技术,以高效地应对不同的视频处理场景与需求。报告将介绍NVIDIA在视频处理方面提供的各种高性能SDK,以及使用这些SDK在NV GPU上获得SOL性能的视频处理流水线最佳实践。
王文兵,Rokid应用平台算法负责人。毕业于武汉大学国家多媒体软件工程技术研究中心,曾就职于百度、MTK,现在Rokid,从事多年音视频编解码算法、Linux/Android系统与驱动、语音和视觉AI算法技术研究,推动Rokid语音识别前端系统、视觉识别系统等的框架设计与算法落地。目前主要在负责AR场景下的“视-听”体验技术的探索与落地。
Rokid一直致力于探索数字世界与物理世界的融合使命,用户对两个世界感知的一致性,是AR在B端和C端产生价值的重要前提条件。音视频实时通信与体验作为AR产品展现其价值的重要一环,是我们算法团队必克的赤色要塞。本次主要分享RTC在AR产品上的重要应用场景,以及AR下RTC遇到的主要问题,和其相关的一些音视频落地技术,最后会给出我们对于AR下RTC的一些理解和思考。
谢义,英特尔高级软件架构师,专注基于至强服务器平台的视频编解码优化。主题:基于运动矢量重用的视频转码优化。
视频转码是视频相关领域中最重要的业务,消耗大量的算力和带宽。转码有解码和编码两个阶段,在编码中,运动矢量计算又是最为消耗CPU算力的部分,通过复用在解码阶段获取的一次编码的相关运动矢量信息,将其运用在二次编码中,既可以节约大量的计算,又可以提高图像质量、降低码率,再加上英特尔至强服务器平台的AVX512指令集,从而在CPU上获得高效的转码性能。
吴林峰,Zenlayer 全球加速产品总监。深耕边缘云计算领域12 年的技术专家。长期主管音视频点播、互动直播、CDN内容分发产品的研发工作,获得多项专利。
越来越多的中国厂商向海外市场扩张,而海外基础网络环境较薄弱对中国厂商的海外业务扩张造成了巨大挑战。为中国企业提供体验良好的全球实时通信网络成为了海外云厂商的重要目标。本议题将主要从指标的多维搜集、路径的中心计算、路由策略分发和执行等多方面介绍音视频业务场景下的优化手段。
关于LiveVideoStack Meet更多信息你可以访问:https://meet.livevideostack.cn/。
如果你想在LiveVideoStack Meet上输出talk、参与讨论,请联系 [email protected] 。