Web端音视频通话的实现

请问Web端音视频通话的底层实现原理是怎么实现的呢?使用的协议是什么呢?
与这个帖子的答案相同吗?

Agora Web SDK 是基于开源的 WebRTC 技术的,由浏览器负责采集、编码和解码,我们 SDK 主要是实现传输部分,传输走的是 Agora SD-RTN。

谢谢

所以请问Agora的底层原理实际就是WebRTC的底层实现原理吗?使用的协议就是RTMP?

可以这么理解。你可以google看下webrtc的底层实现原理

感谢答复

不客气