我正在尝试创建一个Android应用程序,该应用程序利用libjingle WebRTC原生Android库,使用WebRTC将用户Android桌面投影到对等方.为此,我已成功使用pristine.io libjingle镜像重新创建Android apprtc示例应用程序:
compile 'io.pristine:libjingle:10531@aar'
在我的应用程序build.gradle文件中.apprtc示例适用于https://apprtc.appspot.com/演示网站.我还创建了一个单独的应用程序,使用MediaProjection
Android API 21中引入的库,按照此处发布的示例,将用户的屏幕记录为H.264编码的mp4文件.
现在,我想将这两个想法结合到一个应用程序中,该应用程序利用来自MediaProjection
和MediaRecorder
/或至少H.264编码文件的原始流作为WebRTC对等连接的视频/音频流.这甚至可能吗?PeerConnection.addStream
libjingle中的方法需要一个实例MediaStream
.如何MediaStream
从原始流或生成的mp4文件创建类型对象?
感谢您提供的任何见解!