WebRTC 的音频引擎封装了音频设备的统一接口, 使用者不用关心代码是 Windows, Mac OS X, Linux , iOS 或者 Android 等平台. 这也是一件非常棒的事情, 这个封装如果抽取出来, 就是一个优秀的跨平台音频接口(Audio API).
这里提供一个示例, 讲解如何使用 WebRTC 的 C/C++ API 进行录音和播放声音. 首先, 引入头文件:
#include "webrtc/modules/audio_device/include/audio_device.h"
初始化, 并列出所有的录音设备(有几个麦克风):
webrtc::AudioDeviceModule *audio; audio = webrtc::CreateAudioDeviceModule(0, webrtc::AudioDeviceModule::kPlatformDefaultAudio); audio->Init(); num = audio->RecordingDevices(); printf("Input devices: %d\n", num); for(int i=0; i<num; i++){ char name[webrtc::kAdmMaxDeviceNameSize]; char guid[webrtc::kAdmMaxGuidSize]; int ret = audio->RecordingDeviceName(i, name, guid); if(ret != -1){ printf(" %d %s %s\n", i, name, guid); } }
接着, 选中一个麦克风, 初始化后开始录音:
ret = audio->SetRecordingDevice(0); ret = audio->InitRecording(); AudioTransportImpl callback(audio); ret = audio->RegisterAudioCallback(&callback); ret = audio->StartRecording();
不过, 在开始录音之前, 你需要注册一个回调类, 然后在回调方法中把录音得到的数据保存起来. 需要注意的是, 这个回调是在一个单独的线程中执行的, 要注意多线程安全问题.
回调函数 webrtc::AudioTransport::RecordedDataIsAvailable() 并没有什么特殊的, 就是拿到一段 10ms 的音频采样(samples) 进行处理.
播放声音的API和录音的API基本类似.
这里有一个完整的示例代码, 甚至还包括了 VAD(静音检测).
你这个例子,在我那边没有运行成功。即使我将此部分放到一个独立的线程里面运行还是不可以。
请指教。。 Reply