怎样免费建立自己网站,word超链接网站怎么做,wordpress 网格主题,宜宾建设教育培训中心网站常用的音频通话模式包括 VOIP 通话和蜂窝通话。
● VOIP 通话#xff1a;VOIP#xff08;Voice over Internet Protocol#xff09;通话是指基于互联网协议#xff08;IP#xff09;进行通讯的一种语音通话技术。VOIP 通话会将通话信息打包成数据包#xff0c;通过网络进…常用的音频通话模式包括 VOIP 通话和蜂窝通话。
● VOIP 通话VOIPVoice over Internet Protocol通话是指基于互联网协议IP进行通讯的一种语音通话技术。VOIP 通话会将通话信息打包成数据包通过网络进行传输因此 VOIP 通话对网络要求较高通话质量与网络连接速度紧密相关。
● 蜂窝通话仅对系统应用开放蜂窝通话是指传统的电话功能由运营商提供服务目前仅对系统应用开放未向三方应用提供开发接口。
在开发音频通话相关功能时开发者可以根据实际情况检查当前的音频场景模式和铃声模式以使用相应的音频处理策略。
音频场景模式
应用使用音频通话相关功能时系统会切换至与通话相关的音频场景模式AudioScene当前预置了多种音频场景包括响铃、通话、语音聊天等在不同的场景下系统会采用不同的策略来处理音频。
当前预置的音频场景
● AUDIO_SCENE_DEFAULT默认音频场景音频通话之外的场景均可使用。
● AUDIO_SCENE_VOICE_CHAT语音聊天音频场景VOIP 通话时使用。
应用可通过AudioManager的 getAudioScene 来获取当前的音频场景模式。当应用开始或结束使用音频通话相关功能时可通过此方法检查系统是否已切换为合适的音频场景模式。
铃声模式
在用户进入到音频通话时应用可以使用铃声或振动来提示用户。系统通过调整铃声模式AudioRingMode实现便捷地管理铃声音量并调整设备的振动模式。
当前预置的三种铃声模式
● RINGER_MODE_SILENT静音模式此模式下铃声音量为零即静音。
● RINGER_MODE_VIBRATE振动模式此模式下铃声音量为零设备振动开启即响铃时静音触发振动。
● RINGER_MODE_NORMAL响铃模式此模式下铃声音量正常。
应用可以调用AudioVolumeGroupManager中的 getRingerMode 获取当前的铃声模式以便采取合适的提示策略。
如果应用希望及时获取铃声模式的变化情况可以通过 AudioVolumeGroupManager 中的 on(ringerModeChange)监听铃声模式变化事件使应用在铃声模式发生变化时及时收到通知方便应用做出相应的调整。
通话场景音频设备切换
在通话场景下系统会根据默认优先级选择合适的音频设备。应用可以根据需要自主切换音频设备。
通信设备类型CommunicationDeviceType是系统预置的可用于通话场景的设备应用可以使用AudioRoutingManager的 isCommunicationDeviceActive 函数获取指定通信设备的激活状态并且可以使用 AudioRoutingManager 的 setCommunicationDevice 设置通信设备的激活状态通过激活设备来实现通话场景音频设备的切换。
在音频通话场景下音频输出播放对端声音和音频输入录制本端声音会同时进行应用可以通过使用 AudioRenderer 来实现音频输出通过使用 AudioCapturer 来实现音频输入同时使用 AudioRenderer 和 AudioCapturer 即可实现音频通话功能。
开发音视频通话功能
在音频通话开始和结束时应用可以自行检查当前的音频场景模式和铃声模式以便采取合适的音频管理及提示策略。
以下代码示范了同时使用 AudioRenderer 和 AudioCapturer 实现音频通话功能的基本过程其中未包含音频通话数据的传输过程实际开发中需要将网络传输来的对端通话数据解码播放此处仅以读取音频文件的数据代替同时需要将本端录制的通话数据编码打包通过网络发送给对端此处仅以将数据写入音频文件代替。
使用 AudioRenderer 播放对端的通话声音
该过程与使用AudioRenderer开发音频播放功能过程相似关键区别在于 audioRenderInfo 参数和音频数据来源。audioRenderInfo 参数中音频内容类型需设置为语音CONTENT_TYPE_SPEECH音频流使用类型需设置为语音通信STREAM_USAGE_VOICE_COMMUNICATION。 import audio from ohos.multimedia.audio;import fs from ohos.file.fs;const TAG VoiceCallDemoForAudioRenderer;// 与使用AudioRenderer开发音频播放功能过程相似关键区别在于audioRendererInfo参数和音频数据来源export default class VoiceCallDemoForAudioRenderer { private renderModel undefined; private audioStreamInfo { samplingRate: audio.AudioSamplingRate.SAMPLE_RATE_48000, // 采样率 channels: audio.AudioChannel.CHANNEL_2, // 通道 sampleFormat: audio.AudioSampleFormat.SAMPLE_FORMAT_S16LE, // 采样格式 encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW // 编码格式 } private audioRendererInfo { // 需使用通话场景相应的参数 content: audio.ContentType.CONTENT_TYPE_SPEECH, // 音频内容类型语音 usage: audio.StreamUsage.STREAM_USAGE_VOICE_COMMUNICATION, // 音频流使用类型语音通信 rendererFlags: 0 // 音频渲染器标志默认为0即可 } private audioRendererOptions { streamInfo: this.audioStreamInfo, rendererInfo: this.audioRendererInfo } // 初始化创建实例设置监听事件 init() { audio.createAudioRenderer(this.audioRendererOptions, (err, renderer) { // 创建AudioRenderer实例 if (!err) { console.info(${TAG}: creating AudioRenderer success); this.renderModel renderer; this.renderModel.on(stateChange, (state) { // 设置监听事件当转换到指定的状态时触发回调 if (state 1) { console.info(audio renderer state is: STATE_PREPARED); } if (state 2) { console.info(audio renderer state is: STATE_RUNNING); } }); this.renderModel.on(markReach, 1000, (position) { // 订阅markReach事件当渲染的帧数达到1000帧时触发回调 if (position 1000) { console.info(ON Triggered successfully); } }); } else { console.info(${TAG}: creating AudioRenderer failed, error: ${err.message}); } }); } // 开始一次音频渲染 async start() { let stateGroup [audio.AudioState.STATE_PREPARED, audio.AudioState.STATE_PAUSED, audio.AudioState.STATE_STOPPED]; if (stateGroup.indexOf(this.renderModel.state) -1) { // 当且仅当状态为STATE_PREPARED、STATE_PAUSED和STATE_STOPPED之一时才能启动渲染 console.error(TAG start failed); return; } await this.renderModel.start(); // 启动渲染 const bufferSize await this.renderModel.getBufferSize(); // 此处仅以读取音频文件的数据举例实际音频通话开发中需要读取的是通话对端传输来的音频数据 let context getContext(this); let path context.filesDir; const filePath path /voice_call_data.wav; // 沙箱路径实际路径为/data/storage/el2/base/haps/entry/files/voice_call_data.wav let file fs.openSync(filePath, fs.OpenMode.READ_ONLY); let stat await fs.stat(filePath); let buf new ArrayBuffer(bufferSize); let len stat.size % bufferSize 0 ? Math.floor(stat.size / bufferSize) : Math.floor(stat.size / bufferSize 1); for (let i 0; i len; i) { let options { offset: i * bufferSize, length: bufferSize }; let readsize await fs.read(file.fd, buf, options); // buf是要写入缓冲区的音频数据在调用AudioRenderer.write()方法前可以进行音频数据的预处理实现个性化的音频播放功能AudioRenderer会读出写入缓冲区的音频数据进行渲染 let writeSize await new Promise((resolve, reject) { this.renderModel.write(buf, (err, writeSize) { if (err) { reject(err); } else { resolve(writeSize); } }); }); if (this.renderModel.state audio.AudioState.STATE_RELEASED) { // 如果渲染器状态为STATE_RELEASED停止渲染 fs.close(file); await this.renderModel.stop(); } if (this.renderModel.state audio.AudioState.STATE_RUNNING) { if (i len - 1) { // 如果音频文件已经被读取完停止渲染 fs.close(file); await this.renderModel.stop(); } } } } // 暂停渲染 async pause() { // 只有渲染器状态为STATE_RUNNING的时候才能暂停 if (this.renderModel.state ! audio.AudioState.STATE_RUNNING) { console.info(Renderer is not running); return; } await this.renderModel.pause(); // 暂停渲染 if (this.renderModel.state audio.AudioState.STATE_PAUSED) { console.info(Renderer is paused.); } else { console.error(Pausing renderer failed.); } } // 停止渲染 async stop() { // 只有渲染器状态为STATE_RUNNING或STATE_PAUSED的时候才可以停止 if (this.renderModel.state ! audio.AudioState.STATE_RUNNING this.renderModel.state ! audio.AudioState.STATE_PAUSED) { console.info(Renderer is not running or paused.); return; } await this.renderModel.stop(); // 停止渲染 if (this.renderModel.state audio.AudioState.STATE_STOPPED) { console.info(Renderer stopped.); } else { console.error(Stopping renderer failed.); } } // 销毁实例释放资源 async release() { // 渲染器状态不是STATE_RELEASED状态才能release if (this.renderModel.state audio.AudioState.STATE_RELEASED) { console.info(Renderer already released); return; } await this.renderModel.release(); // 释放资源 if (this.renderModel.state audio.AudioState.STATE_RELEASED) { console.info(Renderer released); } else { console.error(Renderer release failed.); } }}
使用 AudioCapturer 录制本端的通话声音
该过程与使用AudioCapturer开发音频录制功能过程相似关键区别在于 audioCapturerInfo 参数和音频数据流向。audioCapturerInfo 参数中音源类型需设置为语音通话SOURCE_TYPE_VOICE_COMMUNICATION。 import audio from ohos.multimedia.audio;import fs from ohos.file.fs;const TAG VoiceCallDemoForAudioCapturer;// 与使用AudioCapturer开发音频录制功能过程相似关键区别在于audioCapturerInfo参数和音频数据流向export default class VoiceCallDemoForAudioCapturer { private audioCapturer undefined; private audioStreamInfo { samplingRate: audio.AudioSamplingRate.SAMPLE_RATE_44100, // 采样率 channels: audio.AudioChannel.CHANNEL_1, // 通道 sampleFormat: audio.AudioSampleFormat.SAMPLE_FORMAT_S16LE, // 采样格式 encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW // 编码格式 } private audioCapturerInfo { // 需使用通话场景相应的参数 source: audio.SourceType.SOURCE_TYPE_VOICE_COMMUNICATION, // 音源类型语音通话 capturerFlags: 0 // 音频采集器标志默认为0即可 } private audioCapturerOptions { streamInfo: this.audioStreamInfo, capturerInfo: this.audioCapturerInfo } // 初始化创建实例设置监听事件 init() { audio.createAudioCapturer(this.audioCapturerOptions, (err, capturer) { // 创建AudioCapturer实例 if (err) { console.error(Invoke createAudioCapturer failed, code is ${err.code}, message is ${err.message}); return; } console.info(${TAG}: create AudioCapturer success); this.audioCapturer capturer; this.audioCapturer.on(markReach, 1000, (position) { // 订阅markReach事件当采集的帧数达到1000时触发回调 if (position 1000) { console.info(ON Triggered successfully); } }); this.audioCapturer.on(periodReach, 2000, (position) { // 订阅periodReach事件当采集的帧数达到2000时触发回调 if (position 2000) { console.info(ON Triggered successfully); } }); }); } // 开始一次音频采集 async start() { let stateGroup [audio.AudioState.STATE_PREPARED, audio.AudioState.STATE_PAUSED, audio.AudioState.STATE_STOPPED]; if (stateGroup.indexOf(this.audioCapturer.state) -1) { // 当且仅当状态为STATE_PREPARED、STATE_PAUSED和STATE_STOPPED之一时才能启动采集 console.error(${TAG}: start failed); return; } await this.audioCapturer.start(); // 启动采集 // 此处仅以将音频数据写入文件举例实际音频通话开发中需要将本端采集的音频数据编码打包通过网络发送给通话对端 let context getContext(this); const path context.filesDir /voice_call_data.wav; // 采集到的音频文件存储路径 let file fs.openSync(path, 0o2 | 0o100); // 如果文件不存在则创建文件 let fd file.fd; let numBuffersToCapture 150; // 循环写入150次 let count 0; while (numBuffersToCapture) { let bufferSize await this.audioCapturer.getBufferSize(); let buffer await this.audioCapturer.read(bufferSize, true); let options { offset: count * bufferSize, length: bufferSize }; if (buffer undefined) { console.error(${TAG}: read buffer failed); } else { let number fs.writeSync(fd, buffer, options); console.info(${TAG}: write date: ${number}); } numBuffersToCapture--; count; } } // 停止采集 async stop() { // 只有采集器状态为STATE_RUNNING或STATE_PAUSED的时候才可以停止 if (this.audioCapturer.state ! audio.AudioState.STATE_RUNNING this.audioCapturer.state ! audio.AudioState.STATE_PAUSED) { console.info(Capturer is not running or paused); return; } await this.audioCapturer.stop(); // 停止采集 if (this.audioCapturer.state audio.AudioState.STATE_STOPPED) { console.info(Capturer stopped); } else { console.error(Capturer stop failed); } } // 销毁实例释放资源 async release() { // 采集器状态不是STATE_RELEASED或STATE_NEW状态才能release if (this.audioCapturer.state audio.AudioState.STATE_RELEASED || this.audioCapturer.state audio.AudioState.STATE_NEW) { console.info(Capturer already released); return; } await this.audioCapturer.release(); // 释放资源 if (this.audioCapturer.state audio.AudioState.STATE_RELEASED) { console.info(Capturer released); } else { console.error(Capturer release failed); } }}