簡介
OpenAtom OpenHarmony(以下簡稱“OpenHarmony”)是由開放原子開源基金會孵化及運營的開源項目,是面向全場景、全連接、全智能時代的智能物聯(lián)網(wǎng)操作系統(tǒng)。
多媒體子系統(tǒng)是OpenHarmony系統(tǒng)中的核心子系統(tǒng),為系統(tǒng)提供了相機(jī)、音頻和視頻等多媒體功能。多媒體子系統(tǒng)的音頻模塊、音頻錄音功能可以提供兩套接口,一是由ohos.multimedia.media提供的AudioRecorder接口,能夠直接設(shè)置錄音保存的文件路徑,在錄制結(jié)束以后自動生成對應(yīng)的錄音文件,代碼編寫比較簡單;二是由ohos.multimedia.audio提供的AudioCapturer接口,能夠獲得錄音過程中的PCM數(shù)據(jù),并對數(shù)據(jù)進(jìn)行處理。由于Capturer接口對于原始數(shù)據(jù)的處理更加靈活,今天就和大家介紹通過Capturer接口實現(xiàn)錄音變速的功能的方法。
效果展示
通過Capturer接口實現(xiàn)音頻的錄制,在錄制過程中對PCM數(shù)據(jù)進(jìn)行重采樣實現(xiàn)聲音的快放和慢放。
詳細(xì)效果請看下方視頻:
首先設(shè)置錄音加速或者錄音減速,設(shè)置完成以后點擊“錄音開始”按鈕進(jìn)行錄音,點擊“錄音結(jié)束”按鈕停止錄音,再通過點擊“播放開始”對錄音的音頻進(jìn)行播放,播放的音頻是設(shè)置后的加速或者減速效果。
代碼已經(jīng)上傳至SIG倉庫,鏈接如下:
https://gitee.com/openharmony-sig/knowledge_demo_entainment/tree/master/FA/AudioChangeDemo
目錄結(jié)構(gòu)

調(diào)用流程
1.Start的框架層調(diào)用流程

2. Read的框架層調(diào)用流程

源碼分析
1.首先看一下頁面的布局,主要分為四個模塊:(1)設(shè)置錄音加速
設(shè)置錄音加速:
1.25倍速
1.5倍速
1.75倍速
2倍速
(2)設(shè)置錄音減速
設(shè)置錄音減速:
0.75倍速
0.5倍速
(3)錄音
錄音:
錄音開始
錄音結(jié)束
(4)播放
播放:
播放開始
播放結(jié)束
class="video"
src="{{url}}"
autoplay="{{ autoplay }}"
controls="{{ controlShow }}"
muted="false"
onseeked="seeked"
onprepared="prepared"
>
2.邏輯代碼在JS中:
(1)首先通過AudioCapturer接口獲取到PCM數(shù)據(jù),再通過調(diào)用AudioCapturer的start接口來啟動錄音流程。
globalThis.capturer.start().then(function () {
console.log("gyf start");
globalThis.capturer.getBufferSize((err, bufferSize) => {
if (err) {
console.error('gyf getBufferSize error');
} else {
console.log("gyf bufferSize = " + bufferSize);
globalThis.getBuf(bufferSize);
}
});
});
(2)啟動成功以后,getBuf會調(diào)用到getData函數(shù),getData函數(shù)通過AudioCapturer的read方法來讀取數(shù)據(jù),成功讀取到數(shù)據(jù)以后,通過handleBuffer函數(shù)對數(shù)據(jù)進(jìn)行處理。handleBuffer函數(shù)的參數(shù)arrayBuffer就是通過read方法讀取出來的pcm數(shù)據(jù),在handleBuffer中對數(shù)據(jù)進(jìn)行了快速播放或者慢速播放的處理。
//循環(huán)調(diào)用read,進(jìn)行數(shù)據(jù)的讀取
handleBuffer(arrayBuffer) {
console.log("gyf handleBuffer");
let result = new Uint8Array(arrayBuffer);
console.log("gyf handleBuffer ================== " + result);
let outData = this.test(result, up, down);
fileio.writeSync(globalThis.fd, outData.buffer);
globalThis.capturer.read(globalThis.bufSize, true).then(this.handleBuffer);
},
getData(bufSize) {
console.log("gyf getData");
globalThis.capturer.read(bufSize, true).then(this.handleBuffer);
},
getBuf(bufSize) {
console.log("gyf getBuf");
this.getData(bufSize);
},
(3)快速播放或者慢速播放是通過up和down兩個方法的組合來實現(xiàn)的,down方法的原理是對PCM數(shù)據(jù)進(jìn)行插值處理,在相鄰兩點間插入down個采樣點,up方法的原理是間隔抽取,間隔up個點進(jìn)行抽取采樣。
up(data, up) {
if (1 == up) {
return data;
}
let length = data.byteLength;
let upLength = Math.round(length / up);
var upData = new Uint8Array(upLength);
for (var i = 0, j = 0; i < length; ) {
if (j >= upLength) {
break;
}
upData[j] = data[i];
i += up;
j++;
}
return upData;
},
down(data, down) {
if (1 == down) {
return data;
}
let length = data.byteLength;
let downLength = Math.round(length * down);
var downData = new Uint8Array(downLength);
for (var i = 0, j = 0; i < length - 1; ) {
for (var k = 0; k < down; k++) {
downData[j] = data[i];
j++;
}
i++;
}
return downData;
},
(4)將down和up的方法組合調(diào)用,來實現(xiàn)1.25倍、1.5倍、1.75倍、2倍、0.75倍、0.5倍的速度播放。
test(data, up, down) {
let downData = this.down(data, down);
let upData = this.up(downData, up);
return upData;
},
(5)播放wav格式的音頻文件,采集獲取PCM數(shù)據(jù),需要我們根據(jù)設(shè)置的參數(shù)對pcm數(shù)據(jù)進(jìn)行添加wav的頭部信息,通過創(chuàng)建AudioCapturer實例的時候設(shè)置采集音頻的參數(shù),如采樣率、通道數(shù)、采樣格式等。
//音頻采集初始化
var audioStreamInfo = {
samplingRate: audio.AudioSamplingRate.SAMPLE_RATE_8000,
channels: audio.AudioChannel.CHANNEL_1,
sampleFormat: audio.AudioSampleFormat.SAMPLE_FORMAT_U8,
encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW
}
var audioCapturerInfo = {
source: audio.SourceType.SOURCE_TYPE_MIC,
capturerFlags: 1
}
var audioCapturerOptions = {
streamInfo: audioStreamInfo,
capturerInfo: audioCapturerInfo
}
let that = this;
audio.createAudioCapturer(audioCapturerOptions,(err, data) => {
if (err) {
console.error(`gyf AudioCapturer Created : Error: ${err.message}`);
}
else {
console.info('gyf AudioCapturer Created : Success : SUCCESS');
that.capturer = data;
}
});
(6)根據(jù)這些參數(shù)設(shè)置的信息需要對wav文件寫入文件頭,頭信息一般包含44個字節(jié),里面需要設(shè)置三個chunk的信息(RIFF chunk、fmt chunk、data chunk),具體的信息可以查看官網(wǎng)的介紹WAV文件格式介紹(http://www-mmsp.ece.mcgill.ca/Documents/AudioFormats/WAVE/WAVE.html)。
//假設(shè)數(shù)據(jù)為1000秒鐘的時間(8000 * 1000)
encodeWAV() {
var dataLen = 8000000;
var sampleRate = 8000;
var sampleBits = 8;
var buffer = new ArrayBuffer(44);
var data = new DataView(buffer);
var channelCount = 1; // 單聲道
var offset = 0;
// 資源交換文件標(biāo)識符
this.writeString(data, offset, 'RIFF'); offset += 4;
// 下個地址開始到文件尾總字節(jié)數(shù),即文件大小-8
data.setUint32(offset, 36 + dataLen, true); offset += 4;
// WAV文件標(biāo)志
this.writeString(data, offset, 'WAVE'); offset += 4;
// 波形格式標(biāo)志
this.writeString(data, offset, 'fmt '); offset += 4;
// 過濾字節(jié),一般為 0x10 = 16
data.setUint32(offset, 16, true); offset += 4;
// 格式類別 (PCM形式采樣數(shù)據(jù))
data.setUint16(offset, 1, true); offset += 2;
// 通道數(shù)
data.setUint16(offset, channelCount, true); offset += 2;
// 采樣率,每秒樣本數(shù),表示每個通道的播放速度
data.setUint32(offset, sampleRate, true); offset += 4;
// 波形數(shù)據(jù)傳輸率 (每秒平均字節(jié)數(shù)) 單聲道×每秒數(shù)據(jù)位數(shù)×每樣本數(shù)據(jù)位/8
data.setUint32(offset, channelCount * sampleRate * (sampleBits / 8), true); offset += 4;
// 快數(shù)據(jù)調(diào)整數(shù) 采樣一次占用字節(jié)數(shù) 單聲道×每樣本的數(shù)據(jù)位數(shù)/8
data.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2;
// 每樣本數(shù)據(jù)位數(shù)
data.setUint16(offset, sampleBits, true); offset += 2;
// 數(shù)據(jù)標(biāo)識符
this.writeString(data, offset, 'data'); offset += 4;
// 采樣數(shù)據(jù)總數(shù),即數(shù)據(jù)總大小-44
data.setUint32(offset, dataLen, true); offset += 4;
return data;
},
總結(jié)
本文介紹了通過使用OpenHarmony音頻模塊的AudioCapturer接口實現(xiàn)錄音功能。AudioCapturer接口對于原始數(shù)據(jù)的處理非常靈活,能夠?qū)Σ杉臄?shù)據(jù)進(jìn)行插值/抽值的重采樣處理,并將處理后的音頻處理保存至本地文件。由于本地文件使用的是WAV格式,故在寫數(shù)據(jù)前需要對WAV文件進(jìn)行頭部信息的添加,這些信息可以根據(jù)創(chuàng)建AudioCapturer時設(shè)置的參數(shù)來進(jìn)行設(shè)置,以此保證頭部信息的準(zhǔn)確性,最后再通過應(yīng)用層的video組件對音頻數(shù)據(jù)進(jìn)行播放。
希望這篇文章能為開發(fā)者提供一些新的思路,從而進(jìn)行其他場景的拓展,例如將獲取到采集的數(shù)據(jù)通過這種方式實現(xiàn)語音識別、語音轉(zhuǎn)寫等功能,在實踐開發(fā)的過程中為OpenHarmony生態(tài)的發(fā)展貢獻(xiàn)一份力量。
審核編輯:湯梓紅
-
接口
+關(guān)注
關(guān)注
33文章
9005瀏覽量
153779 -
音頻模塊
+關(guān)注
關(guān)注
1文章
148瀏覽量
12642 -
OpenHarmony
+關(guān)注
關(guān)注
29文章
3854瀏覽量
18641
原文標(biāo)題:如何通過OpenHarmony的音頻模塊實現(xiàn)錄音變速功能?
文章出處:【微信號:gh_e4f28cfa3159,微信公眾號:OpenAtom OpenHarmony】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
請問如何通過hdmi接口實現(xiàn)控制單反拍照及錄像
怎樣使用IWeb接口實現(xiàn)HTTPS的功能
esp32能否通過AT接口實現(xiàn)modbusTCP slaver的功能?
如何通過OpenHarmony的音頻模塊實現(xiàn)錄音變速功能?
小波變換在語音變速上的應(yīng)用
如何通過STM32的串口實現(xiàn)簡易脫機(jī)編程器
SPI總線接口實現(xiàn)數(shù)據(jù)傳輸?shù)?b class='flag-5'>實現(xiàn)方法
語音變換的語音篡改檢測方法

ARM與FPGA的接口實現(xiàn)的解析

C#-Interface接口實現(xiàn)

通過標(biāo)準(zhǔn)的CAN接口實現(xiàn)的測試臺自動化解決方案
基于XML語言描述的接口實現(xiàn)方法

RK3399 Ubuntu通過Python實現(xiàn)錄音和播放功能

評論