ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

Harmony Native开发-我的OpenSL ES录音机

2022-01-06 23:01:07  阅读:326  来源: 互联网

标签:鸿蒙 PCM Harmony SL Android OpenSL ES


零、写在前面

最早我是在Android上开发的OpenSL ES。但最近看了下鸿蒙的文档,发现它的底层库也支持OpenSL ES,这我的兴致就来了。简单了解了一下鸿蒙的Native开发,就着手开发起来。移植过程中发现其实对Android程序员还是相当友好的,从Android上移植到鸿蒙并没有太大的改动。这篇文章主要讲的是通以OpenSL ES开发为切入点,鸿蒙怎么进行基本的Native开发。Demo是实现一个录音机,完成录音和播放录音功能。

一、创建我的鸿蒙Native APP

鸿蒙的开发工具和AndroidStudio及其类似,毕竟来自同一家公司的开源,所以使用上也大致差不多,入门成本不高。创建一个native app和AndroidStuio的也类似,在创建项目模板的界面选择Native C++,完成一系列的的项目类型、名称、路径等等配置后就创建了我们的第一个Native C++
在这里插入图片描述
如果你是第一次创建Native项目可能会要你下载开发工具包,那么请你去设置里检查你的这三个选项是否都勾选上了并安装了,主要是第三个选项Native
在这里插入图片描述
项目结构和Android类似,在main路径下比普通的项目多出一个cpp,里面有一个CMakeList和一个返回helloworld的CPP文件,这里就涉及到JNI的内容,如果对JNI不熟悉的可以先去看看我的上一篇博文JNI常用开发技巧,在这我就不再讲CMakeList怎么编写和JNI的流程规范了。

二、开始OpenSL开发

2.1、引入底层库

我在这里主要引入一个OpenSL ES库和一个鸿蒙的日志库,日志库默认已经引入了,我们新建一个C++类OpenSLESRecord,功能全在里面实现,通过它默认创建的那个hello.CPP进行调用.
CMakeList申明OpenSLESRecord库并将它OpenSL ES链接起来,不然找不到OpenSL ES库。

add_library( # Sets the name of the library.
        OpenSLESRecord
        # Sets the library as a shared library.
        SHARED
        # Provides a relative path to your source file(s).
        OpenSLESRecord.cpp)

target_link_libraries( # Specifies the target library.
        OpenSLESRecord
        # Links the target library to the log library
        # included in the NDK.
        OpenSLES
        libhilog_ndk.z.so)

2.2、音频录制背景

讲几个音频的简单概念

  • PCM
    中文叫脉冲编码调制,说人话就是音频模拟量转成数字量,把麦克风采集到的电信号转化为byte数据。我们的录音文件就是xxx.pcm。但是有一点一般的播放器是无法播放PCM的,因为PCM是纯音频数据,没有音频格式信息,无法进行解码,所以只能我们自己的写一个,或者用Adobe Audition播放,但是也要指定音频格式才能播放。
  • 采样格式
    采样格式常见的有8bit,16bit,24bit,32bit。就是数字可以表达的音频信息的范围,比如我们的音频模拟量最高电压为5V,采样格式为8位,那我们最多把模拟信号分成255等分,那每等分中间的电压就是误差。所以采样格式位数越大,误差越小精度越高。
  • 声道
    常见的就是我们平常理解的单声道和双声道还有什么3.1、5.1
  • 声道布局
    就是声道输出的方向,常见的有左耳,右耳,左右耳
  • 采样率
    采样率是设备每秒采集音频信号的速度,常见采样率有8000,16000,44100,96000等,如采样率8000就是每秒采样音频信号8000次
  • 比特率
    是指单位时间内传送的比特(bit)数,单位是bit/s,计算公式是采样格式* 声道数 * 采样率
    那么从上面可以得出,一个PCM录音文件的大小就是
    (采样格式* 声道数 * 采样率 * 时间 / 8)bytes
    录音和播放过程中我们都需要设置这些东西,下面是我录音的PCM格式,SLDataFormat_PCM 结构体就是用于保存这些信息。
    SLDataFormat_PCM slDataFormatPcm = {
            SL_DATAFORMAT_PCM,                             //输出PCM格式的数据
            (SLuint32) 2,                                  //输出的声道数量
            SL_SAMPLINGRATE_44_1,                          //输出的采样频率,这里是44100Hz
            SL_PCMSAMPLEFORMAT_FIXED_16,                   //输出的采样格式,这里是16bit
            SL_PCMSAMPLEFORMAT_FIXED_16,                   //一般来说,跟随上一个参数
            SL_SPEAKER_FRONT_LEFT |SL_SPEAKER_FRONT_RIGHT,  //双声道配置,如果单声道可以用 SL_SPEAKER_FRONT_CENTER
            SL_BYTEORDER_LITTLEENDIAN                      //PCM数据的大小端排列
    };
    

2.2、录音开发流程

在这里插入图片描述
其实把上面的流程再放大了看,其实可以把创建对象->实例化对象->获取接口看做一个流程。下面是前三步的代码

SLresult sLresult= slCreateEngine(&engineObject,
            0,
            NULL,
            0,
            NULL,
            0);
    LOGE("slCreateEngine...");
    if (SL_RESULT_SUCCESS != sLresult){
        return;
    }

    sLresult=(*engineObject)->Realize(engineObject, 0);
    LOGE("slCreateEngine Realize...");
    if (SL_RESULT_SUCCESS != sLresult){
        return;
    }
    
    sLresult=(*engineObject)->GetInterface(engineObject,SL_IID_ENGINE,&audioEngine);
    LOGE("slCreateEngine GetInterface...");
    if (SL_RESULT_SUCCESS != sLresult){
        return;
    }

如果说我们Android开发从C语言角度难以理解,那就从Java角度看一看,(当然只是为了让Java开发的有个大致的概念,实际并非完全如此此)。我们把C的结构体Java的对象的概念做一个替换。其实这就像是一个建造者模式代码,创建对象像是把需要构建的参数传进去,实例化对象像是调用build,我们到这一步才算是拿到了对象。而这个对象的属性里又有其它子模块对象,分别有各自的功能,我们这里是根据ID拿到这个对象的。我们前三步的目的就是为了拿到引擎接口,因为它有实际的方法。看看它的方法结构体构成,以本文用到的三个方法为例,来自OpenSL ES的头文件:

......
	SLresult (*CreateAudioPlayer) (
		SLEngineItf self,
		SLObjectItf * pPlayer,
		SLDataSource *pAudioSrc,
		SLDataSink *pAudioSnk,
		SLuint32 numInterfaces,
		const SLInterfaceID * pInterfaceIds,
		const SLboolean * pInterfaceRequired
	);
	SLresult (*CreateAudioRecorder) (
		SLEngineItf self,
		SLObjectItf * pRecorder,
		SLDataSource *pAudioSrc,
		SLDataSink *pAudioSnk,
		SLuint32 numInterfaces,
		const SLInterfaceID * pInterfaceIds,
		const SLboolean * pInterfaceRequired
	);
	SLresult (*CreateOutputMix) (
		SLEngineItf self,
		SLObjectItf * pMix,
		SLuint32 numInterfaces,
		const SLInterfaceID * pInterfaceIds,
		const SLboolean * pInterfaceRequired
	);
......

理解了前三步,那接下来的三步也是一样的了,最终目的是为了拿到我们的录制接口,调用它的方法,把缓存队列设置好,再给缓存队列设置一个回调,每次队列满了就把数据回调回来,数据处理就在这个回调方法里,我们这里把它写入文件。最好调用录制方法就万事大吉了。

2.3、播放开发流程

在这里插入图片描述
播放流程相对录制流程就多了一个创建混响器,其实也是因为我们的播放器需要这个东西。创建混响器的流程也一样理解就是啦。

2.4 小总结

这里讲的只是一个大致流程,这些大的流程中会需要传入一些参数,这些参数怎么设置基本上也就是一个固定的参数,比如输入设备Id、输出设备Id、PCM格式等等。所以这里不做详解,如果有兴趣可以去github上看我的demo,demo路径会放在文末。

三、上层应用开发

3.1、权限申请

  • 录音权限(麦克风权限)
  • 读写文件权限
    其中录音和写文件权限需要动态申请
    在config.json的里面申明需要的权限
"reqPermissions": [
      {
        "name": "ohos.permission.MICROPHONE"
      },
      {
        "name": "ohos.permission.WRITE_USER_STORAGE"
      },
      {
        "name": "ohos.permission.READ_USER_STORAGE"
      }
    ]

Java层动态请求权限

private void requestPermission() {
        String[] permissions = {
                SystemPermission.WRITE_USER_STORAGE, SystemPermission.MICROPHONE
        };

        requestPermissionsFromUser(Arrays.stream(permissions)
                .filter(permission -> verifySelfPermission(permission) != IBundleManager.PERMISSION_GRANTED).toArray(String[]::new), 0);
    }

3.2、界面编写

三个按钮分别 录音 暂停 和播放

<DirectionalLayout
    xmlns:ohos="http://schemas.huawei.com/res/ohos"
    ohos:height="match_parent"
    ohos:width="match_parent"
    ohos:orientation="vertical">

    <Button
        ohos:background_element="#0099cc"
        ohos:text_color="#ffffff"
        ohos:id="$+id:start_record_button"
        ohos:height="match_content"
        ohos:width="match_parent"
        ohos:start_padding="14vp"
        ohos:end_padding="0vp"
        ohos:padding="10vp"
        ohos:text="开始录音"
        ohos:text_size="16vp"
        ohos:top_margin="30vp"/>

    <Button
        ohos:background_element="#0099cc"
        ohos:text_color="#ffffff"
        ohos:id="$+id:stop_record_button"
        ohos:height="match_content"
        ohos:width="match_parent"
        ohos:start_padding="14vp"
        ohos:end_padding="0vp"
        ohos:padding="10vp"
        ohos:text="停止录音"
        ohos:text_size="16vp"
        ohos:top_margin="10vp"/>
    <Button
        ohos:background_element="#0099cc"
        ohos:text_color="#ffffff"
        ohos:id="$+id:play_record_button"
        ohos:height="match_content"
        ohos:width="match_parent"
        ohos:start_padding="14vp"
        ohos:end_padding="0vp"
        ohos:padding="10vp"
        ohos:text="播放录音"
        ohos:text_size="16vp"
        ohos:top_margin="10vp"/>
</DirectionalLayout>

Java层的就不继续凑字数了,看不懂的可以先看看鸿蒙的官方文档

四、总结

如果你会Android端的OpenSL ES开发,那么鸿蒙端的其实并不难。所以你也可以先从Android或iOS入手OpenSL ES,因为他们的相关文档更多。Native端主要稍微不同的点就是Android端有它自己的BufferQueue,而鸿蒙端是没有的,因为鸿蒙端没有SLES/OpenSLES_Android.h这个头文件,但是问题不大,用自带的BufferQueue-SLBufferQueueItf就行。而上层的话虽说和Android端有不同,但是流程上都是相同的,都有对应的实现方法。主要是在真机上运行那个签名麻烦一点,还要去开发者平台注册应用那些。鸿蒙的IDE正式版2.0的Native开发还有bug,莫名奇妙的爆红和警告,跑起来没任何问题,我换了beta版3.0后就没这个问题的。下面是我写的录音Demo,有兴趣的可以clone下来玩一玩,在它的基础上再发展一下,比如把PCM文件转为wav格式的文件,这样我们的手机就能直接播放了。如果觉得有帮到你也可以点个小星星。欢迎大家讨论和批评指正。
鸿蒙环境下的OpenSL ES开发 GitHub地址

标签:鸿蒙,PCM,Harmony,SL,Android,OpenSL,ES
来源: https://blog.csdn.net/qq_37841321/article/details/122341245

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有