1. AudioTrack 的工作流程
首先,我们了解一下 AudioTrack 的工作流程:
(1) 配置参数,初始化内部的音频播放缓冲区
(2) 开始播放
(3) 需要一个线程,不断地向 AudioTrack 的缓冲区“写入”音频数据,注意,这个过程一定要及时,否则就会出现“underrun”的错误,该错误在音频开发中比较常见,意味着应用层没有及时地“送入”音频数据,导致内部的音频播放缓冲区为空。
(4) 停止播放,释放资源
2. AudioTrack 的参数配置
上面是 AudioTrack 的构造函数原型,主要靠构造函数来配置相关的参数,下面一一解释(再次建议先阅读一下《Android音频开发(1):基础知识》):
(1) streamType
这个参数代表着当前应用使用的哪一种音频管理策略,当系统有多个进程需要播放音频时,这个管理策略会决定最终的展现效果,该参数的可选的值以常量的形式定义在 AudioManager 类中,主要包括:
STREAM_VOCIE_CALL:电话声音
STREAM_SYSTEM:系统声音
STREAM_RING:铃声
STREAM_MUSCI:音乐声
STREAM_ALARM:警告声
STREAM_NOTIFICATION:通知声
(2) sampleRateInHz
采样率,从AudioTrack源码的“audioParamCheck”函数可以看到,这个采样率的取值范围必须在 4000Hz~192000Hz 之间。
(3) channelConfig
通道数的配置,可选的值以常量的形式定义在 AudioFormat 类中,常用的是 CHANNEL_IN_MONO(单通道),CHANNEL_IN_STEREO(双通道)
(4) audioFormat
这个参数是用来配置“数据位宽”的,可选的值也是以常量的形式定义在 AudioFormat 类中,常用的是 ENCODING_PCM_16BIT(16bit),ENCODING_PCM_8BIT(8bit),注意,前者是可以保证兼容所有Android手机的。
(5) bufferSizeInBytes
这个是最难理解又最重要的一个参数,它配置的是 AudioTrack 内部的音频缓冲区的大小,该缓冲区的值不能低于一帧“音频帧”(Frame)的大小,而前一篇文章介绍过,一帧音频帧的大小计算如下:
int size = 采样率 x 位宽 x 采样时间 x 通道数
采样时间一般取 2.5ms~120ms 之间,由厂商或者具体的应用决定,我们其实可以推断,每一帧的采样时间取得越短,产生的延时就应该会越小,当然,碎片化的数据也就会越多。
在Android开发中,AudioTrack 类提供了一个帮助你确定这个 bufferSizeInBytes 的函数,原型如下:
int getMinBufferSize(int sampleRateInHz, int channelConfig, int audioFormat);
不同的厂商的底层实现是不一样的,但无外乎就是根据上面的计算公式得到一帧的大小,音频缓冲区的大小则必须是一帧大小的2~N倍,有兴趣的朋友可以继续深入源码探究探究。
实际开发中,强烈建议由该函数计算出需要传入的 bufferSizeInBytes,而不是自己手动计算。
(6) mode
AudioTrack 提供了两种播放模式,一种是 static 方式,一种是 streaming 方式,前者需要一次性将所有的数据都写入播放缓冲区,简单高效,通常用于播放铃声、系统提醒的音频片段; 后者则是按照一定的时间间隔不间断地写入音频数据,理论上它可用于任何音频播放的场景。
可选的值以常量的形式定义在 AudioTrack 类中,一个是 MODE_STATIC,另一个是 MODE_STREAM,根据具体的应用传入对应的值即可。
4. 示例代码
我将 AudioTrack 类的接口简单封装了一下,提供了一个 AudioPlayer 类,可以到我的Github下载:https://github.com/Jhuster/Android/blob/master/Audio/AudioPlayer.java
这里也贴出来一份:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
|
/*
* COPYRIGHT NOTICE
* Copyright (C) 2016, Jhuster <lujun.hust@gmail.com>
* https://github.com/Jhuster/Android
*
* @license under the Apache License, Version 2.0
*
* @file AudioPlayer.java
*
* @version 1.0
* @author Jhuster
* @date 2016/03/13
*/
package
com.jhuster.audiodemo;
import
android.util.Log;
import
android.media.AudioFormat;
import
android.media.AudioManager;
import
android.media.AudioTrack;
public
class
AudioPlayer {
private
static
final
String TAG =
"AudioPlayer"
;
private
static
final
int
DEFAULT_STREAM_TYPE = AudioManager.STREAM_MUSIC;
private
static
final
int
DEFAULT_SAMPLE_RATE =
44100
;
private
static
final
int
DEFAULT_CHANNEL_CONFIG = AudioFormat.CHANNEL_IN_STEREO;
private
static
final
int
DEFAULT_AUDIO_FORMAT = AudioFormat.ENCODING_PCM_16BIT;
private
static
final
int
DEFAULT_PLAY_MODE = AudioTrack.MODE_STREAM;
private
boolean
mIsPlayStarted =
false
;
private
int
mMinBufferSize =
0
;
private
AudioTrack mAudioTrack;
public
boolean
startPlayer() {
return
startPlayer(DEFAULT_STREAM_TYPE,DEFAULT_SAMPLE_RATE,DEFAULT_CHANNEL_CONFIG,DEFAULT_AUDIO_FORMAT);
}
public
boolean
startPlayer(
int
streamType,
int
sampleRateInHz,
int
channelConfig,
int
audioFormat) {
if
(mIsPlayStarted) {
Log.e(TAG,
"Player already started !"
);
return
false
;
}
mMinBufferSize = AudioTrack.getMinBufferSize(sampleRateInHz,channelConfig,audioFormat);
if
(mMinBufferSize == AudioTrack.ERROR_BAD_VALUE) {
Log.e(TAG,
"Invalid parameter !"
);
return
false
;
}
Log.d(TAG ,
"getMinBufferSize = "
+mMinBufferSize+
" bytes !"
);
mAudioTrack =
new
AudioTrack(streamType,sampleRateInHz,channelConfig,audioFormat,mMinBufferSize,DEFAULT_PLAY_MODE);
if
(mAudioTrack.getState() == AudioTrack.STATE_UNINITIALIZED) {
Log.e(TAG,
"AudioTrack initialize fail !"
);
return
false
;
}
mIsPlayStarted =
true
;
Log.d(TAG,
"Start audio player success !"
);
return
true
;
}
public
int
getMinBufferSize() {
return
mMinBufferSize;
}
public
void
stopPlayer() {
if
(!mIsPlayStarted) {
return
;
}
if
(mAudioTrack.getPlayState() == AudioTrack.PLAYSTATE_PLAYING) {
mAudioTrack.stop();
}
mAudioTrack.release();
mIsPlayStarted =
false
;
Log.d(TAG,
"Stop audio player success !"
);
}
public
boolean
play(
byte
[] audioData,
int
offsetInBytes,
int
sizeInBytes) {
if
(!mIsPlayStarted) {
Log.e(TAG,
"Player not started !"
);
return
false
;
}
if
(sizeInBytes < mMinBufferSize) {
Log.e(TAG,
"audio data is not enough !"
);
return
false
;
}
if
(mAudioTrack.write(audioData,offsetInBytes,sizeInBytes) != sizeInBytes) {
Log.e(TAG,
"Could not write all the samples to the audio device !"
);
}
mAudioTrack.play();
Log.d(TAG ,
"OK, Played "
+sizeInBytes+
" bytes !"
);
return
true
;
}
}
|
本文转自 Jhuster 51CTO博客,原文链接:http://blog.51cto.com/ticktick/1750593,如需转载请自行联系原作者