Android 調用自帶的錄制音頻程序 Android中有自帶的音頻錄制程序,我們可以通過指定一個Action MediaStore.Audio.Media.RECORD_SOUND_ACTION的Intent來
啟動它就可以了。然後在onActivityResult()方法中,獲取Intent的Data,就是錄制的音頻對應的URI。
java代碼:
代碼如下:
package eoe.demo;
import android.app.Activity;
import android.content.Intent;
import android.net.Uri;
import android.os.Bundle;
import android.provider.MediaStore;
import android.view.View;
import android.widget.Toast;
/**
* 被實例演示如何調用Android自帶的應用來完成Audio的錄入
* 其實很簡單,我們需要指定一個MediaStore.Audio.Media.RECORD_SOUND_ACTION的Action來啟動就可以
* 返回的Data數據就是我們錄制的音頻的URI了
*
* 通過上面這種方式,靈活性不夠高,我們可以利用MediaRecorder類來實現自己的音頻錄制程序
* MediaRecorder既可以用來錄制音頻,也可以用來錄制視頻
* 創建了一個MediaRecorder實例後,需要調用setAudioSource和setAudioEncoder來初始化
* 通常情況下,在准備錄制前,我們還需要調用setOutputFormat()方法來決定使用的音頻格式,同時調用
* setOutputFile()來指定存放錄制內容的文件
*
* 這幾個方法的調用順序是:setAudioSource,setOutputFormat,setAudioEncoder,setOutputFile
*
*
*
* @author Administrator
*
*/
public class AudioRecordDemo extends Activity {
public void onCreate(Bundle savedInstanceState){
super.onCreate(savedInstanceState);
setContentView(R.layout.audio_record);
}
public void onActivityResult(int requestCode, int resultCode, Intent data){
//super.onActivityResult(requestCode, resultCode, data);
//這裡我們就可以獲取到剛剛錄制的音頻的Uri,可以進行播放等操作,這裡顯示返回的Uri
if(resultCode == RESULT_OK){
Uri audioPath = data.getData();
Toast.makeText(this, audioPath.toString(), Toast.LENGTH_LONG).show();
}
}
public void onClick(View v){
int id = v.getId();
switch(id){
case R.id.btn1: //調用Android自帶的音頻錄制應用
Intent intent = new Intent(MediaStore.Audio.Media.RECORD_SOUND_ACTION);
startActivityForResult(intent, 0);
break;
case R.id.btn2:
//通過MediaRecorder類來實現自己的音頻錄制程序
Intent intent2 = new Intent();
intent2.setClass(this, MyAudioRecord.class);
startActivityForResult(intent2, 1);
break;
case R.id.btn3:
//通過AudioRecord類實現自己的音頻錄制程序
Intent intent3 = new Intent();
intent3.setClass(this, MyAudioRecord2.class);
startActivityForResult(intent3, 2);
break;
}
}
}
Android 音頻的介紹 最近移植Android,當Android能夠在設備上面運行之後,首先想到的是讓音頻設備跑起來。“沒有聲音,再好的戲也出不來”。本文簡單介紹一下Android音頻適配層。
這個世界音頻設備千變萬化,Android也不可能為每種設備都提供支持。Android定義了一個框架,這個框架來適配底層的音頻設備。該適配層的定義位於:
Java代碼:
代碼如下:
hardware/libhardware_legacy/include/hardware_legacy/AudioHardwareInterface.h
要想視頻底層的音頻設備必須要繼承該文件中定義的AudioStreamOut,AudioStreamIn,AudioHardwareInterface等類,並實現createAudioHardware函數。
下面我們看一下Android創建音頻設備的代碼,代碼位於:
Java代碼:
代碼如下:
frameworks/base/libs/audioflinger/AudioHardwareInterface.cpp
該文件有如下代碼:
Java代碼:
代碼如下:
AudioHardwareInterface* AudioHardwareInterface::create()
{
/*
* FIXME: This code needs to instantiate the correct audio device
* interface. For now - we use compile-time switches.
*/
AudioHardwareInterface* hw = 0;
char value[PROPERTY_VALUE_MAX];
#ifdef GENERIC_AUDIO
hw = new AudioHardwareGeneric();
#else
// 如果運行在仿真中——用這個模擬器
if (property_get("ro.kernel.qemu", value, 0)) {
LOGD("Running in emulation - using generic audio driver");
hw = new AudioHardwareGeneric();
}
else {
LOGV("Creating Vendor Specific AudioHardware");
hw = createAudioHardware();
}
#endif
if (hw->initCheck() != NO_ERROR) {
LOGW("Using stubbed audio hardware. No sound will be produced.");
delete hw;
hw = new AudioHardwareStub();
}
#ifdef WITH_A2DP
hw = new A2dpAudioInterface(hw);
#endif
#ifdef ENABLE_AUDIO_DUMP
recorded in the file.
LOGV("opening PCM dump interface");
hw = new AudioDumpInterface(hw); // replace interface
#endif
return hw;
}
從代碼中我們可以看出如果定義了GENERIC_AUDIO的宏,則會創建AudioHardwareGeneric,如果是模擬器的話,AudioHardwareGeneric會不能初始化,進而創建AudioHardwareStub。這兩個類都是Audio設備的適配層,是Android默認提供的。模擬器都是用AudioHardwareStub,不會有聲音輸出。設備都是用AudioHardwareGeneric,因為默認GENERIC_AUDIO是設置的。
一般我們只關心AudioHardwareGeneric實現,誰會去給模擬器去調試聲音呢,反正我沒這個閒心。首先說明一下這個音頻適配層是Android自帶的,可以保證你的音頻設備正常運行,但是不能發揮設備的最佳性能。通過後面的描述你將會了解。AudioHardwareGeneric的定義位於:
Java代碼:
代碼如下:
frameworks/base/libs/audioflinger/AudioHardwareGeneric.cpp
上面就是eoe給我們介紹音頻用途,如果有什麼不明白的就多看看android的源碼,這樣有助與你對音頻的理解。
先看一下效果圖:
代碼如下:
public class FFTActivity extends Activity implements OnClickListener{
private Button button;
private ImageView imageView;
private int frequency = 8000;
private int channelConfiguration = AudioFormat.CHANNEL_CONFIGURATION_MONO;
private int audioEncoding = AudioFormat.ENCODING_PCM_16BIT;
private RealDoubleFFT transformer;
private int blockSize = 256;
private boolean started = false;
private Canvas canvas;
private Paint paint;
private Bitmap bitmap;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.fft);
button = (Button) findViewById(R.id.fft_button);
button.setOnClickListener(this);
imageView = (ImageView) findViewById(R.id.fft_imageView);
transformer = new RealDoubleFFT(blockSize);
bitmap = Bitmap.createBitmap(256, 100, Bitmap.Config.ARGB_8888);
canvas = new Canvas(bitmap);
paint = new Paint();
paint.setColor(Color.GREEN);
imageView.setImageBitmap(bitmap);
}
private class RecordAudio extends AsyncTask<Void, double[], Void> {
@Override
protected Void doInBackground(Void... params) {
int bufferSize = AudioRecord.getMinBufferSize(frequency,
channelConfiguration, audioEncoding);
AudioRecord audioRecord = new AudioRecord(
MediaRecorder.AudioSource.MIC, frequency,
channelConfiguration, audioEncoding, bufferSize);
short[] buffer = new short[blockSize];
double[] toTransform = new double[blockSize];
audioRecord.startRecording();
while (started) {
//將record的數據 讀到buffer中,但是我認為叫做write可能會比較合適些。
int bufferResult = audioRecord.read(buffer, 0, blockSize);
for (int i = 0; i < bufferResult; i++) {
toTransform<i> = (double) buffer<i> / Short.MAX_VALUE;
}
transformer.ft(toTransform);
publishProgress(toTransform);
}
audioRecord.stop();
return null;
}
@Override
protected void onProgressUpdate(double[]... values) {
super.onProgressUpdate(values);
canvas.drawColor(Color.BLACK);
for (int i = 0; i < values[0].length; i++) {
int x=i;
int downy=(int)(100-(values[0]<i>)*10);
int upy=100;
canvas.drawLine(x, downy, x, upy, paint);
}
imageView.invalidate();
}
}
@Override
public void onClick(View v) {
started=true;
new RecordAudio().execute();
}
}
android音頻可視化的原理是使用離散傅裡葉變換,但是數學不好的同學不要擔心,有開源的java離散傅裡葉變換的代碼!!直接到www.netlib.org/fftpack/jfftpack.tgz,直接將裡面javasource目錄拖動到(ca目錄)src即可!!