Articles of audiostream

Android设备作为A2DPconfiguration文件的接收者

基本上,我现在想要做的是使用Android设备作为A2DP接收器,当配对build立时,android会播放从发送器接收到的声音。 我担心,如果我使用STPconfiguration文件,可能会导致stream式传输延迟。 所以,我想使用A2DP,但这是可能的使用Android设备作为A2DP的接收器? 以及如何做到这一点?

stream式传输audio文件并对其进行caching

我想streamaudioMP3文件,然后通过Android媒体播放器播放,另外我也想caching这个文件 ,这样媒体播放器不必stream最近播放的曲目。 我已经尝试过使用prepareAsync方法,但是它不能访问缓冲区内容,所以我决定自己将audio文件stream式传输给媒体播放器进行播放。 我已经通过在这里遵循这篇文章来实现这一点,但是这种方法有一个问题,即在将文件传输到媒体播放器时,它会进入错误模式,导致我的播放器行为不一致。 当媒体播放器进入错误模式时,它不会自动出现,所以我不得不创build一个新的媒体播放器,然后重新提供下载的文件,这种解决方法会导致用户在播放歌曲时感觉到不希望的暂停。 那么,有没有人改进了上面的链接给出的代码版本? 或者他们知道这个问题的更好的解决scheme, 或者是实际上有一个库在Androidstream媒体audio文件? 谢谢

如何在encryption的zip文件中传输音乐而不解压整个文件?

我必须播放audio文件。 这是在zip文件,这是目前在SD卡。 并且audio文件被encryption。 所以,当解密audio,我会得到inputstream中的数据。 我不想解压,因为它吃在磁盘上的空间。 正如我已经调查,我没有得到如何直接播放audio,如果我有stream的线索。 它只能通过networking。 这不是在这种情况下。 所以我想是产生一个线程,将保持附加数据(字节)的文件。 开始时,我打电话给MediadPlayer来开始工作。 媒体播放器没有问题。 乐趣从这里开始:假设audio文件在6min – 5MB。 缓冲可能已经发生了2MB。 在寻找酒吧,我可以看到2min作为我的最大持续时间。 这是完全正确的。 当缓冲还在继续时,我想更新search栏中的时间,其长度(search栏长度)与给定时间成正比。 我如何去做这件事。 我试过OnBufffering这个,它没有工作。 我想实际上它是用于stream式audio文件,如果它通过networking播放。 请给我一些简单的解决办法,如何做到这一点? 不要问我重写MediaPlayer类,并在其上工作。 任何帮助表示赞赏。 让我知道你是否需要更清晰。 public class NotesAudDisplay extends Activity implements OnPreparedListener, MediaController.MediaPlayerControl{ private static final String TAG = "activity-NotesAudioDisplay"; private String audioFilePath; private String notesFileName; private String mcfFileName; private String key; private SeekBar seekBarProgress; […]

SoundCloud像波形seekbar?

这是一个声音云的search栏的图像: 声音云实际上会在歌曲播放前计算波形,并将其添加为search栏的背景。 我试图添加一些基于android-visualizer的可视化 。 但我需要的是使用可视化器作为audiosearch栏的背景。 任何指针将是非常有用的,因为我相信可能有一些代码开始。 谢谢。

将录制的audio作为麦克风input

我必须写什么来发送一个录制的audio文件作为安卓编程的麦克风input? 例: 用户logging“hello world”。 然后他可以在通话中播放录音。

audiostream不在video中时速度改变命令失败 – ffmpeg

我试图通过下面的命令改变不包含audiostream的video的速度 String[]{"ffmpeg", "-y", "-i", orginalFile, "-threads", "5", "-preset", "ultrafast", "-strict", "experimental", "-filter_complex", "[0:v]setpts=0.50*PTS[v];[0:a]atempo=2.0[a]", "-map", "[v]", "-map", "[a]", "-b", "2097k", "-ab", "48000", "-ac", "2", "-ar", "22050", "-vcodec", "mpeg4", destinationFile}; 命令失败,说明video没有audiostream 。 那么,我是否需要检查video中是否存在audiostream,或者在这种情况下可以做些什么吗?

在Android中进行实时audio录制和播放以及线程和callback处理

我想录制现场audio并播放它。就用户界面而言,该应用程序只有三个button:一个用于开始录制和stream式传输,一个用于播放预先录制的文件和最后一个用于停止当前任务(录制/播放)。 为此,我分别使用了AudioRecord和AudioTrack类进行录制和播放。 我的程序看起来像…. / ** * @作者阿米特* * / public class AudioRecorder extends Activity { private String LOG_TAG = null; /* variables which are required to generate and manage the UI of the App */ // private RecordButton mRecordButton = null; private Button recordBtn, stopBtn, playBtn; /* * variables which are required for the actual […]

C#.NET中的MP3stream媒体4.5.1在三星6S上的MVC 5.2.2

我必须使用来自ReadSpeaker的TTS(Text to Speak)SaaS来将audio添加到我正在开发的应用程序中。 现在我们正在使用的基本SCAPI账户有一个基本的设置,只需设置一个URL并获取我们需要输出的MP3stream。 由于服务密钥在URL中,所以我们不能在前端使用它,所以我们需要通过我们的服务器来传输文件。 一切正常,直到我testing了三星6S的开发代码。 那里根本没有玩,但是服务自己的链接工程,即这个工程: <audio controls> <source src="http://tts.readspeaker.com/a/speak?key=[ServiceKey]&lang=en_uk&voice=Female01&audioformat=mp3&volume=200&text=test text 2" type="audio/mp3"> Your browser does not support the audio element. </audio> 而通过我们的服务器完全相同的代码不会在三星6S与控制器中的stream源相同的链接。 我已经通过几种不同的方式在服务器上stream式传输文件,但每次在三星6S(全新开箱即用,无MODS)时都会丢失。 这是我使用的代码。 空白控制器: string url = "http://tts.readspeaker.com/a/speak?key=[ServiceKey]&lang=en_uk&voice=Female01&audioformat=mp3&volume=200&text=test text 2"; HttpWebRequest HttpWRequest = (HttpWebRequest)WebRequest.Create(url); HttpWebResponse response = (HttpWebResponse)HttpWRequest.GetResponse(); Stream stream = response.GetResponseStream(); MemoryStream ms = new MemoryStream(); stream.CopyTo(ms); Response.AddHeader("Content-Type", response.ContentType); Response.AddHeader("Content-Length", response.ContentLength.ToString()); […]

Android MediaPlayer需要很长时间准备和缓冲

我的应用程序需要很长时间来准备和缓冲audiostream。 我已经阅读了这个问题为什么Android的MediaPlayer需要这么长时间来准备一些实时stream媒体播放? 但是这只是说人们经历过这个问题,并没有说明如何改善这个问题。 我正在经历从2.2 – 4.1.2testing的所有Android版本。 这些stream适合移动和3G连接的比特率。 相同的stream在等同的iOS应用程序中开始缓冲不到一秒钟。 有没有办法指定应该缓冲的时间量? 我知道Tune In广播应用程序提供了这个function( https://play.google.com/store/apps/details?id=tunein.player )。 谢谢。 编辑:我再次testing,发现它只发生在运行姜饼和以上(> = 2.3)的设备上。 我知道Android将底层框架从OpenCore改为StageFright。 那么我怎样才能优化媒体框架呢? 旧版HTC Wildfire可以准备,stream式传输和播放似乎是错误的,比全新的HTC One X和Nexus 7快10倍。

在Android中播放audioRTMPstream的最简单方法

我发现一些Android RTMP库(像这样: http : //rtmpdump.mplayerhq.hu/ )。 问题是没有准确的文档说明我们如何使用它。 在我的例子中,我有一个简单的RTMP现场audiostream(例如:rtmp:// myserver / myapp / myliveaudio)。 在我的Android应用程序中读取它最简单的方法是什么? 请不要链接:我需要一些代码或一些准确的一步一步的解释。 非常感谢你。