使用ffmpeg将低延迟RTSP视频流传输到android
问题描述:
我正尝试使用KitKat将实时摄像头视频从Ubuntu 12.04 PC流式传输到Android设备。到目前为止,我已经编写了ffserver配置文件来接收ffm feed并通过rtsp协议进行广播。我可以用ffplay在同一局域网中的其他计算机上观看流。使用ffmpeg将低延迟RTSP视频流传输到android
如何在android设备上观看流?下面的代码效果很好,当网络摄像头图像流与VLC,但它不与ffmpeg的:
public class MainActivity extends Activity implements MediaPlayer.OnPreparedListener,
SurfaceHolder.Callback {
final static String RTSP_URL = "rtsp://192.168.1.54:4424/test.sdp";
private MediaPlayer _mediaPlayer;
private SurfaceHolder _surfaceHolder;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
// Set up a full-screen black window.
requestWindowFeature(Window.FEATURE_NO_TITLE);
Window window = getWindow();
window.setFlags(
WindowManager.LayoutParams.FLAG_FULLSCREEN,
WindowManager.LayoutParams.FLAG_FULLSCREEN);
window.setBackgroundDrawableResource(android.R.color.black);
getWindow().addFlags(WindowManager.LayoutParams.FLAG_KEEP_SCREEN_ON);
setContentView(R.layout.activity_main);
// Configure the view that renders live video.
SurfaceView videoView =
(SurfaceView) findViewById(R.id.videoView); //where R.id.videoView is a simple SurfaceView element in the layout xml file
_surfaceHolder = videoView.getHolder();
_surfaceHolder.addCallback(this);
_surfaceHolder.setFixedSize(320, 240);
}
@Override
public void surfaceCreated(SurfaceHolder surfaceHolder) {
_mediaPlayer = new MediaPlayer();
_mediaPlayer.setDisplay(_surfaceHolder);
Context context = getApplicationContext();
Uri source = Uri.parse(RTSP_URL);
try {
// Specify the IP camera's URL and auth headers.
_mediaPlayer.setDataSource(context, source);
// Begin the process of setting up a video stream.
_mediaPlayer.setOnPreparedListener(this);
_mediaPlayer.prepareAsync();
}
catch (Exception e) {}
}
@Override
public void onPrepared(MediaPlayer mediaPlayer) {
_mediaPlayer.start();
}
}
我ffserver.config文件:
HTTPPort 8090
RTSPBindAddress 0.0.0.0
RTSPPort 4424
MaxBandwidth 10000
CustomLog -
<Feed feed1.ffm>
File /tmp/feed1.ffm
FileMaxSize 20M
ACL allow 127.0.0.1
</Feed>
<Stream test1.sdp>
Feed feed1.ffm
Format rtp
VideoCodec libx264
VideoSize 640x480
AVOptionVideo flags +global_header
AVOptionVideo me_range 16
AVOptionVideo qdiff 4
AVOptionVideo qmin 10
AVOptionVideo qmax 51
Noaudio
ACL allow localhost
ACL allow 192.168.0.0 192.168.255.255
</Stream>
我开始用这个命令流: ffmpeg -f v4l2 -i /dev/video0 -c:v libx264 -b:v 600k http://localhost:8090/feed1.ffm
答
这个错误很可能是由VLC和FFmpeg的不同编码参数引起的 - VLC可以使用Android支持的编码参数,但FFmpeg可以使用不支持的编码参数(最有可能是AVC配置文件和级别)。尝试通过FFmpeg命令行选项和ffserver.config强制执行基线或主配置文件和YUV 4:2:0像素格式。
也许使用Wireshark检查RTSP级别发生了什么 - 连接是否打开,是否找到了跟踪?如果找不到轨道,问题很可能发生在ffserver,否则如果推送数据,可能会出现Android无法处理的格式问题。 – 2014-10-20 08:43:16
我检查了Android [这里]支持的格式(http://developer.android.com/guide/appendix/media-formats.html),我使用的是支持的格式。我也确信连接是由ffserver打开和注册的。控制台输出:'Mon Oct 20 17:04:53 2014 192.168.1.55 - - [DESCRIBE]“rtsp://192.168.1.54:4424/test.sdp RTSP/1.0”200 72' – grzebyk 2014-10-20 15:05:37
Android Studio中的logcat显示以下错误MediaPlayer:错误(1,-2147483648),这是未知的(描述[这里](http://*.com/questions/11540076/android-mediaplayer-error-1-2147483648)) – grzebyk 2014-10-20 15:50:49