Estudio de viabilidad técnica e implementación de un sistema de

Anuncio
PROYECTO FINAL DE CARRERA
Estudio de viabilidad técnica e
implementación de un sistema de
transmisión de video adaptativo
H264/SVC sobre TCP
Estudios: INGENIERIA SUPERIOR DE TELECOMUNICACIONES
Autor: MANEL GRAU GRACIA
Tutor: DR. JORGE MATA DÍAZ
JUNIO 2014
Sistema de video adaptativo H264/SVC sobre TCP
2
3
Sistema de video adaptativo H264/SVC sobre TCP
Índice general
Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Resum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.1.
1.2.
1.3.
1.4.
JSVM y OpenSVCDecoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Proyectos similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Medidas objetivas de calidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Introducción a H264 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.1. Predicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.2. Transformación y cuantificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.4.3. Codificación entrópica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2. H264/SVC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.
Conceptos de escalabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.1. Escalabilidad temporal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.2. Escalabilidad espacial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.3. Escalabilidad de calidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.1.4. Escalabilidad híbrida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2. Cabecera de las unidades NAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3. Sintaxis de las unidades NAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3.1. Unidades NAL non-VCL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.1.1. Supplemental Enhancement Information . . . . . . . . . . . . . . . . . 34
2.3.1.2. Sequence Parameter Set . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.1.3. Picture Parameter Set . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.2. Unidades NAL VCL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.2.1. Coded Slice of non-IDR Picture . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.2.2. Coded Slice of an IDR Picture . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.2.3. Coded Slice Extension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3. Filtrado adaptativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.
Filtrado de unidades NAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.1. Reglas de dependencia en el filtrado de unidades NAL . . . . . . . . . . . . . 38
3.1.1.1. Reglas con escalabilidad espacial y temporal . . . . . . . . . . . . . . 39
3.1.1.2. Reglas con escalabilidad de SNR y uso de MGS . . . . . . . . . . . . . 39
3.1.2. Algoritmo de filtrado de unidades NAL . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.2.1. Algoritmo de extracción sin usar MGS . . . . . . . . . . . . . . . . . . . . 40
Sistema de video adaptativo H264/SVC sobre TCP
4
3.1.2.2. Algoritmo de extracción usando MGS . . . . . . . . . . . . . . . . . . . . 42
3.2. Filtrado adaptativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.2.1. Orden de transmisión de flujo de datos H264/AVC . . . . . . . . . . . . . . . . 46
3.2.2. Orden de transmisión de flujo de datos H264/SVC . . . . . . . . . . . . . . . . 50
3.2.3. Parámetros de diseño del filtrado adaptativo . . . . . . . . . . . . . . . . . . . . 52
4. Estimación del ancho de banda de transmisión . . . . . . . . . . . . . . . . . . 55
4.1.
Protocolo de control de Transporte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.1. Cabecera TCP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.1.2. Control de congestión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2. Estimación del ancho de banda de transmisión . . . . . . . . . . . . . . . . . . . . . . 61
4.2.1. Tamaño de las capas de extracción en tiempo real . . . . . . . . . . . . . . . . 61
4.2.2. Velocidad de reproducción del video . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2.3. Implementación de la estimación en tiempo real del ancho de banda de
transmisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2.3.1. Detalles de la implementación . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.2.3.2. Función estimación ancho de banda . . . . . . . . . . . . . . . . . . . . . 68
4.2.4. Estrategias temporales en la estimación del ancho de banda . . . . . . . 69
4.2.4.1. Implementación del uso de iteraciones . . . . . . . . . . . . . . . . . . . 70
5. Transmisor y receptor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.1.
Implementación del transmisor adaptativo . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.1.1. Justificación uso de dos hilos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.1.2. Clase H264BitStream . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.1.3. Justificación de semáforos en la cola circular . . . . . . . . . . . . . . . . . . . . 79
5.1.4. Solución de semáforos en la aplicación . . . . . . . . . . . . . . . . . . . . . . . . 81
5.1.5. Solución de ancho de banda adaptativo . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.1.6. Medidas para reducir el alto número de intercambios entre capas . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2. Criterios de diseño del receptor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.1. Relación entre tiempo de reproducción y tiempo de transmisión . . . . 88
5.2.2. Estrategia de filtrado en recepción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2.3. Solución de semáforos de la aplicación . . . . . . . . . . . . . . . . . . . . . . . . . 95
6. Evaluación del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.1
Características de codificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.1.1 Elección de los parámetros de cuantificación . . . . . . . . . . . . . . . . . . . . 99
6.2
Resultados al aplicar el algoritmo de filtrado . . . . . . . . . . . . . . . . . . . . . . . . 99
6.3
Perfiles de ancho de banda de transmisión . . . . . . . . . . . . . . . . . . . . . . . . 101
6.4
Puesta en escena . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.4.1 Prueba 1 - Ancho de banda límite de 300 Kbit/s . . . . . . . . . . . . . . . . . 107
6.4.2 Prueba 2 - Ancho de banda límite de 600 Kbit/s . . . . . . . . . . . . . . . . . 111
6.4.3 Prueba 3 - Ancho de banda límite de 1,3 Mbit/s . . . . . . . . . . . . . . . . . 115
5
Sistema de video adaptativo H264/SVC sobre TCP
6.4.4 Prueba 4 - Ancho de banda variable de 1,3 Mbit/s y 600 Kbit/s . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.4.5 Prueba 5 - Ancho de banda de 1,3 Mbit/s compartido . . . . . . . . . . . . 120
7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
7.1
Líneas futuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
APÉNDICES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
A. Ficheros de configuración del codificador de JSVM utilizados en las
simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
B. Sintaxis H264/SVC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
C. Manual de utilidades del proyecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
C.1.
C.2.
C.3.
Utilidades de vídeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Utilidades de compilación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
Utilidades desarrolladas en el proyecto . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Sistema de video adaptativo H264/SVC sobre TCP
6
Lista de Figuras
1.1. Esquema de codificación H264/AVC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2. Esquema intra-predicción de bloques 4x4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3. Esquema intra-predicción de bloques 16x16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4. Esquema inter-predicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1. Esquema de codificación H264/SVC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2. Estructura de bipredicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3. Estructura diádica y no diádica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4. Escalabilidad espacial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5. Estructuras de dependencia de calidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6. Estructura del primer byte de la cabecera de las unidades NAL . . . . . . . . . . . . 30
2.7. Tipos de unidad NAL H264/AVC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8. Tipos de unidad NAL H264/SVC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.9. Estructura de los tres últimos bytes de la cabecera de las unidades NAL en
H264/SVC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1. Estructura de la codificación, con capa base, capa de calidad mejorada y capa
de resolución superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2. Estructura de la codificación, con capa base, capa de calidad mejorada con uso
de MGS y capa de resolución superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3. Flujo de inicio con tamaño de GOP igual a 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4. Flujo de inicio con tamaño de GOP igual a 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.5. Flujo de inicio con tamaño de GOP igual a 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.6. Flujo normal con tamaño de GOP igual a 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.7. Flujo normal con tamaño de GOP igual a 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.8. Flujo normal con tamaño de GOP igual a 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.9. Flujo en IDR múltiple periodo intra-predicción con tamaño de GOP igual a 2 . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.10. Flujo en IDR múltiple periodo intra-predicción con tamaño de GOP igual a 4 . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.11. Flujo en IDR múltiple periodo intra-predicción con tamaño de GOP igual a 8 . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.12. Flujo en IDR no múltiple periodo intra-predicción con tamaño de GOP igual a 2 .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.13. Flujo en IDR no múltiple periodo intra-predicción con tamaño de GOP igual a 4 .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.14. Flujo en IDR no múltiple periodo intra-predicción con tamaño de GOP igual a 8 .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.15. Flujo inicio codificación con tres capas, capa base, capa calidad mejorada y capa
de resolución superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
7
Sistema de video adaptativo H264/SVC sobre TCP
3.16. Flujo normal codificación con tres capas, capa base, capa calidad mejorada y
capa de resolución superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.17. Flujo en IDR múltiple periodo intra-predicción codificación con tres capas, capa
base, capa calidad mejorada y capa de resolución superior . . . . . . . . . . . . . . . . . . 51
3.18. Flujo en IDR no múltiple periodo intra-predicción codificación con tres capas,
capa base, capa calidad mejorada y capa de resolución superior . . . . . . . . . . . . . . 52
3.19. Intercambio entre capas 110 y 011 en flujo normal. Caso 1 . . . . . . . . . . . . . . . 53
3.20. Intercambio entre capas 110 y 011 en flujo normal. Caso 2 . . . . . . . . . . . . . . . 53
3.21. Intercambio entre capas 110 y 011 en flujo IDR múltiple periodo intrapredicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.22. Intercambio entre capas 110 y 011 en flujo IDR no múltiple periodo intrapredicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.1. Fases de establecimiento y finalización de conexión . . . . . . . . . . . . . . . . . . . . . 56
4.2. Casos de transmisión: Paquete enviado y reconocido, retransmisión y paquete
duplicado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.3. Ejemplo de control de flujo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.4. Cabecera TCP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.5. Fase “slow start” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.6. Ejemplo control de congestión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.1. Ciclo de histéresis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.1. Algoritmo extracción hasta la capa 000 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.2. Algoritmo extracción hasta la capa 001 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.3. Algoritmo extracción hasta la capa 100 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.4. Algoritmo extracción hasta la capa 010 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.5. Algoritmo extracción hasta la capa 011 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.6. Algoritmo extracción hasta la capa 110 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.7. Perfil de ancho de banda: Capa 000 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.8. Perfil de ancho de banda: Capa 010 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.9. Perfil de ancho de banda: Capa 001 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.10. Perfil de ancho de banda: Capa 011 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.11. Perfil de ancho de banda: Capa 100 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.12. Perfil de ancho de banda: Capa 110 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.13. Escenario de red para las pruebas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.14. Flujo transmitido: Prueba 300 Kbit/s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.15. Perfil de transmisión según opciones del socket: Prueba 300 Kbit/s . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.16. Intercambio entre capas: Prueba 300 Kbit/s . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.17. Flujo transmitido: Prueba 300 Kbit/s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.18. Perfil de transmisión según opciones del socket: Prueba 300 Kbit/s . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.19. Intercambio entre capas: Prueba 300 Kbit/s . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Sistema de video adaptativo H264/SVC sobre TCP
8
6.20. Flujo transmitido: Prueba 600 Kbit/s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.21. Perfil de transmisión según opciones del socket: Prueba 600 Kbit/s . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.22. Intercambio entre capas: Prueba 600 Kbit/s . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.23. Flujo transmitido: Prueba 1,3 Mbit/s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.24. Perfil de transmisión según opciones del socket: Prueba 1,3 Mbit/s . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.25. Intercambio entre capas: Prueba 1300 Kbit/s . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.26. Flujo transmitido: Prueba 1300-600-1300 Kbit/s . . . . . . . . . . . . . . . . . . . . . . . 118
6.27. Perfil de transmisión según opciones del socket: Prueba 1300-600-1300 Kbit/s .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.28. Intercambio entre capas: Prueba 1300-600-1300 Kbit/s . . . . . . . . . . . . . . . . . 120
6.29. Perfil de transmisión según opciones del socket: Prueba 1,3 Mbit/s compartido .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.30. Intercambio entre capas: 1,3 Mbit/s compartido . . . . . . . . . . . . . . . . . . . . . . . 121
9
Sistema de video adaptativo H264/SVC sobre TCP
Lista de Tablas
2.1.
3.1.
3.2.
6.1.
6.2.
6.3.
Lista de ejemplos de codificación Exp-Golomb . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Resultados algoritmo de extracción para el ejemplo 1 . . . . . . . . . . . . . . . . . . . . 41
Resultados algoritmo de extracción para el ejemplo 2 . . . . . . . . . . . . . . . . . . . . 44
Parámetros de cuantificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
PSNR obtenidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Medias y desviaciones típicas del ancho de banda de transmisión . . . . . . . . . 105
Sistema de video adaptativo H264/SVC sobre TCP
10
Agradecimientos
Les doy las gracias y le dedico este proyecto a mi familia por su apoyo y comprensión
durante el largo trayecto universitario así, como el de realización del PFC.
También, le doy las gracias al director de mi proyecto, Jorge Mata Díaz por su ayuda y
tutelaje en el desarrollo del PFC, en el que gran parte de haberlo llevado a buen puerto
es gracias a él.
11
Sistema de video adaptativo H264/SVC sobre TCP
Resum
Durant els últims 20 anys, la comunitat científica ha estat estudiant la possibilitat de
desenvolupar un sistema de video escalable. Es va intentar desenvolupar als anys 90 a
l’estàndard MPEG2, però no va arribar a desenvolupar-se lo suficientment per a poder
convertir-lo en un projecte comercial.
L’any 2003, va aparèixer l’estàndard H264, amb el que es va aconseguir una millora important
en la taxa de compressió de video respecte al seu antecessor MPEG2. Es va aconseguir
mantenir la qualitat de la seqüencia de video amb taxes de compressió fins a un 50% més
grans que a l’estàndard anterior.
Amb el pas dels anys, s’han anat afegint annexos a l’estàndard H264, essent el més important
l’annex G, “Scalable Video Coding”, corresponent a l’ús de video escalable. Un flux escalable,
es defineix com aquell flux de dades, que pot ser descodificat i conformant amb l’estàndard al
filtrar fins a uns determinats atributs, eliminant part del flux de dades.
H264/SVC consta de tres atributs de dependència, els identificadors temporals, se resolució i
de qualitat. D’aquesta manera, SVC permet codificar una mateixa seqüencia de video amb
capes de millora de PSNR objectiva, i de millora de resolució. Per exemple, una seqüencia de
video codificada amb tres capes, capa base, capa de millora de qualitat i capa amb més
resolució, donarà lloc a diferents possibilitats de filtratge. És a dir, serà possible la extracció de
fluxos conformants amb resolució més alta i més baixa, diferents velocitats de reproducció, y
diferents PSNR.
L’objectiu d’aquest projecte, és el desenvolupament d’una aplicació de video escalable sota
demanda funcionant sobre el protocol de transport TCP. L’adequació al tipus de video i a les
condicions de xarxa són els paràmetres de disseny principals de l’aplicació. Concretament, el
principal objectiu ha obtenir, és que les transmissions de video siguin adaptatives a la connexió
de xarxa.
Actualment, existeixen molts sistemes de video sota demanda que utilitzen solucions
propietàries, com en el cas de “Flash Media Server”, i unes altres que utilitzen H264/SVC
(“Advanced Video Coding”), l’annex A de l’estàndard. Les dues més importants són sistemes de
video sota demanda i punt a punt a Internet, com per exemple, Youtube; i la Televisió Digital
Terrestre (TDT). Ambdós sistemes son susceptibles a l’aparició d’errors, i cadacún els combat
de forma diferent. Als sistemes de video per Internet, quan es perd un paquet utilitzant TCP, es
reenvia, en canvi, a la TDT s’utilitza OFDM per minimitzar els errors.
Els paràmetres principals de la connexió de xarxa que s’utilitzaran per a fer el sistema
adaptatiu, són l’ample de banda disponible, i el temps d’anada i tornada del paquets. El
paràmetre d’ample de banda disponible serà estimat pels “sockets” a partir de la grandària de
la finestra de congestió i el RTT de la connexió. D’aquesta manera, l’estratègia a seguir, serà
l’estimació a temps real dels amples de banda necessaris per transmetre fins una determinada
capa, i transmissions amb l’ample de banda més gran que sigui menor al disponible. Per
aconseguir-ho, es fa l’estimació de les longituds incloses a cada extracció (per a capes
Sistema de video adaptativo H264/SVC sobre TCP
12
superiors a la capa base, s’inclouran unitats NAL amb diferents atributs), i es rectifica l’ample
de banda amb la velocitat de reproducció, per a obtenir les estimacions en temps real.
Els instants d’estimació, vindran limitats per l’algoritme de filtrat adaptatiu. No serà possible
fer estimacions després de cada unitat NAL, perquè els fluxos amb canvis temporals de nivells
d’extracció, estaran limitats pel fet que cada tira B depèn de les dos tires I, P o B anteriors.
Això, fa que només es puguin elegir com a punts de tall les tires I amb DTQ igual a 000. A més,
les extraccions adaptatives seran d’alguna de les dues formes següents:
1. Canviar d’identificadors al punt de tall i filtrar les tires B següents.
2. Filtrar les tires I del canvi amb els identificadors anteriors i posteriors, incloent totes
les tires I que compleixin algun del dos requisits, i filtrar les tires B posteriors amb els
identificadors anteriors en temps, ja que depenen de les dos tires I, P o B anteriors.
L’altre paràmetre de la connexió de xarxa, és el temps de recepció. Per al cas d’un receptor en
temps real, es defineixen les següents estratègies de filtratge. Quan una unitat NAL es rebuda
més tard que l’instant de reproducció, es filtra automàticament. A més, s’ha de tornar a filtrar
al final de cadascuna de les iteracions (entre tira I amb DTQ igual a 000 i la següent amb els
mateixos atributs) amb els nous atributs límit obtinguts després de filtrar les tires que no han
arribat a temps, per a que el flux segueixi sent conformant.
En aquest projecte, s’han realitzat probes de xarxa en un entorn real, per a provar la utilitat del
sistema desenvolupat. Concretament, s’ha codificar el video BigBuckBunny amb tres capes,
capa base, capa de millora de qualitat i capa amb més resolució; i s’ha provat el sistema amb
dos routers entremitjos. Els resultat indiquen que realment es tracta d’un sistema que pot ser
l’alternativa als sistemes actual, sempre que es disposi d’una connexió de banda ampla.
13
Sistema de video adaptativo H264/SVC sobre TCP
Resumen
Durante los últimos 20 años, la comunidad científica ha estado estudiando la posibilidad de
desarrollar un sistema de video escalable. Se intentó desarrollar en los años 90 en el estándar
MPEG2, pero no llego a desarrollarse lo suficientemente para poder convertirlo en un proyecto
comercial.
En el año 2003, apareció el estándar H264, que conseguía una mejora importante en tasa de
compresión de video respecto a su antecesor MPEG2. Se consiguió mantener la calidad de la
secuencia de video con tasas de comprensión un 50% mayores al anterior estándar.
Con el paso de los años, se han ido añadiendo anexos al estándar H264, siendo el más
importante el anexo G, “Scalable Video Coding”, correspondiente al uso de video escalable. Se
define un flujo escalable, como aquel flujo de datos, que puede ser decodificable y
conformante con el estándar al filtrar hasta unos determinados atributos, eliminando parte del
flujo de datos.
H264/SVC consta de tres atributos de dependencia, los identificadores temporales, de
resolución y de calidad. De esta forma, SVC permite codificar una misma secuencia de video
con capas de mejora de PSNR objetiva, y de mejora de resolución. Por ejemplo, una secuencia
de video codificada con tres capas, capa base, capa de mejora de calidad y capa con más
resolución, dará lugar a varias posibilidades de filtrado. Es decir, será posible la extracción de
flujos conformantes con mayor y menor resolución, distintas velocidades de reproducción, y
PSNR diferentes.
El objetivo del presente proyecto, es el desarrollo de una aplicación de video escalable bajo
demanda sobre el protocolo de transporte TCP. La adecuación al tipo de video y a las
condiciones de red son los parámetros de diseño principales de la aplicación. En concreto, el
principal objetivo a alcanzar es que las transmisiones de video sean adaptativas a la conexión
de red.
Actualmente, existen muchos sistemas de video bajo demanda que utilizan soluciones
propietarias como es el caso de “Flash Media Server” de Adobe, y otras que utilizan H264/AVC
(“Advanced Video Coding”), el anexo A del estándar. Las dos más importantes son sistemas de
video bajo demanda punto a punto en Internet como Youtube; y la Televisión Digital Terrestre
(TDT). Ambos sistemas son susceptibles de la aparición de errores, y cada uno de ellos lo
combate de forma distinta. En los sistemas de video por Internet, cuando se pierde un paquete
utilizando TCP, se reenvía, mientras que en la TDT se utiliza OFDM para minimizar los errores.
Los parámetros principales de la conexión de red que se van a utilizar para hacer el sistema
adaptativo son el ancho de banda disponible, y el tiempo de ida y vuelta de los paquetes. El
parámetro de ancho de banda disponible va a ser estimado por los “sockets” a partir del
tamaño de la ventana de congestión y el RTT de la conexión. De esta forma, la estrategia a
seguir será la estimación en tiempo real de los anchos de banda necesarios para transmitir
hasta una determinada capa y transmisiones con el ancho de banda mayor que sea menor al
disponible. Para lograrlo, se hace la estimación de los tamaños incluidos en cada extracción
Sistema de video adaptativo H264/SVC sobre TCP
14
(para capas superiores a la base, se incluirán unidades NAL con diferentes atributos), y se
rectifica el ancho de banda con la velocidad de reproducción, para obtener las estimaciones en
tiempo real.
Los instantes de estimación vendrán limitados por el algoritmo de filtrado adaptativo. No será
posible hacer estimaciones detrás de cada unidad NAL, porque los flujos con cambios
temporales de niveles de extracción, vendrán limitados por el hecho de que cada tira B
depende de las dos tiras I, P o B anteriores. Esto hace que solo pueda cogerse como punto de
corte las tiras I con DTQ igual a 000. Además, las extracciones adaptativas van a ser de una de
las dos formas siguientes:
1. Cambiar de identificadores en el punto de corte y filtrar las tiras B siguientes
2. Filtrar las tiras I del cambio con los identificadores anteriores y posteriores, incluyendo
todas las tiras que cumplan uno de los dos requisitos, y filtrar las tiras B posteriores
según los identificadores anteriores en tiempo, debido a que dependen de las dos tiras
I, P o B anteriores.
El otro parámetro de la conexión de red, es el tiempo de recepción. En el caso de un receptor
para trabajar a tiempo real, se definen las siguientes estrategias de filtrado. Cuando una
unidad NAL es recibida en un instante temporal mayor al instante de reproducción, se desecha
automáticamente. Además, se debe volver a filtrar al final de cada iteración entre I con DTQ
igual a 000 y la siguiente, con los nuevos atributos limite obtenidos después de filtrar las tiras
que no han llegado a tiempo, para que el flujo resultante siga siendo conformante.
En el presente proyecto, se han realizado pruebas de red en un entorno real, para probar la
utilidad real del sistema desarrollado. En concreto, se ha codificado el video BigBuckBunny con
tres capas, capa base, capa de mejora de calidad y capa con más resolución; y se ha probado el
sistema con el uso de dos routers intermedios. Los resultados indican que realmente se trata
de una alternativa válida a los sistemas actuales, siempre que se disponga de una conexión de
ancha banda.
15
Sistema de video adaptativo H264/SVC sobre TCP
Abstract
During last 20 years, scientific community has been studying scalable video coding developing
possibility. In nineties, they try to develop it in MPEG2 standard, but it was not enough
developed in order to become a commercial project.
In year 2003, it appears H264 standard, getting a significant improvement of video
compression tax against his predecessor MPEG2. They got maintain quality video sequence
achieving 50% major video compression taxes.
During years, H264 annex has been appeared. The most important annex is G annex, “Scalable
Video Coding”, which corresponds to scalable video use. An scalable bit stream is defined as
that bit stream which could be decoded and standard confortable when it is filtered with
specific attributes, deleting part of bit stream.
H264/SVC standard has three dependency attributes, temporal, resolution and quality
identifiers. Thus, SVC allows to code the same video sequence with PSNR and resolution
improvement layers. For example, a coded video sequence of three layers, base layer,
improvement quality layer and improvement resolution layer, become in different filtering
possibilities. Therefore, it could be possible conformant extractions with different PSNR,
resolution and playing velocity.
The project objective is develop an scalable video on demand application over TCP protocol.
Principal application parameters are video type and net conditions adequacy. Specifically,
achieved principal objective is that video transmissions become network connection adaptive.
Actually, it exists a lot of video on demand systems, which use proprietary solutions such as
“Flash Media Server”, or they use H264/AVC (“Advanced Video Coding”), A annex of H264
standard. Two most important applications are point to point Internet video on demand
systems and Digital Television (TDT). Both systems are susceptible of error appearance but
each one fight differently errors. In Internet video systems, when a packet is lost using TCP, it
is forwarded, while in TDT it is used OFDM in order to minimize transmission errors.
Principal network connection parameters, which will be used in order to become and adaptive
system, are available network bandwidth and packet round trip time. Available bandwidth
parameter will be estimated by sockets from congestion window size and connection RTT.
Thus, the strategy will be real time estimation of necessary bandwidth in order to transmit up
to a certain layer, and transmit with maximum bandwidth less than available bandwidth. In
order to achieve this, extraction included sizes are estimated (for superior layers than base
layer, it will be included NAL units with different attributes), and it is rectified bandwidth with
playing velocity, in order to obtain real time estimations.
Estimation moments are limited by adaptive filter algorithm. It could not be possible to
estimate after every NAL unit, because bit streams with temporal changes, will be limited by
the fact that every B slice depends on last two I, P or B slices. Therefore, it could only catch
cutoff point in I slices with DTQ equal to 000. Furthermore, adaptive extractions will be of one
of the two following:
Sistema de video adaptativo H264/SVC sobre TCP
16
1. Change identifiers in cutoff point and filter following B slices.
2. Filter change I slices with both identifiers, previous and posterior, including all slices
which comply one of both requisites, and filter posterior B slices by previous time
identifiers, due to, they depend on last two I, P or B slices.
The other network connection parameter is receiver time. In real time applications, there are
defined the following filtering strategies. When a NAL unit is received after its playing moment,
it is filtered. Furthermore, it has to be filtered another time after every iteration between I
slice with DTQ equal 000 and following next I slice with DTQ equal 000, with new limit
attributes obtained after filtering slices which had not arrived at time, in order to obtain a
H264 conformant resultant bit stream.
In this project, there have been made network test in a real environment, in order to check
developed system real utility. Specifically, it has been coded BigBuckBunny video sequence
with three layers, base layer, PSNR quality improvement layer, and resolution improvement
layer; and it has been checked the system by the use of a network environment which contain
two intermediate routers. Obtained results indicate that it is really a valid alternative to actual
systems, if we have a broadband connection.
17
Sistema de video adaptativo H264/SVC sobre TCP
Sistema de video adaptativo H264/SVC sobre TCP
18
Capítulo 1:
Introducción:
En los últimos años se han desarrollado un gran conjunto de sistemas de video bajo
demanda en diferentes entornos, desde sistemas de televisión por pago, hasta
sistemas de videos bajo demanda en Internet, como por ejemplo “Youtube” o
“Vimeo”.
El objetivo del presente proyecto, es el desarrollo de otro sistema de video bajo
demanda, que sea adaptativo a las condiciones de red, y que tome provecho de las
diferentes características del video transmitido. Así, la principal innovación del
presente proyecto es el hecho de trabajar con H264/SVC, la extensión del estándar
H264 en su anexo G. El estándar es el documento “ITU-T H.264 Advanced video coding
for generic audiovisual services (2012).
Hasta ahora, la mayoría de sistemas bajo demanda habían sido implementados con los
protocolos RTP (“Real Time Transport Protocol”), o sus versiones con mejoras de
seguridad RTSP (“Real Time Streaming Protocol”) y RTCP. También en versiones
comerciales como el caso de Adobe con “Flash Media Server” junto con toda la
tecnología “Flash”, “ActionScript” y “Flex”, que mediante el uso de códec propietarios
(“VP6 Sorenson” en el video) permitía el desarrollo de sistemas de video bajo demanda
sobre HTTP y TCP.
El principal reto que se nos plantea en el presente proyecto, es el del desarrollo de un
sistema que sea fiable extremo a extremo independientemente de cual sea su sistema
de acceso (“Wifi”, “ADSL”, “WiMAX”, “FTTH”, …), razón por la cual se va a trabajar
sobre TCP, protocolo orientado a conexión, fiable y con control de errores extremo a
extremo. Se tendrá que tratar con todos los problemas asociados a su uso, como es el
caso que al inicio de la conexión, en la etapa de “slow start” las transmisiones no van a
ser lo suficientemente rápidas como para que se pueda recibir el contenido en tiempo
de reproducción, razón por la que se van a utilizar búferes en recepción para controlar
el flujo transmitido.
En concreto, con el uso de H264/SVC, que define los flujos de datos con diferentes
atributos de escalabilidad nos permitirá transmitir hasta una determinada capa
durante un cierto tiempo, y hasta otra determinada capa durante otro cierto tiempo.
La idea principal es la de codificar con diferentes capas con atributos de velocidad de
reproducción, resolución y PSNR diferentes, combinándolos todos en un flujo de datos
único. De esta manera será posible filtrar con unos determinados atributos de los
comentados anteriormente, para transmitir con condiciones del video cambiantes, que
se adapten a las condiciones de red existentes.
19
Sistema de video adaptativo H264/SVC sobre TCP
Así, la conexión de red vendrá principalmente caracterizada por el ancho de banda
disponible para transmisión y el tiempo de transmisión extremo a extremo,
parámetros de los que se va a sacar provecho en la búsqueda de un algoritmo de
transmisión que sea adaptativo a estas condiciones de red. En concreto, se van a
controlar los tamaños de transmisión de las diferentes capas en busca de la capa con
mayor calidad posible para ser transmitida, que cumpla la restricción que el tamaño
transmitido se pueda recibir y decodificar en tiempo real.
El proyecto constara de los capítulos siguientes:
1. Presentación de H264 y del software disponible para H264/SVC.
2. Descripción detallada de H264/SVC.
3. Descripción detallada de los algoritmos de filtrado y de filtrado adaptativo de
flujos de datos H264/SVC.
4. Descripción detallada de TCP y de la estimación del ancho de banda de
transmisión.
5. Descripción detallada de la implementación del sistema transmisor y de los
criterios de diseño del receptor en caso de buscar un sistema en tiempo real.
6. Resultados obtenidos y líneas futuras.
1.1.
JSVM y OpenSVCDecoder:
Actualmente, existen un codificador y dos decodificadores de H264/SVC. El software
correspondiente es “Join Scalable Video Model” (JSVM) y “OpenSVCDecoder”.
JSVM, es un software desarrollado por el “Joint Video Team” del ISO/IEC “Moving
Pictures Experts Group” (MPEG) y el ITU-T “Video Coding Experts Group” (VCEG), capaz
de codificar y decodificar flujos de video en el estándar H264/SVC.
“OpenSVCDecoder” es una librería desarrollada por el IETR/INSA de la ciudad de
Rennes, que implementa un decodificador de flujos H264/SVC en tiempo real.
“OpenSVCDecoder” se usa conjuntamente con el reproductor “Mplayer” y permite
visualizar flujos de datos codificados en SVC.
1.2.
Proyectos similares:
El proyecto más similar al que se presenta en este documento, es el “MPEG DASH
(Dynamic Adaptive Streaming over HTTP)”, el cual a diferencia del actual que trabaja
con SVC, trabaja con la transmisión de flujos H264/AVC.
El parámetro de diseño principal de “MPEG Dash” es que concentra flujos de
diferentes calidades (parámetro de cuantificación diferente), y los transmite
Sistema de video adaptativo H264/SVC sobre TCP
20
adaptativamente a las condiciones de red, seleccionando las unidades NAL de un flujo
o de otro en función de las condiciones de red.
El funcionamiento es inverso al proyecto actual, en este caso la estimación se hace en
recepción, donde a partir del tamaño de ocupación del buffer se hace una estimación
del ancho de banda al que se va a solicitar la recepción. Se entiende que cuando se
llena se puede pedir más velocidad de transmisión porque la velocidad de red es
mayor a la de reproducción, y que cuando se vacía se debe reducir la velocidad de
transmisión.
Los perfiles de los proyectos son muy similares, pero la diferencia principal es que en
“MPEG Dash” se transmite flujo AVC, y en el presente proyecto se transmiten flujos
SVC, con las ventajas asociadas a este estándar.
1.3.
Medidas objetivas de calidad:
Para medir objetivamente una secuencia de video utilizamos el PSNR (“Peak Signal to
Noise Ratio”) en dB. Se define como el coeficiente entre el valor máximo que puede
tener una secuencia al cuadrado y el error cuadrático medio de la secuencia.
Se considera como una medida de calidad objetiva, ya que cuantifica el error
producido en el tratamiento de la secuencia de video. En general, cuanto mayor sea la
PSNR en dB mayor será la calidad de la secuencia de video reconstruida.
1.4.
Introducción a H264:
H264 es un estándar de codificación digital de video que introduce muchas mejoras de
compresión respecto a sus predecesores MPEG2 y MPEG4 Visual, de los que hereda
muchas de sus características de codificación.
H264 está desarrollado por “Joint Video Team”, formado a su vez por los equipos del
ITU-T VCEG y el ISO/IEC MPEG. El documento estándar publicado en 2003, no define
como codificar el video, pero sí define toda la implementación del decodificador, con
lo que para codificar se puede llevar a cabo el procedimiento inverso.
21
Sistema de video adaptativo H264/SVC sobre TCP
A continuación se van a ver las principales características del proceso de codificación y
decodificación.
El proceso de codificación consta de tres etapas principales:
1. Predicción: Ya sea intra-predicción o inter-predicción, en función de si se
predice desde el propio a anteriores fotogramas.
2. Transformación y cuantificación: Se pasa la información al dominio
transformado y se cuantifica.
3. Codificación entrópica: Codificación en palabras de longitud variable del
resultado.
Figura 1.1: Esquema de codificación H264/AVC
1.4.1. Predicción:
El codificador procesa todo el contenido del fotograma en macro-bloques que van de
16x16 a 4x4 en muestras de luminancia y de 8x8 a 2x2 en muestras de crominancia,
debido al submuetreo 4:2:0 del video. Durante este proceso se realizan predicciones a
partir de los bloques ya codificados. Se conoce como Intra-predicción cuando los
macro-bloques proviene del mismo fotograma, y como Inter-predicción cuando los
macro-bloques proviene de otro fotograma previamente codificado.
La predicción será necesaria en función del error cuadrático medio, en los Intrapredecidos habrá casos en que será más eficiente enviar su información directamente.
En los casos en que sí sea necesario realizar la predicción, se obtiene el residual entre
la predicción hecha y los valores del macro-bloque actual.
La inter-predicción se conoce como estimación de los vectores de movimiento,
mientras que la compensación de movimiento es el proceso de la obtención de los
residuales a partir de la Inter-predicción.
Sistema de video adaptativo H264/SVC sobre TCP
22
La Intra-predicción utiliza bloques de 16x16 hasta 4x4 píxeles para realizar la
predicción a partir de los macro-bloques contiguos. Las formas de extrapolar para los
casos de 4x4 muestras son las siguientes:
Figura 1.2: Esquema intra-predicción de bloques 4x4
Como se puede ver en la figura 1.2, las formas de extrapolar en el caso de 4x4 muestras son de
arriba abajo, prediciendo las muestras inferiores a partir de las superiores; de izquierda a
derecha, promediando las muestras de arriba y de la izquierda; y varias combinaciones en
diagonal dando más peso a muestras de dos de los lados del macro-bloque.
Y en el caso de 16x16 muestras:
Figura 1.3: Esquema intra-predicción de bloques 16x16
Como se puede ver en la figura 1.3, las formas de extrapolar en el caso de 16x16
muestras son de arriba abajo, de izquierda a derecha, promediando las muestras de
arriba y de la izquierda y en combinaciones diagonales de las muestras de abajo a la
izquierda y arriba a la derecha.
La inter-predicción se hace con bloques de 16x16 píxeles a 4x4 píxeles, y se utiliza para
sacar provecho de las regiones similares entre diferentes fotogramas. Tal como se
puede ver en la figura 1.4 se predicen regiones del fotograma predicho a partir de
macro-bloques de los fotogramas de referencia, cogiendo tamaños variables con
bloques de 16x16 a 4x4 muestras, en función del error cuadrático medio de la
predicción.
23
Sistema de video adaptativo H264/SVC sobre TCP
Figura 1.4: Esquema inter-predicción
1.4.2. Transformación y cuantificación:
En H264, se transforma a partir de la “Transformada Discreta del Coseno” (DCT), para
obtener un conjunto de coeficientes prácticamente incorrelados y en los que la energía
se concentra en un poco número de ellos.
La DCT se basa en multiplicar por delante y por detrás por una matriz A y A transpuesta
respectivamente, a la matriz que contiene los coeficientes. Los coeficientes de la
matriz son:
Para el caso de 4x4 muestras, la matriz A es la siguiente:
A la salida de la transformación, tendremos un bloque de coeficientes transformados,
en los que la energía se va a concentrar en pocos de ellos. Una vez se ha transformado
se pasa al proceso de cuantificación, en el que a partir de un parámetro de
cuantificación (QP) se van dividiendo por el parámetro de cuantificación los
coeficientes resultantes, dando lugar a muchos ceros. De esta forma, cuando mayor
sea el parámetro de cuantificación, mayor será el número de ceros y más información
se perderá, y cuanto menor sea más información se conservará y, por lo tanto, mejor
calidad tendrá el video reconstruido.
1.4.3. Codificación entrópica:
Sistema de video adaptativo H264/SVC sobre TCP
24
El resultado de la transformación y cuantificación en forma de coeficientes
transformados o de residuales de la predicción deben ser estructurados de alguna
forma para la posterior transmisión en forma de flujo.
En H264 se utilizan dos codificaciones entrópicas con palabras de longitud variable.
Estas codificaciones son “Context Adaptive Variable Length Coding” (CAVLC) y “Context
Adaptive Binary Arithmetic Coding” (CABAC).
La diferencia principal entre las dos codificaciones es que con CABAC se consiguen
compresiones mayores aunque su complejidad algorítmica es mucho mayor que en
CAVLC, lo que se traduce en la necesidad de más recursos computacionales para poder
llevar a cabo las codificaciones.
En este proyecto, se ha elegido el uso de CAVLC, y se va a ver como realmente se
consiguen altas tasas de compresión, a pesar de ser el algoritmo con tasas de
compresión menores entre los dos a elegir.
25
Sistema de video adaptativo H264/SVC sobre TCP
Capítulo 2:
H264/SVC:
En este capítulo vamos a ver todos los conceptos necesarios sobre el anexo G del
estándar H264, para facilitar la correcta comprensión del proyecto en desarrollo.
Partiendo de la definición de flujo decodificable en H264/AVC, se generaliza en
H264/SVC el concepto de flujo de datos escalable, como el flujo tal que se pueden
extraer sub-flujos decodificables, dividiendo el flujo de datos en distintas capas.
Se muestra a continuación el esquema general de codificación del H264/SVC.
Figura 2.1: Esquema de codificación H264/SVC
2.1.
Conceptos de escalabilidad:
En H264/SVC se definen tres tipos de escalabilidad, escalabilidad temporal, ya propia
de H264/AVC, escalabilidad espacial, que consiste en diferentes capas con resolución
espacial diferente, y escalabilidad de calidad, que consiste en diferentes pasos de
cuantificación (QP), dando lugar a capas de mayor o menor PSNR.
2.1.1. Escalabilidad temporal:
Sistema de video adaptativo H264/SVC sobre TCP
26
Se define la escalabilidad temporal como la capacidad de partir en tiempo una capa en
diferentes casos de identificador de dependencia temporal (T0, …, Ti). La escalabilidad
temporal, ya es propia del estándar H264/AVC, de forma que funciona igual en AVC
que en SVC.
Se entiende por escalabilidad temporal los niveles de dependencia entre tiras B, de
forma que cada nueva capa que se añade se traduce en doblar el número de tiras B de
la estructura del orden de reproducción. Las tiras B se forman de la forma siguiente.
Figura 2.2: Estructura de bipredicción
En las tiras B se realiza un proceso de bipredicción, a partir de las listas cero y uno de
tiras I, P o B anteriores y posteriores al orden de reproducción. En el uso de
escalabilidad temporal se utilizan estructuras de predicción jerárquicas y diádicas. En
general en el caso de estructuras diádicas se obtiene un número de capas
correspondiente al logaritmo en base dos del tamaño de GOP más uno.
número de capas = log(GOP_size) + 1
Existen tres casos a contemplar, como se verá en la figura siguiente, estructura diádica,
no diádica y el caso de solo usar tiras P inter-predichas.
La estructura diádica es cuando se multiplica por dos el número de tiras B al
incrementar el número de identificadores de escalabilidad temporal. En concreto,
cuando se pone la primera B se añade una entre tiras I y P, y a partir de la primera B
con cada identificador temporal que se añade se añaden el doble de tiras I de las que
había. De esta forma se genera una estructura en la que las tiras B que se añaden se
van intercalando a derecha e izquierda de las otras tiras I, P o B anteriores en tiempo
de transmisión formando la estructura que se muestra en el caso a) de la figura 2.3.
Este caso se corresponde con una estructura diádica con un tamaño de GOP igual a
ocho, dando lugar a la capa base más tres capas de mejora.
27
Sistema de video adaptativo H264/SVC sobre TCP
El caso b) muestra la estructura de GOP no diádica para un tamaño de GOP igual a
nueve. Como se puede ver en la figura a partir de las tiras I se predicen las dos tiras P
siguientes, y a partir de las tiras I y P se hace la bi-predicción de dos tiras B
intermedias. La estructura es no diádica porque no respeta que se vayan añadiendo
tiras B multiplicando por dos e intercalándolas secuencialmente, tal como sucede en la
figura del caso a).
El caso c) muestra una estructura diádica para el caso de solo usar tiras P. En este caso,
a partir de la tira I inicial se predicen tres tiras P intermedias, y a partir de las tiras P
intermedias se predicen más tiras P posteriores en tiempo de reproducción.
Normalmente, cuando nos encontremos con una estructura de este tipo se va a tratar
de un tamaño de GOP igual a uno en el que cada tira P posterior en tiempo va a
depender de la tira I o P anterior en tiempo.
Figura 2.3: Estructura diádica y no diádica
2.1.2. Escalabilidad espacial:
La escalabilidad espacial, está basada en la capacidad de escalar en tamaño la
resolución del video de menor a mayor tamaño. Así, las capas superiores dependen de
las inferiores. En este caso aparte de las predicciones inter e intra, se añade el caso de
la predicción entre capas.
Se muestra a continuación un ejemplo con dos capas de escalabilidad espacial.
Sistema de video adaptativo H264/SVC sobre TCP
28
Figura 2.4: Escalabilidad espacial
La predicción entre capas se realiza de tal forma que se utiliza información propia de la
capa y de las capas inferiores. En concreto hay tres tipos de predicción entre capas:
1. Predicción de los vectores de movimiento (Inter-Layer Motion Prediction, M):
Consiste en sacar versiones interpoladas de los vectores de movimiento de la
capa inferior.
2. Predicción a partir del residual (Inter-Layer Residual Prediction, R): Se interpola
el residual de la capa inferior.
3. Predicción de macro-bloques intra-predecidos (Inter-Layer Intra Prediction): Se
interpola la intra-predicción realizada en la capa inferior.
La diferencia principal entre usar M y R, es que cuando se trabaja con la interpolación
de los vectores de movimiento, en la siguiente tira se sigue prediciendo desde la capa
base, mientras que cuando se trabaja con R, en las tiras siguientes se sigue trabajando
con inter-predicción en la capa superior.
2.1.3. Escalabilidad de calidad:
La escalabilidad de calidad se basa en el uso de dos o más capas con la misma
resolución pero con diferente parámetro de cuantificación a la hora de obtener el valor
de los coeficientes transformados.
En H264/SVC se utiliza “Medium-Grain Scalability Coding” (MGS), que permite predecir
desde la propia capa y desde las capas inferiores los valores de los residuales en cada
caso. Se caracteriza por el hecho de permitir partir los coeficientes transformados en
diferentes capas de mejora, asegurándose que se va a poder reconstruir usando los
coeficientes de las capas inferiores en caso de que no se disponga de todos los
coeficientes transformados en la capa superior.
La ventaja principal de usar MGS respecto a sus antecesores, es que nos permite el
intercambio entre capas en cualquier momento. En MPEG4 se utilizaba “Fine-Grain
Scalability Coding”, que a diferencia de la escalabilidad de SNR, predecía todas las
29
Sistema de video adaptativo H264/SVC sobre TCP
capas de mejora a partir de la capa base. En el otro extremo esta lo que se planteo en
MPEG2, que consistía en predecir todas las capas a partir de la de mejora. El problema
principal que apareció es que no se obtenía unas buenas tasas de codificación
comparado con el caso de transmitir varios flujos codificados con AVC, a diferencia del
caso de MGS que si se consiguió.
En MGS se utilizan fotogramas clave, que sirven para re-sincronizar la capa base con
las capas de mejora. De esta forma, se almacenan los fotogramas clave para no tener
que recodificar los fotogramas clave en las capas de mejora.
En la figura siguiente se muestran las diferentes estrategias de codificación en
escalabilidad de SNR.
Figura 2.5: Estructuras de dependencia de calidad
El caso a) es el correspondiente a FGS, b) es el extremo opuesto propuesto en MPEG2,
c) es un caso intermedio y d) es el caso de MGS.
2.1.4. Escalabilidad híbrida:
El concepto general de escalabilidad en el estándar H264/SVC, se basa en las posibles
combinaciones de los tres tipos de escalabilidad, dando lugar a flujos de datos
conformantes con diferentes combinaciones de los tres tipos de escalabilidad. Así se
podría generar secuencias de video codificadas con varias capas de escalabilidad
temporal y de SNR dentro de cada capa con una resolución diferente.
2.2.
Cabecera de las unidades NAL:
En H264 hay tres tipos de unidades NAL:
1. VCL NALU: son propiamente las unidades NAL que contienen la información
codificada de la secuencia de video.
2. Non-VCL NALU: Contienen conjuntos de parámetros de codificación,…
Sistema de video adaptativo H264/SVC sobre TCP
30
3. Cabeceras NALU del flujo de datos.
En este apartado vamos a analizar las cabeceras de las VCL NALU en H264/SVC.
En H264/AVC las cabeceras de la unidad NAL son de un byte de longitud, en cambio las
SVC contienen cuatro bytes de longitud, teniendo el primer byte el mismo contenido
que en AVC. En SVC se utilizan las unidades NAL de tipo 20, que son las unidades NAL
de tiras codificadas de extensión escalable.
Figura 2.6: Estructura del primer byte de la cabecera de las unidades NAL
F: 1 bit
forbidden_zero_bit: Se define que cuando valga uno indica un error en la
sintaxis.
NRI: 2 bits
nal_ref_idc: Un valor de 00 indica que la unidad NAL no será necesaria para
reconstruir fotogramas de referencia en predicciones futuras. Se puede descartar la
unidad NAL siempre que su valor sea de 00 pudiendo seguir decodificando sin su
existencia. Las tiras B de las que dependen otras tiras B según la estructura diádica
nunca tendrán un valor de 00, mientras que serán las tiras B de las que no depende
ninguna unidad NAL las que tendrán un valor de 00.
TYPE: 5 bits
nal_unit_type: Indica el tipo de unidad NAL en cuestión.
Los valores posibles en H264/AVC son los siguientes:
Figura 2.7: Tipos de unidad NAL H264/AVC
En SVC los valores posibles son los siguientes:
31
Sistema de video adaptativo H264/SVC sobre TCP
Figura 2.8: Tipos de unidad NAL H264/SVC
Los principales tipos de unidad NAL son las unidades NAL VCL (tipos 1, 2, 3, 4 y 5),
correspondientes en H264/AVC a la codificación parcial o total de una tira en instante
de refresco instantáneo, o sin instante de refresco instantáneo, y las non-VCL (tipos 6,
7 y 8) correspondientes al envió de información sobre la secuencia (SPS), sobre los
fotogramas (PPS), o de información suplementaria para la decodificación (SEI).
En H264/SVC, se añaden las unidades NAL correspondientes a la información
codificada para las capas superiores, llamadas de extensión de tira escalable (tipo 20),
las de información de capa a nivel de secuencia (SSPS, tipo 15) y las Prefix NAL Unit
(tipo 14), para contener información de compatibilidad con H264/AVC.
En H264/SVC además se añaden otros tres bytes que contienen la información de capa
superior para las unidades NAL de tipo 14 y 20.
Figura 2.9: Estructura de los tres últimos bytes de la cabecera de las unidades NAL en
H264/SVC
R: 1 bit
reserved_one_bit: Bit reservado para extensiones futuras.
I: 1 bit
idr_flag: Indica si se trata de una unidad NAL de IDR (vale 1), o no. Las tiras IDR,
tienen la peculiaridad que permiten resetear los errores propagados, ya que se
decodifican por si solas.
PRID: 6 bits
priority_id: Indica la prioridad de la unidad NAL. Cuanto menor es su valor, más
prioridad tiene la unidad NAL. Básicamente, los valores introducidos se ciñen a los
niveles de dependencia, de forma que una unidad NAL de una tira I en la primera capa
Sistema de video adaptativo H264/SVC sobre TCP
32
de mejora será la más prioritaria de todas y a medida que se suben capas hasta llegar a
la capa superior en las tiras B sin que otras tiras B dependan de la bi-predicción se
asignara los valores más altos.
N: 1 bit
no_inter_layer_pred_flag: Indica que se debe usar predicción entre capas para
decodificar la tira (vale 1) o no.
DID: 3 bits
dependency_id: Identifica el nivel de dependencia espacial de la unidad NAL.
Un valor de cero indica capa base, y a medida que aumenta se va pasando a las capas
superiores. Existen ocho resoluciones posibles.
QID: 4 bits
quality_id: Identifica el nivel de dependencia de calidad de las capas MGS. Para
una capa (Di, Ti, Qi) existe una capa (Di, Ti, (Qi – 1)) a partir de la que se hace
predicción entre capas. Existen diez y seis niveles de escalabilidad de calidad por nivel
de resolución.
TID: 3 bits
temporal_id: Identifica el nivel de dependencia temporal de la capa. Una capa
con un determinado identificador temporal depende siempre de los identificadores
temporales inferiores pero nunca superiores. Existen ocho niveles de dependencia
temporal por cada capa de calidad y/o resolución.
U: 1 bit
use_ref_base_pic_flag: Indica que se utilizan fotogramas base de referencia
para la inter-predicción (vale 1) o no (vale 0).
D: 1 bit
discartable_flag: Cuando vale uno indica que la unidad NAL actual no se utiliza
para decodificar otras unidades NAL con valores superiores de dependency_id, ni en
esta unidad de acceso ni en ninguna otra AU. Estas unidades NAL pueden ser
descartadas sin comprometer la integridad de las capas con identificador de
dependencia superior.
O: 1 bit
output_flag: Cuando vale uno indica que esta unidad NAL se utilizará para el
proceso de decodificación de otras tiras posteriores en tiempo de transmisión.
33
Sistema de video adaptativo H264/SVC sobre TCP
RR: 2 bits
reserved_three_2_bits: Bits reservados para extensiones futuras. Debe valer
“11”.
2.3.
Sintaxis de las unidades NAL:
En el estándar H264 se proponen varios tipos de lectura, en función de cómo están
estructurados los datos de las unidades NAL. En concreto se propone:




u(n): Leer n bits y devolver su valor como natural (unsigned).
u(v): Leer v bits que son función de otros parámetros y devolver su valor como
natural (unsigned).
ue(v): Leer un código Exp-Golomb y devolver su valor como natural (unsigned).
se(v): Leer un código Exp-Golomb y devolver su valor como entero (signed). El
signo positivo va con los números pares.
Los códigos Exp-Golomb son una codificación entrópica caracterizada por palabras de
longitud variable. Estos códigos se generan de la forma siguiente:
[sucesión de zeros][1][información]
número_ceros_sucesión = floor(log2(número_codigo + 1);
información = número_codigo + 1 – exp(2, número_ceros_sucesión);
Tabla 2.1: Lista de ejemplos de codificación Exp-Golomb
Y se decodifican de la forma siguiente:
número_ceros_sucesión = read(ceros);
información = read(número_ceros_sucesión después de uno);
Sistema de video adaptativo H264/SVC sobre TCP
34
número_codigo = información + exp(2, número_ceros_sucesión) – 1;
En H264 hay tres tipos de unidades NAL tal y como se ha comentado antes, las
unidades NAL VCL, las non-VCL y las cabeceras. Vamos a ver a continuación los
parámetros más importantes de los distintos tipos de unidad NAL.
2.3.1. Unidades NAL non-VCL:
Son las unidades NAL, que nos aportan información a nivel de secuencia o de
fotograma, para la posterior correcta decodificación. Las comunes en AVC y SVC son:



Supplemental Enhancement Information (SEI).
Sequence Parameter Set (SPS).
Picture Parameter Set (PPS).
Además en H264/SVC se añaden las siguientes:


Prefix NAL Unit.
Subset Sequence Parameter Set (SSPS).
2.3.1.1.
Supplemental Enhancement Information:
Los SEI aportan información acerca de la secuencia de video y su organización. Hay
alrededor de 40 tipos de mensaje SEI pero nos vamos a centrar en el
“Scalability_Information_SEI”, que solo se utiliza en SVC, y proporciona toda la
información de cómo está estructurada la secuencia de video.
Los elementos sintácticos más importantes que forman parte de este tipo de mensaje
SEI son:
num_layers_minus1: Indica el número de combinaciones diferentes de los
parámetros DTQ que forman la secuencia de video, es decir indica el número de capas
de la codificación.
layer_id: Asigna un identificador a cada capa. El identificador de capa es único,
y es un parámetro intercambiable por los tres siguientes.
dependency_id: Identificador de dependencia espacial de cada capa.
quality_id: Identificador de dependencia de calidad de cada capa.
temporal_id: Identificador de dependencia temporal de cada capa.
frame_height_in_mbs_minus1: Indica la altura en macro-bloques de los
fotogramas.
35
Sistema de video adaptativo H264/SVC sobre TCP
2.3.1.2.
Sequence Parameter Set:
El “Sequence Parameter Set” contiene información acerca de los parámetros de
codificación usados en origen, y se debe transmitir para que el decodificador pueda
realizar la función inversa en recepción. Solo puede haber uno en todo el flujo de datos
y se corresponde con la capa base. Para las demás capas están los “Subset Sequence
Parameter Set” que contiene el SPS.
Los elementos sintácticos más importantes en el SPS son:
seq_parameter_set_id: Un identificador para que los PPS puedan referenciar de
que SPS dependen.
pic_order_cnt_type: Un valor de cero indica que en la cabecera de la tira
tendremos su orden dentro del GOP. Los demás valores están sin definir. Siempre a
cero.
pic_width_in_mbs_minus1: Indica la anchura en macro-bloques del fotograma.
2.3.1.3.
Picture Parameter Set:
Los PPS contiene información para decodificar, principalmente sobre la capa de
cuantificación. Puede haber uno para cada capa de las que forman el flujo de datos, y
llevan asociado un SPS para la capa 000, y un SSPS para las demás.
Los elementos sintácticos más importantes en el PPS son:
pic_parameter_set_id: Un identificador del conjunto de parámetros a nivel de
fotograma para poder referenciarlo desde la cabecera de la tira.
seq_parameter_set_id: Identificador del SPS o SSPS del cual depende.
entropy_coding_mode_flag: Nos indica si la codificación de datos de la
secuencia de video se ha realizado con CAVLC (0) o CABAC (1). Ambos tipos de
codificación son codificadores entrópicos con longitud de las palabras variables, y se
aplican a los coeficientes transformados en forma de codificación.
2.3.2. Unidades NAL VCL:
Las unidades NAL VCL son las que contienen la información útil del video. En función
del tipo de unidad NAL se pueden clasificar en “Coded Slice of a non-IDR Picture”,
“Coded Slice of an IDR Picture” y las “Coded Slice Extension” propias de SVC. Por tipo
de tira se pueden clasificar en tiras I (Intra-predecidas), tiras P (inter-Predecidas) y tiras
B (Bipredecidas).
Todas las unidades NAL VCL, constan de la cabecera de la unidad NAL ya analizada en
apartados anteriores y de la cabecera de la tira, que nos dará toda la información para
Sistema de video adaptativo H264/SVC sobre TCP
36
decodificar, ya que referencia al “Picture Parameter Set” que a su vez referencia al
“Sequence Parameter Set” o “Subset Sequence Parameter Set” correspondiente.
2.3.2.1.
Coded Slice of non-IDR Picture:
Las tiras codificadas de una imagen que no son de instante de refresco instantáneo,
son aquellas que forman parte de la capa base, y que además de poder ser tiras I,
como en el caso IDR, pueden ser tiras P o B. Se caracterizan por ser iguales en
H264/AVC que en H264/SVC.
Los elementos sintácticos más importantes de la cabecera de las tiras no IDR son:
first_mb_in_slice: Indica la posición del primer macro-bloque en la tira. En
principio vale cero, pero si la tira fuera demasiado grande para caber en una unidad
NAL, se utiliza para indicar la posición relativa en número de macro-bloques.
slice_type: Indica el tipo de tira. Las tiras I son el número 2, las P el número 0 y
las B el número 1.
pic_parameter_set_id: Indica de que “Picture Parameter Set” depende.
pic_order_cnt_lsb: Nos indica cual sera el orden de decodificación, el cual va a
seguir la estructura del GOP.
direct_spatial_mv_pred_flag: Indica si esta activa (1) o desactiva (0) la
predicción directa entre capas. Un valor de cero indica que se pueden coger las tiras
anterior y posterior para la decodificación temporal.
Los elementos sintácticos más importantes de la parte de datos de las tiras son:
mb_skip_run: Se utiliza en CAVLC, e indica el número de macro-bloques no
codificados o perdidos.
mb_skip_flag: Se utiliza en CABAC, e indica si el macro-bloque presente se
reconstruye con datos de la propia tira o de otras.
2.3.2.2.
Coded Slice of an IDR Picture:
Las tiras codificadas de una imagen de refresco instantáneo de decodificación, solo
pueden ser tiras I, y nunca tendrán ningún mb_skip_flag igual a uno, ni ningún
mb_skip_run diferente de cero. Se utilizan como punto de recuperación de errores, ya
que dichas unidades NAL no dependen de ninguna otra.
Los elementos sintácticos de estas unidades NAL son los mismos de las no IDR, con lo
que la cabecera de la tira contiene los mismos campos.
2.3.2.3.
Coded Slice Extension:
37
Sistema de video adaptativo H264/SVC sobre TCP
Son las tiras propias de las capas superiores según H264/SVC. Mantienen mucha
similitud con la sintaxis de H264/AVC (la parte de datos es igual). Sin embargo, se
añaden algunos campos importantes para la caracterización de la escalabilidad.
Los elementos sintácticos más importantes que se añaden respecto a las de AVC son:
store_ref_base_pic_flag: Indica si se debe tener en cuenta la tira
inmediatamente inferior, según niveles de dependencia, en el proceso de predicción
de los vectores de movimiento de los macro-bloques de los datos de tira.
ref_layer_dq_id: Indica el valor de los parámetros DQ de la capa que se utiliza
como referencia. El parámetro DQ se establece según la expresión:
DQ_id = (dependency_id << 4) + quality_id
slice_skip_flag: Un valor de uno indica que no hay datos de tira.
num_mbs_in_slice_minus1: Indica el número de macro-bloques que se van a
predecir directamente.
Sistema de video adaptativo H264/SVC sobre TCP
38
Capítulo 3:
Filtrado adaptativo:
3.1.
Filtrado de unidades NAL:
Hasta este capítulo, se ha introducido la teoría necesaria para la correcta comprensión
de los puntos que se introducirán a continuación. En concreto, se puede considerar
como el capítulo central del proyecto, ya que es aquí donde se introducirá, la forma de
filtrar las unidades NAL, de tal forma que con el resultado obtenido pasado el filtrado
sea posible obtener una secuencia de video decodificable con los paquetes de
software JSVM y OpenSVCDecoder.
En primer lugar, vamos a definir como se entiende la palabra filtrar en este contexto.
Entendemos como filtro de unidades NAL, el filtro que es capaz de extraer sub-flujos
decodificables a partir del flujo general con distintos parámetros máximos de
“dependency_id”, “quality_id” y “temporal_id”. De esta forma se extraerán capas con
atributos menores a los máximos que serán a su vez conformantes con el estándar, y
por lo tanto decodificables y reproducibles.
En segundo lugar, cabe destacar que en el algoritmo desarrollado se ha buscado, la
máxima adaptación a todas las codificaciones posibles, pero en el transcurso del
desarrollo, he decidido acotar algunas limitaciones, contemplando aspectos como el
de implementabilidad de la lógica interna en tiempo real equiparablemente inferior al
tiempo de reproducción.
Razón, por la que se han impuesto las siguientes restricciones en el proceso de
codificación:


El nivel de dependencia entre capas siempre respecto a la inferior.
Máximo 2 capas de escalabilidad de SNR por cada capa.
Para tratar el tema con detalle, se van a tomar en consideración las distintas
implicaciones en el proceso de filtrado, teniendo en cuenta que las reglas expuestas a
continuación, van acotadas a las restricciones anteriores.
De esta forma, el planteamiento elegido es empezar de abajo a arriba añadiendo
nuevas reglas impuestas según el nivel de opciones utilizado.
3.1.1. Reglas de dependencia en el filtrado de unidades NAL:
Se empezará desde una primera versión en la que se verán las reglas impuestas por el
uso de diferentes capas con escalabilidad espacial, conjuntamente con el uso de
escalabilidad temporal. Una vez vistas las reglas de dependencia en el filtrado de
39
Sistema de video adaptativo H264/SVC sobre TCP
unidades NAL para la reproducción en este caso, se pasara a evaluar las reglas
introducidas por el uso de escalabilidad de SNR, y la introducción de “Medium Grain
Scalability”.
SINTAXIS:
Si se desea extraer (Di, Ti, Qi) se debe extraer (Dj, Tj, Qj)
Equivalente a:
(Di, Ti, Qi)  (Dj, Tj, Qj)
Si se desea extraer (Di , Ti, Qi) no se debe extraer (Dj, Tj, Qj)
Equivalente a:
(Di, Ti, Qi) -/-> (Dj, Tj, Qj)
3.1.1.1.
Reglas con escalabilidad espacial y temporal:
En general, las reglas de dependencia cumplen:
Escalabilidad temporal:
(D, T + 1, 0)  (D, T, 0)
Escalabilidad espacial:
(D + 1, T, 0)  (D, T, 0)
En particular, se deben añadir las siguientes reglas:
Reglas combinadas:
Si existe (Di, TMAX + 1, 0):
(DMAX, TMAX, QMAX) -/-> (Di, TMAX + 1, 0)
Esta regla básicamente indica que cuando existan más tiras B en alguna capa inferior
que en la capa que se va a extraer (es decir, que se utilice una velocidad de
reproducción mayor en capas inferiores), al extraer la capa superior a velocidad de
reproducción menor que la capa inferior, esas tiras B de las capas inferiores van a ser
filtradas en la extracción de la capa superior porque no habrán sido utilizadas para las
predicciones entre capas, y consecuentemente no serán necesarias para la
decodificación.
3.1.1.2.
Reglas con escalabilidad de SNR y uso de MGS:
Sistema de video adaptativo H264/SVC sobre TCP
40
En general las reglas de dependencia cumplen:
Escalabilidad de SNR y uso de MGS:
(D, T, Q + 1)  (D, T, Q)
Con el uso de MGS se añade una nueva regla general, que implica que cuando se
utilizan niveles temporales con escalabilidad de SNR que en la capa superior no
incluyen todos los coeficientes DCT de la codificación, en caso de existir alguna capa
con la misma resolución y nivel temporal inferior, se deben incluir todas las capas MGS
de esos niveles que contengan coeficientes DCT.
Si existe (DMAX , Ti, QMAX + 1)
Ti < TMAX
(DMAX, TMAX, QMAX)  (DMAX, Ti, QMAX + 1)
Reglas combinadas con escalabilidad espacial y temporal:
Para el correcto funcionamiento del algoritmo que se expondrá en el siguiente
apartado, es importante remarcar que en un video codificado con H.264 SVC, se deben
aplicar todas las reglas que se han ido desglosando en varios apartados, para obtener
un archivo SVC filtrado que sea conformante con el estándar.
3.1.2. Algoritmo de filtrado de unidades NAL:
A través de las reglas expuestas anteriormente, se ha procedido a la obtención del
algoritmo en lenguaje de programación que llevara a cabo el acometido de extraer
según los límites impuestos por dichas reglas.
Se distinguen los dos casos según se trate de un video codificado que utilice MGS, o en
ausencia de su uso.
3.1.2.1.
Algoritmo de extracción sin usar MGS:
Para una mejor comprensión del código que se muestra a continuación, vamos a ver
un ejemplo del funcionamiento del algoritmo de filtrado explicado detalladamente.
En este caso, no se contempla el uso de MGS, por lo que el ejemplo elegido, ha sido
pensado para contener los tres tipos de escalabilidad, es decir una codificación con
tres capas, la capa base, una capa de mejora de calidad, y otra con más resolución. Así,
se estaría utilizando escalabilidad de resolución y de SNR. Por esto, se elige un tamaño
de GOP igual a 2 generando así dos capas temporales por capa de resolución y calidad.
En este caso particular, dispondremos de seis capas, que según el valor de sus
identificadores DTQ, serán las capas 000, 001, 100, 010, 011 y 110. La generación del
flujo se hace según la imagen de la figura 3.1.
41
Sistema de video adaptativo H264/SVC sobre TCP
Figura 3.1: Estructura de la codificación, con capa base, capa de calidad mejorada y
capa de resolución superior
Partiendo de la capa base (000) se generan las capas superiores en niveles de
dependencia de resolución (100), de calidad (001) y temporal (010), y a partir de las
capas superiores se generan las capas temporales superiores en resolución (110) y
calidad (011). Estas últimas capas dependen a su vez de la capa base y de las capas de
mejora.
El algoritmo de filtrado, se encarga de obtener la extracción con un DTQ_th máximo,
encargándose de cumplir todos los niveles de dependencia, es decir, hacer que en
cada extracción se cumplan todas las reglas descritas en el apartado anterior.
Por ejemplo, para conseguir la extracción del flujo con máxima resolución a la máxima
velocidad de reproducción se deben incluir las unidades NAL correspondientes a las
capas 000, 010, 100 y 110, porque para cumplir las reglas, la extracción hasta 110 debe
incluir todas sus dependencias, la capa 100 según dependencia temporal y las capas
000 y 010 porque la capa base de la que se predice entre capas es esta.
Es importante darse cuenta que no depende de las capas de calidad mejorada, ya que
se parte de una codificación, en la que se debe haber utilizado como capa base de la
de resolución mayor, la capa base. En este caso también se podría añadir las capas de
mejora de calidad, pero no se obtendría el mínimo flujo de transmisión.
Para completar el ejemplo, se ve en la tabla siguiente para cada DTQ_th de extracción,
las capas que va a incluir una vez analizado según el algoritmo de extracción que se
mostrará más adelante.
DTQ_th
000
001
100
010
011
110
Capas incluidas
000
001
100
010
011
Sí
No
No
No
No
Sí
Sí
No
No
No
Sí
No
Sí
No
No
Sí
No
No
Sí
No
Sí
Sí
No
Sí
Sí
Si
No
Sí
Sí
No
Tabla 3.1: Resultados algoritmo de extracción para el ejemplo 1
110
No
No
No
No
No
Sí
Sistema de video adaptativo H264/SVC sobre TCP
42
A continuación, vemos el código correspondiente al algoritmo de filtrado para el caso
sin uso de MGS, el cual se encarga de realizar el proceso descrito en el ejemplo, y en el
que los atributos “dependency_id”, “quality_id” y “temporal_id” se corresponden con
los atributos de cada unidad NAL analizada.
//PARAMETROS LIMITE EN LA EXTRACCIÓN
int dependency_id_th, quality_id_th, temporal_id_th;
int extract = 0; //1: NALU se debe extraer
//0: No se debe extraer
//Parametros auxiliares para manejar los limites en las distintas capas
int quality_id_tmp;
…
extract = 0;
quality_id_tmp = quality_id_th;
for(int i=dependency_id_th; i>-1; i--){
for(int j=temporal_id_th; j>-1; j--){
for(int k=quality_id_tmp; k>-1; k--){
if(dependency_id == i && temporal_id == j && quality_id == k){
extract = 1;
break;
}
}
if(extract == 1)
break;
}
if(extract ==1)
break;
quality_id_tmp = 0;
}
if(extract == 1){
//ALMACENAR o TRANSMITIR
}
3.1.2.2.
Algoritmo de extracción usando MGS:
De la misma forma, que en el caso sin MGS, vamos a ver un ejemplo, que permita la
correcta comprensión del código que se añade al algoritmo de extracción para el caso
en que se va a usar MGS.
La codificación de video elegida es la misma que en el ejemplo anterior, pero usando
MGS en la capa de calidad mejorada. En concreto, se van a generar dos capas de
calidad mejorada, que contendrán cuatro de los ocho coeficientes transformados cada
43
Sistema de video adaptativo H264/SVC sobre TCP
una. De esta forma, se generan las ocho capas 000, 001, 002, 100, 010, 011, 012 y 110,
tal y como se ve en la figura 3.2.
Figura 3.2: Estructura de la codificación, con capa base, capa de calidad mejorada con
uso de MGS y capa de resolución superior
Aunque, en la imagen se muestra, la capa añadida (Q=2) como si fuera predicha a
partir de la capa de mejora (Q=1), en realidad se trata de una codificación con MGS,
por lo que se trata de la misma capa pero en este caso se parten los coeficientes
transformados en dos capas. En la práctica, se van a dividir las unidades NAL de la
misma forma que si se estuvieran utilizando varias capas de mejora.
La principal diferencia, con el algoritmo de extracción sin el uso de MGS, es que se va a
cumplir la última regla general expuesta, que consiste en incluir las capas con
identificador de calidad mayor, nivel temporal inferior y misma resolución que el de la
extracción, en los casos en que se va extraer con identificador de calidad menor e
identificador temporal más grande.
Este es el caso, que sucede cuando se quiere extraer hasta la capa 011, en que según el
algoritmo de filtrado sin MGS, cumpliendo todas las dependencias se iban a extraer las
capas 000, 001, 010 y 011. Lo que sucede, es que al usar MGS, los coeficientes
transformados quedan divididos en las capas con Q igual a uno y dos, razón por la que
si se quiere extraer hasta 011 se debe incluir la capa 002 para que se incluyan todos los
coeficientes transformados de la capa DT igual a 00.
Es importante tener en cuenta, que en el caso de haber utilizado dos capas de calidad
mejorada el algoritmo de extracción funciona correctamente sin el uso de MGS. Por
esto, ya se ha expuesto al inicio del capítulo que se limita a dos capas con diferentes
calidades por capa de resolución, y posibilidad de usar MGS en la capa de mejora.
Para completar el ejemplo, se ve en la tabla siguiente para cada DTQ_th de extracción,
las capas que va a incluir una vez analizado según el algoritmo de extracción que se
mostrará más adelante.
DTQ_th
000
001
002
Capas incluidas
100
010
011
012
110
Sistema de video adaptativo H264/SVC sobre TCP
000
001
002
100
010
011
012
110
Sí
No
No
No
No
No
No
Sí
Sí
No
No
No
No
No
Sí
Sí
Sí
No
No
No
No
Sí
No
No
Sí
No
No
No
Sí
No
No
No
Sí
No
No
Sí
Sí
Sí
No
Sí
Sí
No
Sí
Sí
Sí
No
Sí
Sí
Sí
Si
No
No
Sí
Sí
No
No
Tabla 3.2: Resultados algoritmo de extracción para el ejemplo 2
44
No
No
No
No
No
No
No
Sí
A continuación, se muestra el código correspondiente al algoritmo de filtrado para el
caso con uso de MGS. Los atributos “dependency_id”, “quality_id” y “temporal_id” se
corresponden con los atributos de cada unidad NAL analizada.
A continuación, vemos el código correspondiente al algoritmo de filtrado para el caso
sin uso de MGS, el cual se encarga de realizar el proceso descrito en el ejemplo, y en el
que los atributos “dependency_id”, “quality_id” y “temporal_id” se corresponden con
los atributos de cada unidad NAL analizada.
//PARAMETROS LIMITE EN LA EXTRACCIÓN
int dependency_id_th, quality_id_th, temporal_id_th;
int extract = 0; //1: NALU se debe extraer
//0: No se debe extraer
//Parametros auxiliares para manejar los limites en las distintas capas
int quality_id_tmp;
//Parametros que contendran las capas a las que se les da acceso
int D_array[NUM_LAYER], T_array[NUM_LAYER], Q_array[NUM_LAYER];
int pos_array = 0;
…
extract = 0;
quality_id_tmp = quality_id_th;
for(int i=dependency_id_th; i>-1; i--){
for(int j=temporal_id_th; j>-1; j--){
for(int k=quality_id_tmp; k>-1; k--){
if(dependency_id == i && temporal_id == j && quality_id == k){
extract = 1;
break;
}
}
if(extract == 1)
break;
}
if(extract ==1)
break;
45
Sistema de video adaptativo H264/SVC sobre TCP
quality_id_tmp = 0;
}
//Comprobar que en caso de (D,T,Q) almacenado con ((D < dependency_id_th ||
T < temporal_id_th)&&Q>=1)
// Se incluyan también (D,T,Qi) con Qi>Q
int i = 0;
if(quality_id > 0 && extract == 0){
while(!(D_array[i] == -1 && T_array[i] == -1 && Q_array[i] == -1) == true){
if((D_array[i] < dependency_id_th || (T_array[i] < temporal_id_th)) &&
Q_array[i] > 0){
if(dependency_id == D_array[i] && temporal_id == T_array[i] &&
quality_id > Q_array[i]){
extract = 1;
}
}
i++;
}
}
//Comprobar si existe (D, T, Q) introducido en los arrays
i = 0;
int DTQ_exists_in_array = 0;
while(!(D_array[i] == -1 && T_array[i] == -1 && Q_array[i] == -1)){
if(dependency_id == D_array[i] && quality_id == Q_array[i] && temporal_id ==
T_array[i]){
DTQ_exists_in_array = 1;
break;
}
i++;
}
//Almacenar capas a las que se les da acceso y que no han sido introducidas antes
(DTQ_exists_in_array == 0)
if(extract == 1 && DTQ_exists_in_array == 0){
D_array[pos_array] = dependency_id;
Q_array[pos_array] = quality_id;
T_array[pos_array] = temporal_id;
pos_array++;
}
if(extract == 1){
//ALMACENAR o TRANSMITIR
}
3.2.
Filtrado adaptativo:
Sistema de video adaptativo H264/SVC sobre TCP
46
Se define el filtrado adaptativo, como la capacidad de extracción de distintas capas
máximas a través del tiempo, de forma que durante un intervalo de tiempo se extraerá
a un DTQ_th y durante otro intervalo de tiempo a otro DTQ_th distinto del primero y
así, sucesivamente.
Las reglas del filtrado adaptativo, vendrán limitadas por las líneas de dependencia
entre unidades NAL propias del estándar H264. De esta manera empezaremos por ver
como se conforman los flujos de transmisión en el estándar H264/AVC, para seguir con
la conformación del estándar H264/SVC, para a posteriori poder obtener los posibles
puntos de corte en que se pueda realizar un intercambio de capa.
3.2.1. Orden de transmisión de flujo de datos H264/AVC:
Hay tres casos a contemplar, el flujo inicial en que se transmite una I seguida de una P,
porque I y P, siempre van transmitidas antes que las B que se reproducen antes de la I
o P en cuestión, contemplado como flujo en inicio; flujo normal y flujo cuando se
encuentra una unidad NAL de refresco instantáneo de decodificación (IDR).
Vamos a ver unos cuantos ejemplos con valores variables de tamaño de GOP.
Flujo de inicio:
GOP size = 2:
Figura 3.3: Flujo de inicio con tamaño de GOP igual a 2
GOP_size = 4:
Figura 3.4: Flujo de inicio con tamaño de GOP igual a 4
GOP size = 8:
47
Sistema de video adaptativo H264/SVC sobre TCP
Figura 3.5: Flujo de inicio con tamaño de GOP igual a 8
Flujo normal:
GOP size = 2:
Figura 3.6: Flujo normal con tamaño de GOP igual a 2
GOP_size = 4:
Figura 3.7: Flujo normal con tamaño de GOP igual a 4
GOP size = 8:
Figura 3.8: Flujo normal con tamaño de GOP igual a 8
Sistema de video adaptativo H264/SVC sobre TCP
48
Como se puede ver, el orden de dependencia es tal que se van añadiendo tiras B, hasta
llegar al máximo identificador de dependencia, y a partir de ahí se van repartiendo de
dos en dos formando la estructura que se puede ver en las imágenes. La diferencia
entre el flujo de origen y el normal es tal que en el origen se transmiten primero las
tiras I y P para que las B que se transmiten a posteriori sean anteriores en orden de
reproducción.
En el caso de intercambio por tira I de refresco de decodificación se deben contemplar
dos casos. En primer lugar, el caso en que el periodo de IDR es múltiple del periodo de
tiras intra-predecidas, caso en el que cuando se pone la tira IDR le toca a una tira I. Y el
segundo es el caso contrario, caso en el que debido a que el periodo IDR debe ser
múltiple del tamaño de GOP, le corresponderá la posición de una P.
Flujo en IDR:
IDR_period = M * Intra_period (M entero):
GOP size = 2:
Figura 3.9: Flujo en IDR múltiple periodo intra-predicción con
tamaño de GOP igual a 2
GOP size = 4:
Figura 3.10: Flujo en IDR múltiple periodo intra-predicción con
tamaño de GOP igual a 4
GOP size = 8:
49
Sistema de video adaptativo H264/SVC sobre TCP
Figura 3.11: Flujo en IDR múltiple periodo intra-predicción con
tamaño de GOP igual a 8
IDR_period != M * Intra_period (M entero):
GOP size = 2:
Figura 3.12: Flujo en IDR no múltiple periodo intra-predicción con
tamaño de GOP igual a 2
GOP size = 4:
Figura 3.13: Flujo en IDR no múltiple periodo intra-predicción con
tamaño de GOP igual a 4
GOP size = 8:
Sistema de video adaptativo H264/SVC sobre TCP
50
Figura 3.14: Flujo en IDR no múltiple periodo intra-predicción con
tamaño de GOP igual a 8
El detalle más importante en que hay que fijarse es el hecho que cuando aparece una
tira I de refresco instantáneo de decodificación, las tiras B siguientes no tienen dos
tiras para ser inter-predichas y consecuentemente se transforman en tiras P en las que
el segundo subíndice indica la posición relativa.
Para el filtrado adaptativo en H264/AVC tendremos combinaciones con diferentes
identificadores de dependencia temporal, como por ejemplo 010 y 020. Al tener
siempre dependencia hacía atrás en tiempo de reproducción respecto al tiempo de
transmisión será posible cortar por cualquier sitio obteniendo como resultado flujos
conformantes con el estándar, independientemente de si los intercambios son de
identificador temporal mayor a menor, o menor a mayor.
3.2.2. Orden de transmisión de flujo de datos H264/SVC:
Para el caso del estándar H264/SVC se elige una codificación que contiene los tres
tipos de escalabilidad a modo de ejemplo para detectar las características que deben
cumplir los puntos de corte para obtener flujos de datos conformantes con el
estándar.
En concreto, se elige una codificación de tres capas, capa base, capa de calidad de SNR
mejorada y capa con resolución superior a las dos capas anteriores, con un tamaño de
GOP en cada capa de dos. Se va a ver para esta codificación el orden de transmisión
del flujo de datos para cada uno de los cuatro casos. Los subíndices indican la capa
correspondiente a la que pertenecen las unidades NAL, siendo cero la capa base, 1 la
capa de escalabilidad de SNR y 2 la capa de escalabilidad de resolución.
Se muestra a continuación, los flujos generados.
Flujo de inicio:
Figura 3.15: Flujo inicio codificación con tres capas, capa base,
capa calidad mejorada y capa de resolución superior
51
Sistema de video adaptativo H264/SVC sobre TCP
Flujo normal:
Figura 3.16: Flujo normal codificación con tres capas, capa base,
capa calidad mejorada y capa de resolución superior
Flujo en IDR:
IDR_period = M * Intra_period (M entero):
Figura 3.17: Flujo en IDR múltiple periodo intra-predicción codificación con
tres capas, capa base, capa calidad mejorada y capa de resolución superior
IDR_period != M * Intra_period (M entero):
Sistema de video adaptativo H264/SVC sobre TCP
52
Figura 3.18: Flujo en IDR no múltiple periodo intra-predicción codificación con
tres capas, capa base, capa calidad mejorada y capa de resolución superior
De forma general, igual que en el caso analizado, el orden de transmisión cuando se
transmite más de una capa, sigue el orden temporal de H264/AVC, fijando el orden
entre capas correspondiente a la codificación. En este caso, se transmiten primero las
unidades NAL de la capa base, seguidas por las de escalabilidad de SNR, y finalmente
las de escalabilidad de resolución.
3.2.3. Parámetros de diseño del filtrado adaptativo:
Vamos a analizar a continuación la posibilidad de transmitir flujos filtrados
adaptativamente que puedan contener cualquier combinación entre las seis capas
generadas (000, 001, 100, 010, 011 y 110).
En primer lugar es importante darse cuenta que en los flujos resultantes se deberá
cumplir todas las restricciones de dependencia propias del estándar. Así, si se fuera a
cortar por tiras P o tiras B, ya se ve enseguida que dependerían de las tiras I anteriores,
por lo que podría dar lugar a flujos de datos no conformantes.
De esta forma, se ve la necesidad de que los puntos de corte se localicen en las tiras I
de la capa base. Entonces, teniendo en cuenta que las tiras B que siguen al punto de
corte son dependientes de las dos tiras I y/o P anteriores se llega a dos posibilidades
en el filtrado realizado en el flujo normal:
1. Cambiar de DTQ_th en la tira I con DTQ igual a 000, y filtrar las tiras B
siguientes, de forma que se consigue un flujo de datos decodificable porque las
siguientes tiras B que aparecen ya disponen de dos tiras I y/o P para poder ser
decodificadas correctamente.
2. La segunda opción, es no filtrar las tiras B que se transmiten después del punto
de corte. En este caso, estas tiras B dependerán del DTQ_th inicial porque para
53
Sistema de video adaptativo H264/SVC sobre TCP
poder ser decodificadas, deberá ser filtrado en el DTQ_th que se dispongan las
dos tiras I y/o P anteriores, y como antes del filtrado la tira I y/o P anterior será
extraída en el primer DTQ, las tiras B que siguen al punto de corte se van a
filtrar con el DTQ_th que había antes del corte. De forma similar las siguientes
tiras B que aparezcan dependerán de las dos tiras I y/o P anteriores, razón por
la cual dependerán de las tiras I siguientes al punto de corte incluidas en la
extracción. Se ve así la necesidad de extraer las tiras I siguientes al corte para
que se incluya las necesarias para decodificar las dos tiras B siguientes. Es decir,
debe incluir las tiras I según los dos DTQ_th, el anterior y el posterior al punto
de corte. Así, el funcionamiento es el siguiente, intercambio a DTQ_th2 cuando
se detecte tira I con DTQ igual a 000, cambio a DTQ_th cuando se detecte
dependencia temporal más grande que uno y intercambio a DTQ_th2 cuando
se vuelva a detectar tira con nivel de dependencia temporal igual a 0.
En el caso de intercambio de capa por un punto de corte IDR, que también cumple que
la tira del intercambio es una I con DTQ igual a 000, al ser las tiras siguientes
dependientes solamente de la unidad NAL IDR, van a poder realizar el intercambio sin
tener que filtrar ni tener en cuenta consideraciones adicionales.
Se muestra el ejemplo de un intercambio entre 110 y 011 para cada uno de los casos.
Flujo normal:
Figura 3.19: Intercambio entre capas 110 y 011 en flujo normal. Caso 1
Figura 3.20: Intercambio entre capas 110 y 011 en flujo normal. Caso 2
Flujo en intercambio IDR:
IDR_period = M * Intra_period (M entero):
Figura 3.21: Intercambio entre capas 110 y 011 en flujo IDR múltiple
Sistema de video adaptativo H264/SVC sobre TCP
periodo intra-predicción
IDR_period != M * Intra_period (M entero):
Figura 3.22: Intercambio entre capas 110 y 011 en flujo IDR no múltiple
periodo intra-predicción
54
55
Sistema de video adaptativo H264/SVC sobre TCP
Capítulo 4:
Estimación del ancho de banda de transmisión:
Una vez visto el algoritmo de filtrado de unidades NAL, el siguiente paso para
desarrollar el sistema de transmisión de video adaptativo sobre TCP, es plantearse cuál
será él, o los parámetros que nos permitirán transmitir adaptativamente a la conexión
un determinado número de capas durante un cierto tiempo y otro determinado
número de capas durante otro cierto tiempo, y así sucesivamente.
De esta forma, es en el protocolo TCP, donde vamos a buscar los parámetros
característicos de la conexión, razón por la cual en primer lugar se verá una breve
descripción de los parámetros de funcionamiento del protocolo de transporte TCP.
4.1.
Protocolo de control de Transporte:
TCP es un protocolo de transporte orientado a conexión, fiable y con control de
errores extremo a extremo. Es orientado a conexión porque antes de iniciar la
conexión se pasa por la fase de establecimiento y al finalizar la conexión se pasa por la
fase de cierre de conexión. Es fiable porque se encarga de comprobar y asegurar que
los paquetes se reciban y que sea en orden correcto, mediante el uso de control de
errores, basados en el uso de paquetes de reconocimiento de recepción por parte del
extremo receptor.
En primer lugar, cuando aparece una conexión usando TCP, se pasa por la fase de
establecimiento, que es un proceso de tres pasos, el extremo que inicia la apertura
activa envía un paquete SYN, al extremo que debe estar escuchando en un puerto de
recepción, para que cuando reciba un paquete SYN, responda con un SYN-ACK, que le
indica al extremo inicial que se va a establecer conexión, y este finalmente envía un
paquete de reconocimiento de recepción del paquete de establecimiento de conexión,
momento en que la conexión queda establecida, y ya se puede iniciar la transmisión de
paquetes de datos. La fase de cierre funciona exactamente igual, pero en este caso los
paquetes enviados son FIN, FIN-ACK y ACK. Vemos a continuación una imagen que
muestra ambas fases de conexión.
Sistema de video adaptativo H264/SVC sobre TCP
56
Figura 4.1: Fases de establecimiento y finalización de conexión
Una conexión TCP queda caracterizada por dos direcciones IP y dos puertos, los
correspondientes al origen y al destino de la conexión. De esta forma se llama
establecimiento activo a la parte que fija la dirección y el puerto de destino y transmite
desde dirección y puerto origen, y establecimiento pasivo al extremo que fija su
dirección y puerto de destino y pone un socket en escucha a la espera de que se
establezcan conexiones.
En una conexión TCP, se define el control de errores como la capacidad de detectar
cuando se produce un error en las transmisiones. De esta forma, se utilizan paquetes
ACK, de reconocimiento que se encargan de asegurar cuando se reciben en el extremo
transmisor que los paquetes enviados hasta el reconocido han sido recibidos
correctamente.
Así, existen tres posibilidades cuando se envía un paquete, primero que se reciba y se
reconozca correctamente, segundo que el paquete se pierda y tercero que haya un
reenvió del paquete debido a la pérdida del reconocimiento. Es por esta razón, que se
define el tiempo de retransmisión (RTO) antes de que se reenvíe el paquete. El valor
de este tiempo viene determinado por medidas del tiempo de transporte extremo a
extremo (“Round Trip Time”), y se utiliza con un algoritmo de backoff exponencial que
va multiplicando por 2 (RTO(n) = 2 * RTO(n – 1)), a medida que se van perdiendo
paquetes porque se asume que cuando se pierden es un indicativo de una situación de
congestión. Las tres situaciones citadas son las siguientes.
57
Sistema de video adaptativo H264/SVC sobre TCP
Figura 4.2: Casos de transmisión: Paquete enviado y reconocido,
retransmisión y paquete duplicado
Además, TCP dispone de control de flujo, en que mediante el mecanismo de ventana
deslizante se controla que el flujo en red sin haber sido procesado por parte del
extremo receptor no exceda el límite fijado por el tamaño de la ventana deslizante. El
funcionamiento es tal que cada vez que se transmite un determinado paquete de
tamaño N bytes, se reduce el tamaño de la ventana en dicho tamaño, llegando como
mínimo al tamaño de ventana igual a 0 bytes, caso en que se detendrá la transmisión a
la espera de que el nodo receptor envíe otro paquete indicando que el tamaño de la
ventana ha aumentado. Se muestra a continuación una imagen que contiene un
ejemplo de funcionamiento del control de flujo.
Sistema de video adaptativo H264/SVC sobre TCP
Figura 4.3: Ejemplo de control de flujo
4.1.1. Cabecera TCP:
La cabecera del protocolo de control de transporte es la siguiente:
Figura 4.4: Cabecera TCP
Los campos por los que está formado son los siguientes:


Puerto de origen.
Puerto de destino.
58
59
Sistema de video adaptativo H264/SVC sobre TCP







Número de secuencia: Número del paquete transmitido. Sigue orden
secuencial.
Número de ACK: Número de secuencia de reconocimiento hasta el que se
reconoce paquetes anteriores recibidos correctamente.
Tamaño de la cabecera: Se expresa en palabras de 4 bytes.
Code bits: Bits para enviar mensajes especiales.
o FIN: Finalizar conexión
o SYN: Establecer conexión.
o RTS: Resetear la conexión.
o PSH: Petición de envió de datos.
o ACK: Reconocimiento de paquetes.
o URG: Campo de puntero urgente valido.
Tamaño de la ventana deslizante.
Checksum: Función resumen obtenida a partir de las direcciones IP y otros
atributos.
Opciones: MSS, Window Scale y Timestamp.
A parte de los campos descritos en TCP también es posible añadir opciones en la
cabecera, se puede modificar el tamaño de segmento mediante la opción MSS, o el
escalado de ventana, y ponerle etiquetas temporales a los paquetes marcando los
tiempos de envío y recepción para poder por ejemplo obtener una estimación de RTO.
4.1.2. Control de congestión:
El control de congestión en TCP es el que se encarga de controlar las situaciones con
alto tráfico en red que conlleven reenvíos de paquetes. Consta de tres mecanismos,
inicio lento, evitar congestión y ser conservativo después de eventos de retransmisión.
Al iniciar la transmisión se empieza con “slow start”, se fija la ventana de congestión a
que solo se pueda transmitir un segmento, y cada vez que se recibe un ACK, se
multiplica por dos de forma exponencial el número de segmentos que se pueden
transmitir. Una vez se detecta que ha habido alguna perdida, se pasa a trabajar con
uno de los otros dos métodos.
Sistema de video adaptativo H264/SVC sobre TCP
60
Figura 4.5: Fase “slow start”
Si se detectan tres ACK duplicados, se pasa a trabajar con el mecanismo “Congestion
Avoidance”, que se basa en incremento aditivo, y decremento multiplicativo, de forma
que cuando se detectan los tres ACK duplicados se reduce la ventana de congestión a
la mitad y a partir de ese momento, con la situación de congestión detectada se pasa a
aumentar el tamaño de uno en uno. Se puede ver a continuación un ejemplo de este
mecanismo.
Figura 4.6: Ejemplo control de congestión
Por último, en el caso de que se detecte una retransmisión, se reduce el tamaño a uno
y se empieza otra vez los aumentos de forma exponencial hasta un límite fijado
normalmente en la mitad de tamaño que tenía antes de detectar la situación de
congestión.
61
4.2.
Sistema de video adaptativo H264/SVC sobre TCP
Estimación del ancho de banda de transmisión:
Una vez vistas las principales características del protocolo de transporte TCP, vamos a
pasar a evaluar con que parámetros será posible controlar a nivel de aplicación que la
transmisión sea adaptativa al protocolo TCP. Básicamente, los parámetros principales
son el ancho de banda disponible, y el tiempo de transmisión extremo a extremo.
Es importante darse cuenta que se pueden definir varias estrategias a nivel de capa de
aplicación, como por ejemplo añadir comunicación entre los extremos transmisor y
receptor, para mediante la definición de un protocolo a nivel de aplicación conseguir
evitar transmisiones en ciertas circunstancias.
En este proyecto, a diferencia del concepto anterior se ha optado por evitar definir un
protocolo a nivel de aplicación y en su lugar, se ha elegido que mediante las medidas
estimadas por parte del sistema operativo se consiga saber aproximadamente cuál es
el ancho de banda disponible, y acotar la transmisión de forma adaptativa a las
condiciones de red existentes. A nivel de socket el ancho de banda disponible podrá
ser estimado por la siguiente expresión:
BW(bits/s) = cwnd(bits) / RTT(s)
Es por esta razón que el siguiente paso lógico de la operación es tratar de obtener en
tiempo real la estimación del ancho de banda a transmitir por parte de cada una de las
posibles combinaciones de parámetros de escalabilidad del video codificado.
4.2.1. Tamaño de las capas de extracción en tiempo real:
El primer paso para poder obtener una estimación en tiempo real que nos permita
comparar el ancho de banda disponible con el ancho de banda necesario para
transmitir hasta una capa determinada, es obtener en tiempo real el tamaño de cada
unidad NAL con una determinada combinación de DTQ, para así mediante el
conocimiento de la velocidad de transmisión del video poder estimar para cada capa el
ancho de banda necesario para su transmisión.
Con un fotograma:
BW(bits/s) = L(bits/frame)*Fps(frame/s)
Con N fotogramas:
BW(bits/s) = L(bits en N frames)*Fps(frames/s)/N(frames)
Sistema de video adaptativo H264/SVC sobre TCP
62
El primer punto importante, es darse cuenta, que no basta con obtener el tamaño de
una determinada unidad NAL de la DTQ, sino que en su lugar el tamaño que se tiene
que obtener en tiempo real, es el agregado, de todas las capas incluidas que habría en
la extracción de un determinado DTQ. De esta forma, se ve la necesidad de disponer
una vez analizada cada una de las unidades NAL de una estimación del ancho de banda
a transmitir para cada una de las posibles combinaciones DTQ del video codificado.
En segundo lugar, es importante ver que será necesario aplicar el algoritmo de
extracción de unidades NAL cada vez que se analice una de dichas unidades para poder
obtener la estimación de todas y cada una de las capas.
Así, el algoritmo con el que se obtendrá el tamaño de las unidades NAL en tiempo real,
básicamente lo que realizara será un incremento del tamaño de cada una de las capas
en las que la unidad NAL deba ser incluida.
4.2.2. Velocidad de reproducción del video:
El siguiente parámetro para la estimación del ancho de banda necesario para la
transmisión, es la velocidad de reproducción del video.
La obtención de dicho parámetro es totalmente dependiente del identificador de
escalabilidad temporal, parámetro ya propio de H.264 en su versión AVC. A pesar de
tener una dependencia directa con este parámetro, es importante remarcar que el
parseado entre “dependency_id” y la velocidad de reproducción necesaria para la
estimación del ancho de banda, será dependiente del tipo de video.
En general se cumple que si se aumenta el parámetro de escalabilidad temporal se
multiplica por dos la velocidad de reproducción, pero la velocidad mínima de
reproducción es dependiente de la codificación empleada, concretamente se
determina a partir de los parámetros “Frame Rate” y “GOP_size”. Por ejemplo para un
“GOP_size” de 4 con orden de reproducción IbBbPbBbI… y un “Frame Rate” máximo
de 50 frames/s, la velocidad de transmisión con “temporal_id” de 0 es de 12,5
frames/s.
4.2.3. Implementación de la estimación en tiempo real del ancho de banda de
transmisión:
El objetivo de la implementación es conseguir que en tiempo real se vayan obteniendo
los tamaños agregados, y a partir de su velocidad de reproducción y del número de
unidades NAL incluidas con el DTQ máximo de la capa se deduzca el ancho de banda
de transmisión durante los distintos tramos del video codificado.
63
Sistema de video adaptativo H264/SVC sobre TCP
El punto más importante a tener en cuenta es la necesidad de aplicar el algoritmo de
extracción cada vez que se analiza una unidad NAL, debido a la necesidad de
incrementar el tamaño de cada una de las combinaciones que incluyen el DTQ de la
capa analizada.
De esta forma, se valoró el desarrollo del mismo algoritmo de extracción en orden
inverso, porque se adecuaría mucho mejor al hecho de comprobar de abajo arriba en
niveles de dependencia, el hecho de si se debe añadir o no el tamaño de una unidad
NAL a una capa de extracción. Sin embargo, no se logró llegar a un algoritmo cerrado
que se adaptara al máximo número de unidades NAL.
A causa, de no encontrar dicho algoritmo cerrado que evaluara en orden inverso, se
pasó a contemplar otra opción igual de valida. Básicamente, se trata que una vez
analizada una iteración en las que se presentaran todas las combinaciones de DTQ
existentes en la secuencia de video (entre una tira I con DTQ igual a 000 a otra con las
mismas características), se aplicara el algoritmo con todas las posibles combinaciones y
se almacenaran los datos dentro de un objeto de tipo “extraction_layer” que
básicamente contendrá la información de la capa que contiene, especificada como
DTQ máximo de la extracción, y un conjunto de vectores conteniendo los DTQ que
incluye la extracción.
El “struct” correspondiente a los objetos de tipo “extraction_layer” es el siguiente:
#define NUM_LAYER
N
struct extraction_layer
{
int dependency_id_th;
int quality_id_th;
int temporal_id_th;
int limitD[NUM_LAYER];
que contiene el STRUCT.
int limitQ[NUM_LAYER];
int limitT[NUM_LAYER];
int real_time_size;
última iteración.
int size_aggregated;
iteración.
int total_size;
int num_NALU_included;
size_aggregated.
int total_num_NALU;
//DTQ de la capa que contiene el STRUCT.
//Conjunto de DTQ incluidos en la extracción de la capa
//Tamaño de la capa superior aislada obtenido en la
//Tamaño agregado de todas las capas en la última
//Tamaño total.
//Número de unidades NAL con DTQ_max incluidas en
//Número total de unidades NAL incluidas.
Sistema de video adaptativo H264/SVC sobre TCP
float bandwidth;
64
//Ancho de banda estimado
};
Como, se puede observar, además de contener las capas tal como se ha descrito
anteriormente, el mismo objeto almacenará los tamaños, y el número de unidades
NAL con el DTQ máximo de la capa en tiempo real. Además, mediante la fórmula
expuesta anteriormente, se va a computar en tiempo real el ancho de banda asociado
a las medidas realizadas.
Siguiendo, con la explicación de cómo se aplicará el algoritmo, una vez almacenadas
todas las combinaciones de extracción en las demás iteraciones, solo será necesario
evaluar que este contenida en alguna de las capas almacenadas.
4.2.3.1.
Detalles de la implementación:
A continuación se muestra parte del código para llevar a cabo las iteraciones
anteriores.
En primer lugar, se especifica el código necesario para conseguir que una vez
almacenadas todas las capas superiores en el vector de objetos “extraction_layer”, se
analice en todos los casos que capas debe incluir, y se incluyan en las capas correctas
(código que sólo será necesario incluir en la primera iteración).
Este código, básicamente aplica el algoritmo de filtrado para obtener como resultado
en los vectores “limitT”, “limitQ” y “limitD” de cada objeto “extraction_layer”, todas
las capas incluidas según el algoritmo de filtrado. Para conseguirlo, se fija un DTQ_th
máximo, y se analizan todos los DTQ_th que se hayan detectado en la evaluación entre
la primera y segunda tira I con DTQ igual a 000, comprobando para cada caso si se
debe incluir la capa en el objeto “extraction_layer”. La decisión se toma aplicando el
algoritmo de filtrado, y en los casos que la extracción sea positiva, se contabiliza el
tamaño en la capa y se añade la capa a evaluar en los vectores “limitT”, “limitQ” y
“limitD”.
De esta forma, se consigue que mediante la evaluación de todas las capas para cada
uno de los DTQ_th, lo cual se traduce en el uso de dos bucles que recorrerán todas las
capas, una vez finalizada la iteración se consigue que cada objeto “extraction_layer”
tenga las capas incluidas según el algoritmo de extracción en sus vectores “limitT”,
“limitQ” y “limitD”.
for(int l=0; l<num_layer; l++){
pos_escritura = 0;
65
Sistema de video adaptativo H264/SVC sobre TCP
for(int m=0; m<num_layer; m++){
extract = 0;
quality_id_tmp = extract_layer[l].quality_id_th;
for(int i=extract_layer[l].dependency_id_th; i>-1; i--){
for(int j=extract_layer[l].temporal_id_th; j>-1; j--){
for(int k=quality_id_tmp; k>-1; k--){
if(extract_layer[m].dependency_id_th
==
i
extract_layer[m].temporal_id_th == j && extract_layer[m].quality_id_th == k){
extract = 1;
break;
}
}
if(extract == 1)
break;
}
if(extract ==1)
break;
quality_id_tmp = 0;
}
&&
//Comprobar que en caso de (D,T,Q) almacenado con ((D < dependency_id_th
|| T < dependency_id_th)&&Q>=1)
// Se incluyan también (D,T,Qi) con Qi>Q
int o = 0;
if(extract_layer[m].quality_id_th > 0 && extract == 0){
while(!(extract_layer[l].limitD[o] == -1 && extract_layer[l].limitT[o] == -1 &&
extract_layer[l].limitQ[o] == -1) == true){
if((extract_layer[l].limitD[o] < extract_layer[l].dependency_id_th ||
(extract_layer[l].limitT[o]
<
extract_layer[l].temporal_id_th))
&&
extract_layer[l].limitQ[o] > 0){
if(extract_layer[m].dependency_id_th == extract_layer[l].limitD[o] &&
extract_layer[m].temporal_id_th
==
extract_layer[l].limitT[o]
&&
extract_layer[m].quality_id_th > extract_layer[l].limitQ[o]){
extract = 1;
break;
}
}
o++;
}
}
//Introducir el tamaño de las NAL Units que se deben extraer en el tamaño
agregado.
if(extract == 1){
if(l!=m){
extract_layer[l].size_aggregated += extract_layer[m].real_time_size;
}
//Introducir los DTQ que se van a extraer en "extract_layer[l]"
Sistema de video adaptativo H264/SVC sobre TCP
66
//Obtener posición en la que se debe escribir
extract_layer[l].limitD[pos_escritura] = extract_layer[m].dependency_id_th;
extract_layer[l].limitT[pos_escritura] = extract_layer[m].temporal_id_th;
extract_layer[l].limitQ[pos_escritura] = extract_layer[m].quality_id_th;
pos_escritura++;
}
}
}
Por otra parte, una vez ya están almacenadas las capas extraídas, el algoritmo para
incluir el tamaño en todas las capas donde se introduce, así como el número de
unidades NAL que se han incluido en el “struct” de cada capa, es el que se muestra a
continuación.
Este código básicamente comprueba para cada unidad NAL si pertenece a alguno de
los DTQ incluidos en la extracción de cada DTQ_th, es decir recorre dos bucles, uno con
todos los DTQ_th (objetos “extraction_layer”) y el otro con todas las capas incluidas en
la extracción. De esta forma, si la unidad NAL analizada pertenece a la extracción, se
incrementan los tamaños agregados de la capa, ya que cada capa debe contener en
tiempo real el tamaño de todas las capas incluidas en la extracción.
A parte, se deben contabilizar el número de fotogramas incluidos en la extracción, en
este caso sólo se va a contabilizar las unidades NAL que tengan los mismos atributos
que la capa analizada. Se consigue como resultado que se vayan actualizando en
tiempo real los tamaños agregados de cada capa, así como el número de fotogramas
incluidos, parámetros necesarios para la correcta estimación.
for(int i=0; i<num_layer; i++){ //Para todas las capas.
for(int j=0; j<num_layer; j++){ //Para todas las capas que están incluidas en la
extracción.
if(dependency_id == extract_layer[i].limitD[j] && temporal_id ==
extract_layer[i].limitT[j] && quality_id == extract_layer[i].limitQ[j]){
//Incrementar número de unidades NAL almacenadas y tamaños
almacenados
if(pos_final != -1){
extract_layer[i].real_time_size = (pos_final - pos);
extract_layer[i].size_aggregated += (pos_final - pos);
extract_layer[i].total_size += (pos_final - pos);
}
else{
extract_layer[i].real_time_size = (size - pos + 3);
extract_layer[i].size_aggregated += (size - pos + 3);
67
Sistema de video adaptativo H264/SVC sobre TCP
extract_layer[i].total_size += (size - pos + 3);
}
break;
}
}
if(dependency_id == extract_layer[i].dependency_id_th && temporal_id ==
extract_layer[i].temporal_id_th && quality_id == extract_layer[i].quality_id_th){
if(NALU_type == 1 || NALU_type == 5 || NALU_type == 20){
if(dependency_id
!=
last_dependency_id
||
temporal_id
!=
last_temporal_id || quality_id != last_quality_id){
extract_layer[i].num_NALU_included++;
extract_layer[i].total_num_NALU++;
}
}
}
}
Es importante fijarse en dos puntualizaciones de la implementación. La primera de
ellas es que a veces existen tiras codificadas que ocupan más de una unidad NAL, razón
por la cual es necesario mantener en memoria el DTQ de la unidad NAL anterior
(variables “last_dependency_id”, “last_temporal_id” y “last_quality_id”). De esta
forma se comprueba que sólo se añada una unidad NAL en el cómputo del ancho de
banda estimado cuando estas son consecutivas.
En segundo lugar, en el mismo caso, el ancho de banda estimado sólo debe ser
calculado al sumarse la última unidad NAL del mismo tipo cuando aparece una tira
codificada que contiene varias unidades NAL. Para lograrlo, se pasa a obtener el ancho
de banda estimado una vez analizada la unidad NAL siguiente. El código
correspondiente se muestra a continuación:
if((dependency_id != last_dependency_id || quality_id != last_quality_id ||
temporal_id != last_temporal_id) && (NALU_type == 1 || NALU_type == 5 ||
NALU_type == 20)){
int
extract_layer_pos
=
array_position_of_DTQ_th(extract_layer,
last_dependency_id, last_temporal_id, last_quality_id, num_layer);
extract_layer[extract_layer_pos].bandwidth
=
bandwidth(extract_layer[extract_layer_pos]);
}
}
Sistema de video adaptativo H264/SVC sobre TCP
68
Este código, se encarga de que el ancho de banda estimado incluya todas las unidades
NAL que formen parte del fotograma. Se realiza una vez analizada la siguiente unidad
NAL para evitar que se trate de un fotograma formado por varias unidades NAL. Se
consigue así, que la estimación sea realizada con todo el tamaño incluido. El método
“array_position_of_DTQ_th” se encarga de devolver la posición del vector de objetos
“extraction_layer” en que se encuentran los identificadores “last_temporal_id”,
“last_quality_id” y “last_dependency_id” como DTQ_th del objeto. Así, una vez
seleccionado el objeto “extraction_layer” se pasa a utilizar el método “bandwidth”
para obtener la estimación del ancho de banda de transmisión de la capa en tiempo
real, método que se verá en el siguiente apartado.
4.2.3.2.
Función estimación ancho de banda:
Vamos a ver a continuación, el método que se encarga de calcular el ancho de banda
estimado para una capa en concreto. Se muestra a continuación el código de la función
y una breve descripción sobre su funcionamiento.
float bandwidth(extraction_layer& extract_layer){
float fps, bandwidth;
if(extract_layer.num_NALU_included == 0)
return 0;
if(extract_layer.temporal_id_th == 0){
fps = 12.5;
}
else if(extract_layer.temporal_id_th == 1){
fps = 12.5;
}
else if(extract_layer.temporal_id_th == 2){
fps = 25;
}
bandwidth
=
(float)((float)extract_layer.size_aggregated
(float)extract_layer.num_NALU_included);
//Reinicializar variables
extract_layer.real_time_size = 0;
extract_layer.size_aggregated = 0;
extract_layer.num_NALU_included = 0;
return bandwidth;
}
*
fps
/
69
Sistema de video adaptativo H264/SVC sobre TCP
Esta función se encarga de obtener el ancho de banda estimado en tiempo real, a
partir de las estimaciones de tamaño y del número de fotogramas incluidos, mediante
la rectificación según la velocidad de reproducción, para determinar que ancho de
banda será necesario para la extracción hasta cada una de las diferentes capas.
Los detalles importantes a destacar son dos, en primer lugar, al trabajar con la
acumulación de unidades NAL incluidas de la capa superior en lugar que de todas las
capas incluidas, la velocidad de reproducción en la estimación debe ser la mitad para
todos los casos que la velocidad de reproducción real.
En segundo lugar, se ha añadido el código que reinicia el algoritmo cada vez que se
obtiene el ancho de banda estimado, concretamente, reinicializando tamaños y
número de unidades NAL incluidas.
Por último, y no menos importante, se debe tener en cuenta que esta función deberá
ser redefinida para otra codificación que no cumpla una velocidad de reproducción de
12,5 frames/s con “temporal_id” igual a 0.
4.2.4. Estrategias temporales en la estimación del ancho de banda:
Una vez vista la implementación de la estimación del ancho de banda adaptativo,
vamos a ver las distintas estrategias temporales en cuanto a instantes de estimación y
obtención de ancho de banda de transmisión, para poder tratar con dicha estimación a
nivel de aplicación a través del tiempo.
Las diferentes estrategias serán o bien secuencialmente, en que se estima y se
transmite secuencialmente cada vez, provocando un retardo a nivel de aplicación
entre transmisiones, o concurrentemente, con el uso de dos hilos, cada uno de los
cuales se encarga de una de las dos tareas.
Viendo, en primer lugar que la estrategia secuencial, puede provocar retardos a nivel
de aplicación, la elección tomada es su ejecución concurrente, lo cual ya de entrada
pasa a justificar el uso de dos hilos a nivel de aplicación, tal y como se verá en el
capítulo siguiente.
Los instantes en que se va a realizar la estimación del ancho de banda necesario para
la transmisión de una determinada capa, vendrán limitados por el filtrado adaptativo.
El hecho de que sólo sea posible un intercambio entre capas cada vez que aparezca
una tira I con DTQ igual a 000, hace que realizar estimaciones después de cada
fotograma no sea interesante, porque el algoritmo de filtrado adaptativo limita los
instantes en que se puede cambiar el DTQ_th. Como se ha visto en el capítulo 3 si se
cogieran instantes arbitrarios, la extracción daría lugar a flujos no conformantes con el
estándar.
Sistema de video adaptativo H264/SVC sobre TCP
70
De esta forma, se genera el concepto de iteraciones de diferencia entre los dos hilos,
entendiendo iteración, como cada instante de estimación que se avance el primer hilo
en las estimaciones al segundo hilo. Se define, cada iteración según la limitación propia
del filtrado adaptativo, es decir cada vez que se llega a una tira I con DTQ igual a 000 se
realizará la estimación del ancho de banda, y consecuentemente se avanzará una
iteración. Es por esto que será un punto clave definir cuantas iteraciones se podrá
avanzar el primer hilo haciendo estimaciones al siguiente.
4.2.4.1.
Implementación del uso de iteraciones:
Para poder tratar con el uso de iteraciones se definen unas variables extras en la
estructura “extraction_layer”, tal y como se puede ver a continuación.
struct extraction_layer
{
…
int num_iterations;
//Número de veces que se ha recorrido desde 000-I
hasta 000-I.
float aggregated_bandwidth; //Suma de los anchos de banda de todas las
iteraciones presentes hasta el momento.
};
Las variables que han añadido son el número de iteraciones que se avanza la
estimación a la obtención del ancho de banda para transmitir, y el ancho de banda
agregado, que se define de forma que se vayan sumando los anchos de banda a
medida que se avancen iteraciones para obtener los resultados como el promediado
entre el ancho de banda agregado y el número de iteraciones.
void actualizate_bandwidth(extraction_layer& extract_layer){
extract_layer.bandwidth = bandwidth(extract_layer);
extract_layer.num_iterations++;
extract_layer.aggregated_bandwidth = extract_layer.aggregated_bandwidth +
extract_layer.bandwidth;
}
El método “actualízate_bandwidth” se encarga de obtener el ancho de banda según lo
expuesto anteriormente, con el único método dependiente del video en cuestión
(“bandwidth”), incrementa el número de iteraciones y suma el ancho de banda
71
Sistema de video adaptativo H264/SVC sobre TCP
obtenido al agregado, de forma que si es la primera iteración que se avanza el valor
agregado será exactamente el valor del ancho de banda de la iteración.
float read_bandwidth(extraction_layer& extract_layer, sem_t* s1, sem_t* s3){
float bandwidth_aux = extract_layer.aggregated_bandwidth /
extract_layer.num_iterations;
extract_layer.bandwidth = 0;
if(extract_layer.num_iterations > 1){
extract_layer.aggregated_bandwidth = extract_layer.aggregated_bandwidth *
(extract_layer.num_iterations - 1) / extract_layer.num_iterations;
}
else
extract_layer.aggregated_bandwidth = 0;
extract_layer.num_iterations--;
return bandwidth_aux;
}
En cambio, el método “read_bandwidth” hace un promediado entre el número de
iteraciones del ancho de banda agregado, de forma que se consigue, que si se deja una
sola iteración de diferencia como mucho, los valores estimados en tiempo real sean los
correctos.
Es importante darse cuenta, que el acceso a estos métodos deberá definir control de
acceso ya que se accederá por dos hilos a direcciones de memoria compartida. El
control de acceso se verá en el capítulo siguiente, y se realiza mediante el uso de
semáforos.
Además, se ha de notar que mediante este control de acceso, se va a controlar cuántas
iteraciones se puede avanzar la estimación a la obtención del ancho de banda a
transmitir.
Por otra parte, aunque se ha definido un control con promediados, también sería
posible definirlo permitiendo que el primer hilo se avance más de una iteración y que
los tamaños de ancho de banda fueran los valores obtenidos en la estimación
mediante el uso de vectores que contengan todas las estimaciones en lugar de una
variable agregada de ancho de banda. Aunque, obviamente, se iba a complicar
bastante más la implementación en código.
Sistema de video adaptativo H264/SVC sobre TCP
72
Capítulo 5:
Transmisor y receptor:
En este capítulo, vamos a ver el desarrollo del transmisor adaptativo, con cada una de
sus peculiaridades a nivel de programación de la aplicación, tales como semáforos de
control de acceso, y uso de varios hilos ejecutados concurrentemente. A parte,
también se verán los criterios de diseño del receptor, que a diferencia del transmisor
no ha sido desarrollado en el presente proyecto.
5.1.
Implementación del transmisor adaptativo:
En este capítulo, se va a tratar la solución práctica empleada para diseñar la aplicación
de transmisión de flujo de video H264/SVC de forma adaptativa sobre el protocolo de
transporte TCP.
5.1.1. Justificación uso de dos hilos:
Con el objetivo de desarrollar la aplicación capaz de adaptarse a las condiciones de red
en la transmisión del flujo de datos de video codificados en H264/SVC, se ve la
necesidad de utilizar hilos ejecutados concurrentemente en el hecho que las diferentes
interacciones deben permitir estar transmitiendo continuamente para no crear
retardos secuenciales en las transmisiones de red.
Así, las tareas a llevar a cabo por parte del ejecutable final serán:
1. La estimación del ancho de banda de transmisión de cada una de las diferentes
capas, a través de computar el número de bytes a transmitir y las capas
incluidas rectificadas por la velocidad de reproducción.
2. La transmisión de las unidades NAL correspondientes a la capa con máximo
ancho de banda de transmisión inferior al ancho de banda de red disponible en
cada momento.
De esta forma, se genera la necesidad, de utilizar dos hilos ejecutados
concurrentemente y una clase intermedia compartida con todos los atributos de
caracterización del flujo de datos, el primero de los dos se encargará de analizar el
contenido, obtener el ancho de banda estimado de la forma expuesta en el capítulo 4,
y almacenarlo en el objeto compartido por los dos hilos. En cambio, el segundo se
encargará de extraer según el algoritmo de filtrado los datos y la obtención de la
estimación de red en origen del ancho de banda disponibles, para posteriormente
transmitir las unidades NAL correspondientes por red obtenidas desde el objeto
compartido por los dos hilos.
73
Sistema de video adaptativo H264/SVC sobre TCP
5.1.2. Clase H264BitStream:
Para poder llevar a cabo el desarrollo, se ha empezado por diseñar una clase
intermedia compartida entre los diferentes hilos, la clase se ha bautizado como
H264BitStream.
Se ha decidido desarrollarla como una cola circular con muchos campos para cada una
de las posiciones de la cola, de forma que cada unidad NAL quede caracterizada por
sus atributos facilitando así el reconocimiento por parte del segundo hilo en la
extracción adaptativa.
Los atributos propios de la cola circular son:
int capacity;
//Capacidad de la cola circular
int numNALUnit;
//Número de elementos introducidos en la cola circular
(Número de unidades NAL)
int pos_set;
//Posición en la que debe ser introducido el siguiente
elemento
int pos_get;
//Posición en la que toca extraer el siguiente elemento
Se utilizan estos atributos para controlar los casos de cola llena y cola vacía que en el
acceso concurrente de los hilos implican el uso de semáforos de control de acceso,
para evitar situaciones en las que se produzcan problemas de concurrencia en la
consulta o modificación de los atributos de la cola circular, tal y como se verá en este
capítulo más adelante.
Los otros atributos propios del flujo de datos de video H264/SVC son:
char** array_NALU;
//Vector de punteros de unidades NAL
int size_H264BitStream; //Tamaño de H264BitStream almacenado en la cola
circular
int* size_NALU;
//Vector con los tamaños de cada unidad NAL
int* NALU_type;
//Vector con los valores de tipo de unidad NAL
int* dependency_id;
//Vector con los valores de escalabilidad espacial
int* quality_id;
//Vector con los valores de escalabilidad de SNR
int* temporal_id;
//Vector con los valores de escalabilidad temporal
int* slice_type;
//Vector con los valores de tipo de tira (En el caso de no
ser unidades NAL VCL tendrá valor de -1)
int max_sizeNALU;
//Tamaño máximo de todas las unidades NAL del
H264BitStream
Sistema de video adaptativo H264/SVC sobre TCP
74
Se utilizan vectores correspondientes a cada uno de los atributos que permiten
clasificar si la unidad NAL se incluye en la extracción de una capa y/u otra en función
del algoritmo de extracción. Además se inicializa un doble puntero, para convertirse en
matriz correspondiente a la variable “array_NALU”, se diseña de esta forma para
asegurar que en cada uno de los índices se va a introducir el contenido de datos de
cada unidad NAL analizada, para posteriormente tener acceso a la transmisión por red
a través de la cola circular intermedia.
Se diseñan dos constructores, uno el por defecto, que se encarga de reservar el
espacio de memoria correspondiente a los vectores y la matriz que contendrá el
contenido del flujo de datos, y otro, que inicializa el contenido de la cola circular con
un determinado número de unidades NAL que se pasan como variable buffer
directamente como atributo del constructor. Para el primer caso, se puede inicializar el
contenido de la cola circular mediante el método init().
H264BitStream::H264BitStream(const int max_capacity, const int max_NALUsize)
{
//Inicialización parámetros cola circular
pos_set = 0;
pos_get = 0;
capacity = max_capacity;
numNALUnit = 0;
size_H264BitStream = 0;
max_sizeNALU = max_NALUsize;
//Reserva del espacio de memoria necesario para almacenar el contenido de todas
las unidades NAL
array_NALU = new char* [capacity];
for(int i=0; i<capacity; i++)
array_NALU[i] = new char[max_sizeNALU];
size_NALU = new int[capacity];
NALU_type = new int[capacity];
dependency_id = new int[capacity];
quality_id = new int[capacity];
temporal_id = new int[capacity];
slice_type = new int[capacity];
}
H264BitStream::H264BitStream(const int max_capacity, const char* buffer, const int
numNALU, int* pos_inicio_NALU, const int max_NALUsize);
75
Sistema de video adaptativo H264/SVC sobre TCP
void H264BitStream::init(const char* buffer, const int numNALU, int*
pos_inicio_NALU);
En el segundo caso o en la combinación del primer y el tercer caso, se inicializa el
contenido de la cola circular intermedia, pasándole como parámetros un vector de
caracteres con el contenido de las unidades NAL a introducir en la cola circular, y un
vector de posiciones iniciales para identificar los puestos en que están situados los
inicios de cada unidad NAL.
Las posiciones de inicio de unidad NAL que se pasan como parámetro en los casos con
inicialización apuntan a la posición del byte ‘\1’, correspondiente al cuarto byte del
conjunto de bytes que indican el inicio de una unidad NAL (“\0\0\0\1”). De esta forma
la inicialización de los tamaños se hace restando dos posiciones de inicio consecutivas,
ya que identifican el inicio de dos unidades NAL consecutivas, y la segunda posición es
a su vez la posición final de la primera unidad NAL de las dos. A parte, se restan cuatro
bytes porque se contabiliza en la cola circular el tamaño de datos codificados sin incluir
la identificación del inicio de unidad NAL.
La inicialización del contenido de la unidad NAL en la cola circular, se hace copiando el
contenido del buffer que se pasa como parámetro entre las posiciones de inicio y final
de cada unidad NAL. De esta forma, se empieza a copiar en la posición inicial más uno,
para apuntar al primer byte de la unidad NAL, y se termina de copiar en la posición
inicial de la siguiente unidad NAL menos tres.
//Inicialización de los tamaños de las unidades NAL correspondientes a las unidades
NAL que se van a introducir
for(int i=0; i<capacity; i++){
if(i < numNALUnit){
size_NALU[i] = pos_inicio_NALU[i+1]-pos_inicio_NALU[i]-4;
}
else
size_NALU[i] = 0;
}
//Inicialización de la matriz que contendrá las unidades NAL
for(int i=0; i<numNALUnit; i++){
pos = pos_inicio_NALU[i]+1;
for(int j=0;j<size_NALU[i];j++){
array_NALU[i][j]=buffer[pos];
pos++;
}
pos_set = (pos_set + 1) % capacity;
}
Sistema de video adaptativo H264/SVC sobre TCP
76
A parte, de los métodos constructores de la clase, también se han diseñado métodos
para la introducción y extracción de unidades NAL en la cola circular de forma
individual, y también métodos para la obtención de los atributos correspondientes a
cada unidad NAL. Vamos a ver en primer lugar los métodos para la introducción
(“put_NALU”) y para la extracción (“get_NALU”) de unidades NAL, que como se puede
ver modifican las variables propias de la cola circular, de forma que en cada utilización
de por ejemplo, el método “get_NALU” se incrementa el “pos_get”.
En el método “put_NALU”, se introduce una unidad NAL en la cola circular. Los
parámetros que se pasan a la función son un vector de caracteres que contiene el
contenido del flujo de datos H264/SVC, y las posiciones inicial y final del vector en las
que está contenida la unidad NAL. El funcionamiento del método es tal que se inicializa
en primer lugar el contenido de la unidad NAL de la cola circular copiando el contenido
del “buffer” entre las posiciones inicial y final. Acto seguido, se inicializan los atributos
de la unidad NAL, sacando el contenido de las cabeceras de la unidad NAL y de la
cabecera de la tira.
Los métodos “obtain_lenght_exp_Golomb” y “decod_exp_Golomb” utilizados en la
obtención del tipo de tira, se encargan de tratar con palabras codificadas con el
algoritmo Exp-Golomb. El primero de los dos obtiene el tamaño de la palabra ExpGolomb y el segundo se encarga de decodificar una palabra codificada según ExpGolomb. Los atributos que se pasan a la función son: el byte dentro del vector de
caracteres y el bit inicial de la palabra Exp-Golomb dentro del byte. En este caso se
utiliza primero la obtención de la longitud para saltarse la primera palabra Exp-Golomb
de la cabecera de la tira y se obtiene la decodificación de la segunda palabra que es la
correspondiente al tipo de tira.
//Introducción de una unidad NAL en la cola circular intermedia
void H264BitStream::put_NALU(const char* buffer, const int pos_inicial, const int
pos_final)
{
int eg_length, eg_byte_inicial;
//Introducir NAL Unit en la posición "pos_set"
for(int i=0; i<(pos_final-pos_inicial); i++){
array_NALU[pos_set][i] = buffer[pos_inicial + i];
}
size_NALU[pos_set] = pos_final - pos_inicial;
size_H264BitStream += size_NALU[pos_set];
77
Sistema de video adaptativo H264/SVC sobre TCP
//Obtener NALU type, DTQ y Slice_type
NALU_type[pos_set] = (int)((array_NALU[pos_set][0])&0x1F);
if(NALU_type[pos_set] == 14 || NALU_type[pos_set] == 20){
dependency_id[pos_set] = (int)(((array_NALU[pos_set][2])&0x70)>>4);
quality_id[pos_set] = (int)((array_NALU[pos_set][2])&0x0F);
temporal_id[pos_set] = (int)(((array_NALU[pos_set][3])&0xE0)>>5);
}
else if(NALU_type[pos_set] == 1 || NALU_type[pos_set] == 2 ||
NALU_type[pos_set] == 3 || NALU_type[pos_set] == 4 || NALU_type[pos_set] == 5 ||
NALU_type[pos_set] == 6 || NALU_type[pos_set] == 7 || NALU_type[pos_set] == 8 ||
NALU_type[pos_set] == 15){
dependency_id[pos_set] = 0;
quality_id[pos_set] = 0;
temporal_id[pos_set] = 0;
}
if(NALU_type[pos_set] == 1 || NALU_type[pos_set] == 5){
eg_length = obtain_length_exp_Golomb(array_NALU[pos_set],1,0);
eg_byte_inicial = eg_length/8;
eg_byte_inicial += 1;
eg_length = eg_length % 8;
slice_type[pos_set] = decod_exp_Golomb(array_NALU[pos_set], eg_byte_inicial,
eg_length, &eg_length);
}
else
slice_type[pos_set] = -1;
numNALUnit++;
pos_set = (pos_set + 1) % capacity;
}
El método “get_NALU” extrae una unidad NAL de la cola circular. En concreto copia la
información de la posición “pos_get”, en los parámetros pasados como atributos, es
decir, copia el contenido de la unidad en el atributo “NALU” y de los atributos de
caracterización de la unidad NAL en los demás atributos de la función.
void H264BitStream::get_NALU(char* NALU, int& NALU_size, int& d_id, int& t_id,
int& q_id);
void H264BitStream::get_NALU(char* NALU, int& NALU_size, int& d_id, int& t_id,
int& q_id, int& type_slice);
void H264BitStream::get_NALU(char* NALU, int& NALU_size, int& d_id, int& t_id,
int& q_id, int& type_slice, int& type_NALU)
Sistema de video adaptativo H264/SVC sobre TCP
78
{
//Copiar el contenido de la unidad NAL en la posición "pos_get"
for(int i=0; i<size_NALU[pos_get]; i++){
NALU[i] = array_NALU[pos_get][i];
}
type_NALU = NALU_type[pos_get];
NALU_size = size_NALU[pos_get];
d_id = dependency_id[pos_get];
t_id = temporal_id[pos_get];
q_id = quality_id[pos_get];
type_slice = slice_type[pos_get];
type_NALU = NALU_type[pos_get];
numNALUnit--;
pos_get = (pos_get + 1) % capacity;
}
Vamos a ver a continuación los demás métodos utilizados en la clase H264BitStream,
usados para obtener externamente los atributos de una determinada unidad NAL, se
muestran las cabeceras de los métodos debido a la simpleza de dichos métodos.
//Obtención de atributos
//Obtener tamaño total de las unidades NAL almacenadas en la cola circular
int H264BitStream::get_size_H264BitStream();
//Obtener el número de unidades NAL almacenadas en la cola circular
int H264BitStream::get_numNALU();
//Obtener el tamaño maximo en unidades NAL para almacenar en la cola circular
int H264BitStream::get_capacity();
//Obtener el tamaño de la unidad NAL en la posición numNALU
int H264BitStream::get_sizeNALU(const int numNALU);
//Obtener "array_NALU[numNALU][pos]"
char H264BitStream::get_content(const int numNALU,const int pos);
//Obtener contenido de la unidad NAL número numNALU
void H264BitStream::get_content(char *buffer, const int numNALU);
//Obtener NALU_type en la posición numNALU
int H264BitStream::get_NALU_type(const int numNALU);
//Obtener dependency_id en la posición numNALU
79
Sistema de video adaptativo H264/SVC sobre TCP
int H264BitStream::get_dependency_id(const int numNALU);
//Obtener quality_id en la posición numNALU
int H264BitStream::get_quality_id(const int numNALU);
//Obtener temporal_id en la posición numNALU
int H264BitStream::get_temporal_id(const int numNALU);
//Obtener slice_type en la posición numNALU
int H264BitStream::get_slice_type(const int numNALU);
//Obtener tamaño maximo de unidades NAL
int H264BitStream::get_max_sizeNALU();
//Obtener la siguiente posición en la que se va a introducir una unidad NAL
int H264BitStream::get_pos_set();
//Obtener la siguiente posición de la que se va a extraer una unidad NAL
int H264BitStream::get_pos_get();
5.1.3. Justificación de semáforos en la cola circular:
Como se ha comentado antes, el uso de dos hilos con acceso concurrente a la cola
circular intermedia implica la necesidad de combatir las situaciones de contorno en la
modificación de variables compartidas. Por esta razón, aunque se hayan mostrado los
métodos sin control de acceso mediante semáforos, realmente se ha trabajado con
semáforos para solucionar los problemas.
De esta forma, se va a mostrar la solución elegida para tratar con la clase
H264BitStream. Al ser una cola circular compartida, y haber accesos por parte de dos
hilos, uno para introducir y el otro para extraer el contenido de una posición de la cola
circular, se ha tenido que definir el control de acceso en los métodos “get_NALU” y
“put_NALU”.
La solución utilizada consta de dos semáforos, uno de acceso a zona crítica y el otro de
control de las situaciones en que el hilo que accede concurrentemente debe ser
detenido, casos de cola bacía para extraer unidades NAL y cola llena para introducirlas.
La solución utilizada en el método “put_NALU” es la siguiente:
void H264BitStream::put_NALU(const char* buffer, const int pos_inicial, const int
pos_final, const int is_last_NALU)
{
Sistema de video adaptativo H264/SVC sobre TCP
80
//Coger Exclusión Mutua
sem_wait(&s1);
if(numNALUnit == capacity && pos_set == pos_get){
num_wait_s2++;
sem_post(&s1);
sem_wait(&s2);
sem_wait(&s1);
}
//Introducir unidad NAL
//Liberar exclusión mutua
if(numNALUnit == 1 && num_wait_s2 > 0){
num_wait_s2--;
sem_post(&s2);
}
sem_post(&s1);
}
Como se puede observar en el código anterior se controla el acceso a la zona crítica
controlando el caso en que no se puede introducir ninguna unidad NAL, que se
corresponde con que la cola este llena en el momento de ir a introducir una nueva
unidad NAL.
Para controlar entre los dos extremos que haya algún hilo detenido en la cola se utiliza
la variable número de hilos en espera en el segundo semáforo, que cuando tenga un
valor superior a cero, indicara o que se encuentra en caso de cola llena o de cola bacía
con hilos en espera a que cambie la situación actual.
De esta forma, en el caso del método “put_NALU” se controla al final del método si se
sale de una situación de cola bacía con hilos detenidos en el método “get_NALU”
debido a que la cola este bacía, comprobando que haya hilos detenidos en el segundo
semáforo y que el número de unidades NAL introducidas en la cola al salir sea de una,
la que se acaba de introducir, y en tal caso se pone un recurso para los hilos detenidos.
La solución utilizada en el método “get_NALU” es la siguiente:
void H264BitStream::get_NALU(char* NALU, int& NALU_size, int& d_id, int& t_id,
int& q_id, int& type_slice, int& type_NALU)
{
//Coger Exclusión Mutua
sem_wait(&s1);
if(numNALUnit == 0 && pos_set == pos_get){
81
Sistema de video adaptativo H264/SVC sobre TCP
num_wait_s2++;
sem_post(&s1);
sem_wait(&s2);
sem_wait(&s1);
}
//Obtener unidad NAL
//Liberar exclusión mutua
if(numNALUnit == (capacity-1) && num_wait_s2 > 0){
num_wait_s2--;
sem_post(&s2);
}
sem_post(&s1);
}
En el método “get_NALU”, la situación en que se tiene que detener la ejecución del
hilo concurrente es en el caso de que al ir a extraer la cola circular esta bacía. Se
implementa la misma solución que antes, se utiliza el primer semáforo para entrar en
exclusión mutua a la zona donde comprobar si se trata del caso cola bacía, y detener el
hilo en dicho caso. En la salida del método debe comprobarse que no se salga de la
situación de cola llena con algún hilo en espera para poner un recurso en el semáforo
dos en tal caso.
La solución compatibiliza el uso de dos semáforos tratando los dos casos extremos, ya
que en el segundo semáforo que es donde realmente se detienen los hilos, solo puede
encontrarse uno de los dos casos a la vez, es decir en ningún caso puede haber hilos
detenidos en cola bacía y llena a la vez. Se consigue así, el funcionamiento deseado de
la cola circular en que los accesos concurrentes al mismo recurso compartido (misma
posición en la cola circular) se controla mediante semáforos como control de acceso.
Además, en los demás métodos de acceso a atributos de la cola circular o de una
determinada unidad NAL, se implementa un control de acceso mediante el primer
semáforo de entrada y salida de la zona critica.
//Los demás métodos
sem_wait(&s1)
//Metodo
Sem_post(&s1);
5.1.4. Solución de semáforos en la aplicación:
Sistema de video adaptativo H264/SVC sobre TCP
82
Tal y como se ha comentado en el último apartado del capítulo 4, también se utilizaran
semáforos para controlar los instantes de actualización del ancho de banda estimado
de transmisión por parte del primer hilo concurrente, y en los instantes de lectura de
la estimación del ancho de banda de transmisión de cada una de las posibles capas a
transmitir.
En el capítulo 4 se han visto las diferentes estrategias que se pueden seguir en la
diferencia en el número de iteraciones entre lectura por parte del primer hilo y
transmisión por parte del segundo, pudiendo dejar un mínimo de una iteración entre
actualización y un máximo indeterminado de iteraciones de diferencia, teniendo en
cuenta que con la solución utilizada cuando hay más de una iteración de diferencia
entre los dos hilos se realizan promediados del ancho del ancho de banda de
transmisión de las diferentes capas entre el número de iteraciones avanzadas.
A pesar, de haber expuesto las diferentes estrategias, no se ha presentado la solución
con semáforos correspondiente, solución que se va a ver a continuación. Los métodos
en los que se va a utilizar semáforos son “actualizate_bandwidth” y “read_bandwidth”
de la forma que se muestra en los párrafos siguientes:
void actualizate_bandwidth(extraction_layer& extract_layer, sem_t* s1, sem_t* s3){
sem_wait(s1);
//Actualizar ancho de banda de transmisión de la capa
if(num_wait_s3 > 0){
sem_post(s3);
}
sem_post(s1);
}
float read_bandwidth(extraction_layer& extract_layer, sem_t* s1, sem_t* s3){
sem_wait(s1);
if(extract_layer.num_iterations == 0){
num_wait_s3++;
sem_post(s1);
sem_wait(s3);
sem_wait(s1);
}
//Leer ancho de banda estimado de la capa
sem_post(s1);
return bandwidth_aux;
83
Sistema de video adaptativo H264/SVC sobre TCP
}
Como se puede ver en las actualizaciones solo se coge el semáforo de exclusión mutua,
mientras que en la lectura de los valores estimados se detiene al hilo en caso que el
número de iteraciones de diferencia entre los dos hilos sea de cero debido a que
cuando este valor es cero no hay lecturas posibles del ancho de banda estimado,
situación que se corresponde cuando los dos hilos se sincronizan.
De esta forma, en el “actualízate_bandwidth”, cuando se detectan hilos en espera
(variable “num_wait_s3” más grande que cero), se ponen recursos para que los hilos
en espera sean despertados. El funcionamiento, es tal que en la actualización del
ancho de banda sólo se va a despertar hilos en la lectura, cuando la lectura se avance a
la actualización, es decir el caso en que se hayan quedado detenidos.
Para que no haya problemas de concurrencia el primer semáforo debe ser compartido
con el primero de la clase H264BitStream razón por la que se añade el siguiente
método a dicha clase.
//Obtener la dirección de memoria
sem_t* H264BitStream::get_s1_memdir()
{
sem_t* sem;
sem_wait(&s1);
sem = &s1;
sem_post(&s1);
return sem;
}
Así, el control de acceso a los métodos de actualización y lectura de la estimación del
ancho de banda de transmisión solo permite detener el caso de lectura del valor
almacenado por parte de la actualización pero no limita el número de iteraciones que
se puede avanzar el hilo de actualización. Se ha diseñado así para a posteriori controlar
a nivel de aplicación el número de iteraciones de diferencia a nivel de aplicación.
La solución final por la que se ha optado es la de dejar una sola iteración de diferencia
entre actualizaciones y lecturas, lo que se traduce en un máximo de dos iteraciones en
el análisis de unidades NAL por parte del primer hilo antes de que sean analizadas por
parte del segundo.
Es por esta razón que teniendo en cuenta la limitación propia del filtrado adaptativo en
los instantes de actualización del ancho de banda que se producen al final de una
Sistema de video adaptativo H264/SVC sobre TCP
84
iteración, entendiendo una iteración como el número de unidades NAL entre una tira I
con DTQ igual a 000 y la siguiente con las mismas características; el tamaño de la cola
circular para evitar que la aplicación se detenga debe cumplir la siguiente restricción,
debido a que al inicio de la ejecución debe haber estimado como mínimo una iteración
sin que haya comenzado a transmitir:
CAPACIDAD COLA CIRCULAR > NUMERO DE UNIDADES NAL EN UNA ITERACIÓN
Además en el caso de una iteración como máximo se debe cumplir que:
CC_CAPACITY <= NUM_NALU_IN_1_ITER * (NUM_ITER + 1)
Vamos a ver a continuación la solución de semáforos a nivel de aplicación con la
restricción de un máximo de una iteración entre actualizaciones y lecturas del ancho
de banda estimado, y a analizar si podría aparecer algún problema de concurrencia o
de detención de la aplicación debido a los posibles entrelazados.
HILO 1{
1_iter_to_circular_queue();
actualizate_BW();
while(!end_of_execution){
1_iter_to_circular_queue();
sem_wait(&s4);
actualizate_BW();
}
}
HILO 2{
while(!end_of_execution){
read_BW();
obtain_DTQ_th();
tx_1_iter_with_DTQ_th();
sem_post(&s4);
}
}
Esta solución, permite cumplir los criterios de diseño debido a que con el semáforo
que se ha añadido se asegura que la ejecución concurrente nunca se avance más de
una iteración de actualizar a leer, o dos en el análisis del contenido. Los casos críticos
serán:
85
Sistema de video adaptativo H264/SVC sobre TCP
1. La combinación de cola bacía con que se detenga el primer hilo en el semáforo
cuatro, lo cual no sucederá nunca debido a que cuando se detiene en el
semáforo el primer hilo, va con dos iteraciones de diferencia.
2. Cola llena y que se detenga en “read_BW”, que tampoco sucederá porque con
la cola llena cumpliendo la restricción antes impuesta habrá como mínimo un
recurso para leer el ancho de banda estimado.
Por otro, lado tampoco se produce ningún caso en que ambos hilos queden detenidos
a la vez, razón por la que la solución propuesta es correcta.
5.1.5. Solución de ancho de banda adaptativo:
Para conseguir que la solución final sea adaptativa al protocolo de red, se hacen
estimaciones del ancho de banda disponible para poder transmitir, ancho de banda
que vendrá limitado por el protocolo TCP, y se compara cogiendo el valor máximo
menor que el disponible con los anchos de banda de transmisión de las capas, de
forma que siempre se va a transmitir a la máxima velocidad posible.
De esta forma el método del hilo 2 “obtain_DTQ_th”, en el que se obtiene el DTQ_th
tal que el ancho de banda de transmisión sea el máximo menor que el disponible,
queda de la forma siguiente.
void obtain_DTQ_th(int d_th, int t_th, int q_th, const float* read_BW, const
extraction_layer* extract_layer)
{
int bandwidth_th = obtain_BW_th_from_socket_options();
int BW_pos = 0;
for(int i=1; i<num_layer; i++){
if(read_BW[i] < bandwidth_th && read_BW[i] > read_BW[BW_pos])
BW_pos = i;
}
d_th = extract_layer[BW_pos].dependency_id_th;
t_th = extract_layer[BW_pos].temporal_id_th;
q_th = extract_layer[BW_pos].quality_id_th;
}
Se consigue así, que en cada iteración se trabaje con la extracción de la capa de
tamaño máximo con la que el ancho de banda de red disponible permite extraer a
tiempo real.
Sistema de video adaptativo H264/SVC sobre TCP
86
En esta versión, se ha hecho que en caso que el ancho de banda no fuera suficiente
para poder transmitir la capa 000, la transmita igualmente, caso que se controlara
mediante el uso de un buffer de recepción, que se encargara de almacenar cuando no
se transmita a tiempo real. De igual forma, se podría definir un valor de menos uno de
inicio que a la postre se interpretara en caso de ser el valor elegido, como que en esta
iteración no se transmitiera.
5.1.6. Medidas para reducir el alto número de intercambios entre capas:
Durante el transcurso del desarrollo de las pruebas de red (ver capítulo 6) se ha
detectado que existe en las pruebas un gran número de intercambios entre capas
debido a la alta variabilidad del video codificado. Esto puede llegar a ser un poco
desquiciante ya que durante la reproducción del video, en caso de no indicarle una
resolución fija para el video, se va a redimensionar el video constantemente.
Por esta razón, se buscan estrategias que permitan reducir el número de intercambios
entre capas, para conseguir una reproducción más suave de la secuencia de video.
La primera estrategia que se va a utilizar es utilizar un segundo estimador de ancho de
banda que suavice los saltos que existen con el estimador a partir de las opciones del
“socket”. El estimador hará un seguimiento del tamaño transmitido hasta un
determinado momento rectificado por el tiempo de ejecución. Así, el ancho de banda
disponible vendrá determinada por la siguiente expresión:
BW(n) = a * BW_socket + (1 - a) * BW(n – 1)
donde:
BW(n – 1) = tamaño_transmitido (bit) / tiempo_ejecución (s)
Con esta estrategia, se consigue una variabilidad del ancho de banda disponible más
suave que con el primer estimador. Esto podría provocar que haya casos de congestión
en que se transmita por encima del ancho de banda disponible, pero estos posibles
errores van a ser resueltos en el buffer de entrada de los “socket”, haciendo que se
precargue el buffer sin llegar a transmitir, porque vendrá controlado por el control de
congestión de TCP.
La segunda estrategia para evitar este problema, será utilizar un ciclo de histéresis en
el intercambio entre capas. Hacer que para subir de capa necesite el ancho de banda
necesario para hacerlo más un umbral extra, y para bajar el necesario menos un
umbral extra. Se muestra en la siguiente figura un ejemplo, en el que el ancho de
banda necesario para cambiar de capa es de 700 Kbit/s, se sube con 800 Kbit/s y se
baja con 600 kbit/s.
87
Sistema de video adaptativo H264/SVC sobre TCP
Figura 5.1: Ciclo de histéresis
Finalmente, el ciclo de histéresis solo se aplicara a los casos en que se suba de capa,
porque en el caso de intercambios entre capas hacia abajo, podría provocar problemas
de transmitir más de lo disponible. En concreto, solo se va a aplicar en el caso de
cambio de resolución de inferior a mayor, porque en los demás casos no habrá cambio
de resolución del video.
Sistema de video adaptativo H264/SVC sobre TCP
5.2.
88
Criterios de diseño del receptor:
La parte del receptor a diferencia del transmisor se va a tratar con un marco de trabajo
en el que se adaptara el transmisor, en concreto se va a utilizar un receptor de TCP,
que solo se encargara de recibir el contenido transmitido sin tener en cuenta las
características del video transmitido.
Se deben diferenciar dos aplicaciones objetivo, en primer lugar la transmisión de video
con buffers de recepción, que son el caso principal, y en segundo lugar las aplicaciones
orientadas a reproducción en tiempo real. El primer caso se contempla mediante el
uso de un receptor estándar al que se le añade la peculiaridad de utilizar un buffer de
recepción en el destino, para poder almacenar parte del video antes de reproducirlo, y
como se verá en el capítulo siguiente será el caso analizado. Para el segundo caso se
van a mostrar los criterios de diseño pertinentes pero no se va a desarrollar dejándolo
como posible mejora al presente proyecto.
5.2.1. Relación entre tiempo de reproducción y tiempo de transmisión:
El parámetro más crítico en el receptor orientado a funcionar en tiempo real, serán los
tiempos de transmisión extremo a extremo. Así, en características del video esto se
traduce en la diferencia entre los tiempos de transmisión y los tiempos de
reproducción, ya que la naturaleza del estándar hace que se transmitan antes algunas
tiras que otras que se reproducen antes debido a los niveles de dependencia temporal
propios del H264.
Es por esta razón que en primer lugar se deberá hacer una conmutación entre tiempos
de transmisión y tiempos de reproducción, para a posteriori controlando el tiempo de
reproducción en el receptor poder hacer comparaciones de tiempo y en caso de que
alguna unidad NAL llegara fuera del intervalo de reproducción descartar el contenido
recibido.
Vamos a ver a continuación como relacionar los tiempos de reproducción con los de
transmisión, para así poder hacer a posteriori dichas comparaciones. Es importante
darse cuenta que las relaciones serán dependientes del parámetro “GOP_size” elegido
y de los identificadores de dependencia temporal asociados a cada tamaño de GOP.
Así, en primer lugar se va a mostrar el código para determinar los identificadores de
dependencia temporal, a partir del tamaño de GOP.
void obtain_B_structure(const int GOP_size, int* B_t_id_structure){
int num_B_t_max = 0;
int num_slice = 0;
int dist_B = 0;
89
Sistema de video adaptativo H264/SVC sobre TCP
num_t = log2(GOP_size);
for(int i=0 ; i<(GOP_size - 1); i++){
B_t_id_structure[i] = 0;
}
for(int i=0; i<num_t; i++)
B_t_id_structure[i] = i + 1;
num_slice += num_t;
for(int i=0; i<num_t; i++){
if((dist_B = obtain_dist_B(B_t_id_structure[i], num_t)) == -1){
std::cout << "Internal error while computing dist_B\n";
return;
}
if(B_t_id_structure[i] == num_t)
num_B_t_max ++;
if(dist_B == 0 && (B_t_id_structure[i] != num_t || num_B_t_max == 2)){
if(num_B_t_max == 2)
num_B_t_max = 0;
}
else if((i + dist_B + 2 < GOP_size)){
B_t_id_structure[i + dist_B + 1] = B_t_id_structure[i];
num_slice ++;
}
}
num_B_t_max = 0;
int i = 0;
while(num_slice < (GOP_size - 1)){
int aux;
while(B_t_id_structure[i] != 0){
i++;
}
i--;
aux = i;
while(B_t_id_structure[i] < num_t){
B_t_id_structure[i+1] = B_t_id_structure[i] + 1;
num_slice ++;
/*DEBUG
std::cout << "t[" << (i + 1) << "] = " << t[i + 1] << '\n';
//END DEBUG*/
i++;
}
i = aux;
Sistema de video adaptativo H264/SVC sobre TCP
90
while(B_t_id_structure[i] != 0){
if((dist_B = obtain_dist_B(B_t_id_structure[i], num_t)) == -1){
std::cout << "Internal error while computing dist_B\n";
return;
}
if(B_t_id_structure[i] == num_t)
num_B_t_max ++;
if(dist_B == 0 && (B_t_id_structure[i] != num_t || num_B_t_max == 2)){
if(num_B_t_max == 2)
num_B_t_max = 0;
}
else if((i + dist_B + 2) < GOP_size){
int j = 0;
while(B_t_id_structure[i + j + dist_B + 1] != 0 && B_t_id_structure[i] !=
B_t_id_structure[i + j + dist_B + 1]){
j++;
}
if(B_t_id_structure[i] != B_t_id_structure[i + j + dist_B + 1]){
B_t_id_structure[i + j + dist_B + 1] = B_t_id_structure[i];
num_slice ++;
if(num_slice == (GOP_size - 1))
break;
}
}
i++;
}
}
return;
}
Lo que hace este código es obtener los identificadores de dependencia temporal para
todos los casos con identificador mayor que uno y durante un tamaño de GOP. Está
basado en la estructura diádica de los GOP, y consigue pasándole como parámetro el
tamaño de GOP, devolver un vector que contiene en orden secuencial los valores de
los identificadores de dependencia temporal según su orden de transmisión.
Como se puede observar en el código se utiliza el método “obtain_dist_B”, que
básicamente lo que hace es calcular en qué posición se va a repetir el siguiente
identificador temporal, aunque a medida que avanzan las posiciones hay que añadir
rectificaciones para que cada valor se ponga en la posición correcta. El código de la
función es el siguiente:
int obtain_dist_B(const int t_id, const int num_t){
91
Sistema de video adaptativo H264/SVC sobre TCP
int dist_B = 0;
for(int i=1; i<(num_t - t_id + 1); i++){
int aux;
if((aux = exp2(2,i)) == -1)
return -1;
dist_B += aux;
}
return dist_B;
}
Como se puede apreciar, las distancias entre la repetición de los mismos
identificadores temporales vienen determinados por la suma de las exponenciales de
dos elevado a cada valor entre uno y el número de identificadores temporales menos
el valor del identificador temporal. De forma que se generan distancias de 2, 6, 14, …
Por ejemplo para el caso de un tamaño de GOP igual a 8, en el que los identificadores
temporales según su orden de transmisión es: 1, 2, 3, 3, 2, 3, 3; para el caso con
identificador temporal igual a dos se obtiene una distancia 2, lo que colocaría el
segundo dos en la cuarta posición.
El el código general, la estructura obtenida se genera llenando las posiciones y cuando
se detecta que una posición relativa está ocupada se desplaza la posición a la derecha.
En este caso como se habría generado la estructura 1, 2, 3, 3, al obtener la distancia de
2 se pondría en la quinta posición. La estructura se genera analizando en primer lugar
los identificadores temporales menores y subiendo hasta los mayores, de forma que
las rectificaciones van saliendo en orden correcto para que el resultado sea el
esperado.
Una vez visto cómo obtener el orden de identificadores de dependencia temporal,
vamos a pasar a ver el código que permite obtener la relación buscada entre instantes
de transmisión, los que tenemos actualmente, e instantes de reproducción.
Para esto vamos a distinguir de igual forma que antes los valores con identificador
temporal superior a cero, para obtener la relación directa entre unos y otros. Es
importante darse cuenta que los valores que se buscan son el de las B, por lo que
siempre serán valores negativos respecto al valor de una I o una P anteriores en
tiempo de transmisión.
Vamos a ver a continuación, el código correspondiente a la obtención de los retardos
de reproducción respecto al orden de transmisión.
void obtain_num_frames_in_tr(int* n_frames, cons tint* temporal_id, cons tint
GOP_size)
Sistema de video adaptativo H264/SVC sobre TCP
92
{
Int* array_pos = new int[2];
Int adding_size;
n_frames[0] = -GOP_size / 2;
for(int i=1; i<GOP_size; i++){
//Buscar las siguientes dos posiciones con mismo temporal_id
search_next_2_positions(temporal_id, array_pos, i);
adding_size = obtain_adding_size(GOP_size, temporal_id[i]);
n_frames[array_pos[0]] = n_frames[i-1] – adding_size;
n_frames[array_pos[1]] = n_frames[i-1] + adding_size;
}
return;
}
Este código, se encarga de encontrar la relación entre identificadores temporales e
instantes de reproducción. Para ello se inicializa la primera posición correspondiente a
“temporal_id” igual a uno a la mitad del tamaño de GOP. Esto, será siempre así, según
la estructura diádica. A partir de la primera posición, lo que sucede es que para cada
repetición del identificador temporal, se obtiene una posición relativa que se suma y
se resta respecto a la posición anterior en tiempo para obtener su posición de orden
de reproducción.
Para realizar estas dos funcionalidades, se utilizan los métodos
“search_next_2_positions”, que se encarga de encontrar las dos posiciones siguientes
con el mismo identificador temporal; y “obtain_adding_size”, para obtener la posición
relativa que se debe sumar y restar en las dos nuevas posiciones obtenidas. El código
de estos dos métodos se muestra a continuación:
void search_next_2_positions(const int* temporal_id, int* array_pos, cons tint
pos_inicial)
{
int tmp = pos_inicial + 1;
array_pos[0] = pos_inicial;
array_pos[1] = 0;
while(array_pos[1] == 0){
if(temporal_id[tmp] == temporal_id[pos_inicial]){
array_pos[1] = tmp;
}
tmp ++;
}
return;
93
Sistema de video adaptativo H264/SVC sobre TCP
}
El método “obtain_adding_size” devuelve la diferencia relativa de la posición de la tira
en orden de reproducción respecto a la tira anterior, y está basada en la estructura
diádica. En concreto se obtiene la exponencial de dos elevado al número de
identificadores temporales menos el identificador temporal, dando lugar a resultados,
para por ejemplo un tamaño de GOP igual a 8, de 2 y de 1 para los identificadores
temporales de 2 y de 3.
Su funcionamiento es tal que teniendo como parámetro de entrada los identificadores
temporales: 1, 2, 3, 3, 2, 3, 3; las posiciones con “temporal_id” igual a 2 obtendrán
unas diferencias relativas de +/- 2, que respecto a la posición -4 del “temporal_id”
igual a 1, darán lugar a las posiciones -2 y -6. Lo mismo sucede con los “temporal_id”
igual a 3, que dan lugar a +/-1. Finalmente se obtiene un orden de reproducción: -4, -2,
-1, -3, -6, -5, -7.
Int obtain_adding_size(cons tint GOP_size, const int t_id)
{
Int dif = log2(GOP_size) – t_id;
return (exp(2, dif));
}
El concepto sobre el que se ha trabajado es la correlación existente entre los
diferentes retardos relativos, que se basa en que a medida que se incrementa el
identificador temporal se va dividiendo por dos el tamaño que hay que añadir entre
retardos relativos.
Finalmente, el paso de número de tiras relativas a retardo relativo se obtiene
mediante la velocidad de reproducción.
Tiempo de reproducción = Número de fotogramas / fps
5.2.2. Estrategia de filtrado en recepción:
Una vez visto cómo obtener el vector de diferencias relativas entre tiempo de
reproducción y tiempo de transmisión se debe comprobar si el instante de recepción
de una unidad NAL es anterior o posterior al instante de entrega para reproducción,
para que en caso de que sea posterior dicha unidad NAL sea filtrada en recepción.
Sistema de video adaptativo H264/SVC sobre TCP
94
De esta forma, debido al comportamiento del filtrado de unidades NAL, el hecho de
filtrar en función de los tiempos de recepción podría provocar la conformación de
flujos de datos que no fueran decodificables.
Por esta razón, se van a usar dos hilos, el primero de los cuales se encargara de
comprobar los instantes de tiempo de recepción y en caso de que alguna unidad NAL
llegara fuera de tiempo, de redefinir el DTQ máximo de la extracción en función de que
capa se descarte en una determinada iteración. Así, el segundo hilo, se encargara de
aplicar el algoritmo de filtrado al flujo resultante de la extracción hecha por el primer
hilo en la cola circular intermedia, fijando como DTQ máximo el obtenido en dicha
iteración por parte del primer hilo, para que el flujo resultante sea conformante con el
estándar H264/SVC.
Así, en primer lugar se muestra, como se va a tratar por parte del primer hilo el
descartar las unidades NAL en función de los tiempos de recepción, partiendo de que
se conoce previamente el vector de diferencias relativas “n_frames” y el vector de
identificadores temporales “t_id”.
HILO 1{
while(receive_NALU()){
if(temporal_id == 0){
num_frames[DQ] += GOP_size;
num_frame = num_frames[DQ];
position = 0;
}
else if(temporal_id > 0){
position = search_next_temporal_id_position(temporal_id, t_id, position,
GOP_size);
num_frame = num_frames[DQ] + n_frames[position];
}
If((num_frame / fps) < tiempo_recepcion){
discart();
obtain_new_DTQ_th(dependency_id, temporal_id, quality_id,
dependency_id_th, temporal_id_th, quality_id_th);
}
else
NAL_UNIT_to_cc();
}
}
En el filtrado se distingue entre identificadores temporales iguales a cero y mayores
que cero. Esto se hace porque para el caso de iguales a cero, se va a añadir
95
Sistema de video adaptativo H264/SVC sobre TCP
exactamente un tamaño de GOP al número de fotogramas, mientras que en el caso de
identificadores temporales mayores que cero, se va a obtener la posición en orden de
reproducción a partir del vector que contiene las diferencias relativas en orden de
reproducción. Funciona de forma, que en primer lugar se obtiene la siguiente posición
con ese identificador temporal (método “search_next_temporal_id_position”), para
localizar la posición en que está situada la diferencia relativa, para posteriormente
sumarla al número de fotograma absoluto.
A continuación, se muestra el método “search_next_temporal_id_position”:
El funcionamiento, es tal que todas las unidades NAL en que el tiempo de recepción
sea mayor que el tiempo de reproducciónvan a ser filtradas. Para conseguirlo se usa el
método “search_next_temporal_id_position” que se muestra a continuación.
Int search_next_temporal_id_position(cons tint temporal_id, cons tint* t_id, cons tint
initial_position, cons tint GOP_size)
{
for(int i=initial_position; i<GOP_size; i++){
if(t_id[i] == temporal_id)
return i;
}
}
Así, una vez obtenida la posición absoluta en orden de reproducción, todas las
unidades NAL en que su tiempo de recepción sea mayor que el tiempo de
reproducción van a ser filtradas. En cambio, siempre que se llegue a tiempo para la
correcta reproducción las unidades NAL son almacenadas en la cola circular intermedia
(objeto de la clase H264BitStream).
En el caso, en que se filtra además de descartar la unidad NAL, se va a redefinir la capa
máxima a la que se podrá filtrar para que el segundo hilo, usando este dato pueda
filtrar el flujo entero de una iteración según el DTQ_th resultante de dicha iteración.
5.2.3. Solución de semáforos de la aplicación:
Finalmente, la aplicación constara de dos hilos, tal y como se ha descrito
anteriormente. De esta forma las variables compartidas serán el objeto de la clase
H264BitStream y el valor máximo de la extracción. El pseudocódigo correspondiente a
cada uno de los dos hilos en los que se deberá definir una solución de control de
acceso mediante semáforos es el siguiente.
HILO 1{
Sistema de video adaptativo H264/SVC sobre TCP
96
while(!end_of_execution){
receive_1_iter_filter_and_modify_DTQ_th();
modify_DTQ_th2(dependency_id_th, temporal_id_th, quality_id_th);
}
}
HILO2{
while(!end_of_execution){
obtain_DTQ_th2(dependency_id_th, temporal_id_th, quality_id_th);
filter_1_iter_and_send_to_play();
}
}
Como se había comentado antes, el primer hilo se encarga de llevar a cabo el filtrado
de unidades NAL según los tiempos de recepción y la actualización en cada iteración
del DTQ_th. El segundo hilo, se encarga de filtrar al DTQ_th obtenido por el primer hilo
y enviar a reproducir el video.
En esta solución se implementa de forma que cada hilo tiene su valor de DTQ_th, y la
aplicación comparte las variables globales DTQ_th2. En los accesos a los métodos de
actualización y modificación de dicha variable, se define control de acceso mediante
semáforos, para evitar situaciones conflictivas en tiempo de ejecución.
En cada uno de los métodos se accede en primer lugar mediante el semáforo principal
de la aplicación que es el correspondiente a la cola circular intermedia, de igual forma
que se hacía en el transmisor. Una vez introducido el control de acceso, los métodos
quedan de la forma siguiente.
void_modify_DTQ_th2(const int dependency_id_th, const int temporal_id_th, const
int quality_id_th, sem_t* s1, sem_t* s3)
{
sem_wait(s1);
if(actualized){
nw_sem3 ++;
sem_post(s1);
sem_wait(s3);
sem_wait(s1);
}
actualized = true;
dependency_id_th2 = dependency_id_th;
temporal_id_th2 = temporal_id_th;
quality_id_th2 = quality_id_th;
if(nw_sem3 > 0)
97
Sistema de video adaptativo H264/SVC sobre TCP
sem_post(s3);
sem_post(s1);
}
void obtain_DTQ_th2(int dependency_id_th, int temporal_id_th, int quality_id_th)
{
sem_wait(s1);
if(!actualized){
nw_sem3 ++;
sem_post(s1);
sem_wait(s3);
sem_wait(s1);
}
actualized = false;
dependency_id_th = dependency_id_th2;
temporal_id_th = temporal_id_th2;
quality_id_th = quality_id_th2;
if(nw_sem3 > 0)
sem_post(s3);
sem_post(s1);
}
La solución propuesta, usa la variable “actualized” como método de control de acceso,
variable que sólo se modifica dentro de los métodos y siempre en exclusión mutua. La
variable indica si se ha actualizado el DTQ_th. De esta forma, se quedara detenido en
el segundo hilo cuando su valor sea falso, porque indicara que no ha sido actualizado, y
en primer hilo cuando sea cierto. Así, en el primer hilo lo actualiza a cierto y en el
segundo lo actualiza a falso. El funcionamiento de los semáforos es el mismo, se entra
a zona crítica y en caso que deba detenerse lo hace en el segundo semáforo. Al salir de
los métodos se da recursos para el semáforo detenido, en caso que haya algún hilo
detenido y en espera.
Esta solución permite que la ejecución sea concurrente entre los dos hilos con un
máximo de una iteración de diferencia entre actualizaciones de DTQ_th2 y con un
máximo de dos iteraciones entre los dos hilos, aunque el primero quedándose
detenido en el semáforo de espera. Además, no hay ninguna interacción que haga que
los dos hilos se queden parados y entre ellos se van abriendo la puerta en los casos de
detención de uno de ellos con lo que se considera una buena solución.
Sistema de video adaptativo H264/SVC sobre TCP
98
Capítulo 6:
Evaluación del sistema:
Para la evaluación del sistema se ha elegido la secuencia de video BigBuckBunny con
una duración de 9 minutos y 56 segundos. En concreto se va a hacer una codificación
de tres capas con resoluciones de 640x360 en la capa superior y su versión diezmada
de 360x180 en la capa base y en la capa de mejora de calidad, con una velocidad de
reproducción de 24 fotogramas por segundo cada una de ellas.
Se verán a continuación la elección de las principales características de codificación.
6.1.
Características de la codificación:
En JSVM se utilizan unos ficheros de codificación en los que se especifica diferentes
atributos de codificación. En concreto, se eligen el número de capas, el tamaño de
GOP, el periodo de intra-predicción, que indica cada cuantos fotogramas aparece una
tira I, el periodo IDR, que indica cada cuantos fotogramas aparece una tira de IDR, la
capa base a partir de la que se predice entre capas, …
Sin embargo, el parámetro más importante que se elige es el parámetro de
cuantificación, que será el principal determinante de la PSNR obtenida. Se puede
demostrar que una PSNR de 40 dB proporciona una secuencia decodificable
visualmente aceptable para el ojo humano.
En primer lugar vamos a centrarnos en la elección de la estructura diádica. Se elige un
tamaño de GOP igual a 2 y un periodo de intra-predicción igual a 4, para cada una de
las tres capas. La elección ha sido tomada porque cuanto mayor es el tamaño de GOP,
cuando hay cambios repentinos de escena, se va a bi-predecir de fotogramas que no se
van a parecer en nada. Es por esto que se eligen valores pequeños que permitan
obtener una secuencia reconstruida con mejor PSNR. Esta combinación da lugar a la
secuencia de tiras en orden de reproducción siguiente:
IBPBIBP…
En cuanto a la elección del periodo de tiras de instante de refresco instantáneo, se ha
optado por un periodo de 16 tiras, de forma que cada cuatro tiras I una de ellas sea de
decodificación instantánea. La elección ha sido tomada para que los errores
propagados, sean reseteados cada un número razonable de tiras.
De esta forma la codificación da lugar a una secuencia de video codificado con seis
capas de extracción posible, dos capas de escalabilidad temporal por cada una de las
tres capas principales, de forma que habrán seis resultados posibles al aplicar el
algoritmo de filtrado.
99
Sistema de video adaptativo H264/SVC sobre TCP
En cuanto a la capa de la que predicen, se ha optado por hacer predecir tanto la capa
de resolución superior como la de mejora de la capa base. La elección de la capa base
en el caso de la capa de mejora de resolución, ha sido tomada porque con el algoritmo
de filtrado se consigue una mejor relación PSNR a ancho de banda de transmisión, ya
que se filtrara la capa de mejora de calidad al filtrar hasta la capa superior.
6.1.1. Elección de los parámetros de cuantificación:
Para la elección de los parámetros de cuantificación se ha tenido en cuenta la PSNR de
la secuencia reconstruida. De esta forma buscando unas PSNR similares a 40 dB se han
obtenido los siguientes parámetros de cuantificación:
D
Q
T
QP
0
0
0
32
0
0
1
33
0
1
0
25
0
1
1
26
1
0
0
27
1
0
1
28
Tabla 6.1: Parámetros de cuantificación
Como se puede observar, se han elegido los parámetros de cuantificación de 32, 25 y
27 para cada una de las tres capas. En cuanto a las capas temporales superiores se ha
utilizado el mismo parámetro de cuantificación más uno.
Por último, en las componentes de crominancia, se les ha aplicado una rectificación de
más dos en el parámetro de cuantificación debido a la naturaleza del ojo humano a
reconocer con más precisión la componente de luminancia.
Se considera una buena elección de los parámetros de cuantificación porque se
obtienen las siguientes PSNR en la secuencia reconstruida:
CAPA
0
1
2
PSNR (Y)
PSNR (Cr)
36.2303 dB 42.9990 dB
41.0125 dB 45.2626 dB
41.2202 dB 45.8067 dB
Tabla 6.2: PSNR obtenidas
PSNR (Cv)
41.7011 dB
44.4091 dB
45.1039 dB
Como se puede ver se consiguen PSNR superiores a los 40 dB en todos los casos
menos en la capa base que es de 36 dB. Se considera aceptable, por el hecho de que
existe una capa de mejora de PSNR para esta capa.
6.2.
Resultados al aplicar el algoritmo de filtrado:
Sistema de video adaptativo H264/SVC sobre TCP
100
A continuación, se muestran los flujos de datos resultantes una vez aplicado el
algoritmo de filtrado, donde se pueden observar las capas incluidas en cada extracción,
tal y como se ha explicado en el ejemplo del capítulo 3:
Hasta capa 000:
Figura 6.1: Algoritmo extracción hasta la capa 000
Hasta 001:
Figura 6.2: Algoritmo extracción hasta la capa 001
Hasta 100:
Figura 6.3: Algoritmo extracción hasta la capa 100
Hasta 010:
101
Sistema de video adaptativo H264/SVC sobre TCP
Figura 6.4: Algoritmo extracción hasta la capa 010
Hasta 011:
Figura 6.5: Algoritmo extracción hasta la capa 011
Hasta 110:
Figura 6.6: Algoritmo extracción hasta la capa 110
6.3.
Perfiles de ancho de banda de transmisión:
A continuación, se verán los perfiles de ancho de banda de transmisión de las
diferentes extracciones posibles, es decir con cada una de las diferentes
combinaciones de identificadores de dependencia.
Lo que se muestra en las figuras es el ancho de banda necesario para transmitir hasta
una determinada capa a través del tiempo. El resultado ha sido obtenido a través de la
estimación de ancho de banda en tiempo real. Por lo tanto, se verá para cada capa cual
sería la velocidad de transmisión necesaria para transmitir hasta esa capa en cada
instante temporal de la duración del video.
Hasta capa 000:
Sistema de video adaptativo H264/SVC sobre TCP
Figura 6.7: Perfil de ancho de banda: Capa 000
Hasta capa 010:
Figura 6.8: Perfil de ancho de banda: Capa 010
Hasta capa 001:
102
103
Sistema de video adaptativo H264/SVC sobre TCP
Figura 6.9: Perfil de ancho de banda: Capa 001
Hasta capa 011:
Figura 6.10: Perfil de ancho de banda: Capa 011
Hasta capa 100:
Sistema de video adaptativo H264/SVC sobre TCP
104
Figura 6.11: Perfil de ancho de banda: Capa 100
Hasta capa 110:
Figura 6.12: Perfil de ancho de banda: Capa 110
Como era de esperar, las capas superiores necesitan un ancho de banda mayor que las
inferiores. Vamos a ver a continuación los anchos de banda de transmisión medios, así
como sus desviaciones típicas para poder valorar objetivamente la variación del video
a través del tiempo, aunque ya podemos ver en las gráficas que se trata de una
secuencia de video que contiene escenas con mucho y con poco movimiento porque
las desviaciones típicas serán de un valor considerablemente grande.
Capa
Ancho de banda medio
Desviación típica (Kbit/s)
105
Sistema de video adaptativo H264/SVC sobre TCP
(Kbit/s)
000
202,87
100,13
010
298,86
184,88
001
533,16
237,12
011
576,51
278,39
100
1195,90
743,28
110
1294,00
846,80
Tabla 6.3: Medias y desviaciones típicas del ancho de banda de transmisión
Como se puede ver en la tabla 6.3, se obtienen unas desviaciones típicas desde el 45
por ciento al 66 por ciento. Esto indica que la variabilidad del video es grande, es decir,
que existen escenas con poco y con mucho movimiento, lo que provoca que el tamaño
del video codificado sea tan variante.
A parte, las medias obtenidas de aproximadamente 300 Kbit/s, 600 Kbit/s y 1,3 Mbit/s
para cada una de las tres capas principales, se consideran un buen ejemplo de las
capacidades del estándar H264/SVC, ya que para el objetivo del presente proyecto que
es la transmisión de la secuencia de video, permiten una estrategia que divida las
capas de forma clara y concisa.
6.4.
Puesta en escena:
El último apartado del capítulo 6, será la puesta en escena del sistema de
comunicaciones diseñado en un escenario real. Se va a emular una red con un
transmisor (“sender”), dos routers intermedios (“routerA” y “routerB”) y un
destinatario (“sink”) usando la herramienta de emulación “Simtools”. A parte, el
dispositivo “host” tendrá acceso a las tres interfaces de red generadas. El esquema de
red es el siguiente:
Figura 6.13: Escenario de red para las pruebas
Sistema de video adaptativo H264/SVC sobre TCP
106
En el primer router se configura el ancho de banda máximo que puede aceptar la
transmisión, así como su RTT. En cambio, en el segundo router se configura el tamaño
máximo de la cola de espera y su retardo de transmisión, obteniendo el ancho de
banda disponible como el producto del tamaño de la cola por dos veces el retardo
introducido, que se corresponde con tamaño de la cola por RTT.
Las pruebas de red que se van a realizar son las cinco siguientes:
1. Transmisión de la secuencia BigBuckBunny con una limitación de ancho de
banda que permita extraer hasta la capa base, es decir un ancho de banda
disponible de 300 Kbit/s.
2. Transmisión de la secuencia BigBuckBunny con una limitación de ancho de
banda que permita extraer hasta la capa de mejora de calidad, es decir un
ancho de banda disponible de 600 Kbit/s.
3. Transmisión de la secuencia BigBuckBunny con una limitación de ancho de
banda que permita extraer hasta la capa de mejora de resolución, es decir un
ancho de banda disponible de 1,3 Mbit/s.
4. Transmisión de la secuencia BigBuckBunny con una limitación de ancho de
banda variable. La elección tomada es de 1,3 Mbit/s durante los primeros 200
segundos, 600 Kbit/s durante los siguientes 200 segundos y 1,3 Mbit/s hasta el
final.
5. Transmisión simultánea de dos flujos de datos, por un lado la secuencia
BigBuckBunny, y por otro lado una secuencia de video codificada según
H264/SVC. Se va a utilizar una limitación de ancho de banda de 1,3 Mbit/s, y el
objetivo de esta prueba será observar cómo se adapta la transmisión en un
entorno en el que se comparte el ancho de banda.
Para poder realizar las pruebas, se debe configurar en primer lugar el dispositivo
“host” para recepción de flujo en la tercera interfaz, ya que las transmisiones van a ser
realizadas por parte del dispositivo “sender” y recibidas por parte del “host” en dicha
interfaz. Se muestra a continuación, los comandos de configuración que se ejecutan en
el “host”:
host$ifconfig tap0 0
host$ifconfig tap2 172.16.5.2/24
host$route add -net 192.168.1.0/24 gw 172.16.5.1
De esta forma, queda configurado el dispositivo “host” con una dirección IP de la
tercera interfaz de red, y como pasarela para llegar a la primera interfaz se utiliza el
“routerB”.
107
Sistema de video adaptativo H264/SVC sobre TCP
Para la prueba cinco, se va a transmitir simultáneamente hacia el “host” (secuencia
BigBuckBunny), y hacia el “sink” (secuencia H264/AVC).
6.4.1. Prueba 1 - Ancho de banda límite de 300 Kbit/s:
Se configura el primer router con un ancho de banda límite de 300 Kbit/s para obtener
un perfil de transmisión que se adecue a la transmisión de la capa base. Viendo el
perfil de las capas 000 y 010 ya se puede observar que la variabilidad en tamaño del
video puede que provoque que no haya suficiente ancho de banda para poder
transmitir en la capa base durante todo el tiempo.
A continuación se muestra el flujo transmitido capturado con la herramienta de red
“Wireshark”:
Figura 6.14: Flujo transmitido: Prueba 300 Kbit/s
Como se puede observar la transmisión se detiene a los 220 segundos. Esto se debe al
hecho que no puede asumir en tiempo real la transmisión del flujo de datos, lo que
provoca que “mplayer” se congele y no se consiga el objetivo de poder reproducir la
secuencia en tiempo real.
A continuación, vemos el perfil generado de transmisión a partir de los valores
estimados de ancho de banda por parte del “socket” y la figura correspondiente al
intercambio entre capas realizado durante los 220 segundos de transmisión.
Sistema de video adaptativo H264/SVC sobre TCP
Figura 6.15: Perfil de transmisión según opciones del socket: Prueba 300 Kbit/s
Leyenda
Valor Capa
1
000
2
010
3
001
4
011
5
100
6
110
108
109
Sistema de video adaptativo H264/SVC sobre TCP
Figura 6.16: Intercambio entre capas: Prueba 300 Kbit/s
La diferencia de duración entre la simulación y las otras dos figuras se debe a los
instantes temporales en que se transmite con una capa con identificador temporal
menor al máximo, ya que en estos casos se reduce la duración del video. Esta
diferencia podría deberse al hecho que siempre se transmite con un ancho de banda
menor al disponible y por lo tanto las transmisiones se avanzan al instante de
reproducción. Sin embargo, este no es el caso, porque si se debiera a esta segunda
razón el video no se detendría.
Como puede verse en la figura 6.16, la mayor parte del tiempo se transmite hasta las
capas 000 y 010, por lo que se obtiene el resultado esperado para la prueba realizada.
Sin embargo, como no puede llegar a transmitir todo el flujo, se llega a la conclusión
que será necesario introducir un buffer de entrada en recepción que cargue parte del
video antes de empezar a reproducir, porque en caso contrario la reproducción se
detiene.
Se ha repetido la prueba introduciendo el uso del buffer, y se ha obtenido el flujo de
transmisión siguiente:
Sistema de video adaptativo H264/SVC sobre TCP
110
Figura 6.17: Flujo transmitido: Prueba 300 Kbit/s
Como puede esperarse se obtiene un flujo aproximado de 300 Kbit/s durante toda la
transmisión. La duración de 515 segundos queda justificada porque como se verá
durante gran parte de la transmisión se extrae hasta la capa 000, razón por la que se
reduce la duración del video.
El buffer intermedio que se ha elegido en este caso es de 3 Mbyte, de forma que antes
de empezar a transmitir se ponen 3 Mbyte en el buffer, haciendo que se inicie
aproximadamente un minuto después de empezar a transmitir. Esto nos indica que la
duración del video es de 465 segundos, por lo que se deduce, que aproximadamente el
25 % del tiempo se transmite con identificador temporal menor al máximo.
A continuación, se muestran las figuras correspondientes al perfil generado por las
estimaciones del “socket” y el intercambio entre capas realizado en la transmisión.
111
Sistema de video adaptativo H264/SVC sobre TCP
Figura 6.18: Perfil de transmisión según opciones del socket: Prueba 300 Kbit/s
Figura 6.19: Intercambio entre capas: Prueba 300 Kbit/s
Como puede observarse la mayor parte del tiempo se transmite hasta las capas 000 y
010.
6.4.2. Prueba 2 - Ancho de banda límite de 600 Kbit/s:
La segunda prueba realizada, está orientada a la reproducción de la secuencia de video
hasta la capa de mejora de PSNR, razón por la que se limita la transmisión a 600 Kbit/s.
En esta, y en las siguientes pruebas se ha decidido poner otra limitación al ancho de
banda para quede limitado por la velocidad de reproducción del video, aparte de por
Sistema de video adaptativo H264/SVC sobre TCP
112
el propio ancho de banda disponible. Para conseguirlo, se ha utilizado la opción “nocache” en el reproductor multimedia, para que no utilice un buffer interno de
almacenamiento. La razón de esta elección, es para evitar que la duración de la
transmisión sea mucho más reducida que la duración del video.
Se considera una buena estrategia, porque existe suficiente ancho de banda disponible
para poder reproducir como mínimo la capa base en tiempo real y se evita así que se
avance demasiado la transmisión. Esta estrategia se convierte en una limitación
porque la cola de espera hasta nivel de aplicación será la ventana de control de flujo
de TCP, y habrá instantes en que esta quedara bacía, y por lo tanto limitara las
transmisiones.
A continuación, se muestra el flujo transmitido de la segunda prueba capturado con
“Wireshark”:
113
Sistema de video adaptativo H264/SVC sobre TCP
Figura 6.20: Flujo transmitido: Prueba 600 Kbit/s
Como puede observarse se consigue un flujo de duración de 530 segundos. La razón
por la que termina antes es los instantes temporales en que se transmite con
identificador temporal menor al máximo. Además, como puede observarse, se obtiene
un flujo que en la mayor parte del tiempo está cerca de los 600 Kbit/s tal y como se
esperaba. Las razones por las que hay instantes de tiempo con menor ancho de banda
son el hecho de no utilizar buffer interno en el reproductor o situaciones de
congestión.
A continuación, se muestran las figuras correspondientes al perfil generado de flujo
máximo que se puede transmitir según las estimaciones obtenidas del “socket” y el
intercambio entre capas realizado en la transmisión:
Sistema de video adaptativo H264/SVC sobre TCP
114
Figura 6.21: Perfil de transmisión según opciones del socket: Prueba 600 Kbit/s
Figura 6.22: Intercambio entre capas: Prueba
Como puede observarse en el perfil el ancho de banda medio disponible es
aproximadamente de 600 Kbit/s, tal y como se esperaba. Los casos en que este
disminuye significativamente son casos de perdida de paquetes, razón por la que se
activa el control de congestión. Como se ha podido ver en la reproducción de la
secuencia el sistema a 600 Kbit/s se adapta correctamente a las fases de inicio y de
control de congestión.
115
Sistema de video adaptativo H264/SVC sobre TCP
A parte, como puede observarse en la figura 6.22, la mayor parte del tiempo se
transmite hasta las capas 000, 010, 001 y 011, lo cual se corresponde con al ancho de
banda necesario para transmitir dichas capas.
6.4.3. Prueba 3 - Ancho de banda límite de 1,3 Mbit/s:
La tercera prueba tiene como objetivo la transmisión del flujo a la máxima resolución
durante la mayor parte del tiempo, ya que como se ha visto en los perfiles de
transmisión de las capas la variabilidad en los tamaños hace que no pueda ser
transmitido a la máxima capa durante todo el tiempo.
A continuación, se muestra el flujo transmitido en esta prueba (capturado con
“Wireshark”):
Sistema de video adaptativo H264/SVC sobre TCP
116
Figura 6.23: Flujo transmitido: Prueba 1,3 Mbit/s
Como puede observarse se consigue un flujo de duración de 560 segundos. La razón
por la que termina antes es la misma que en la segunda prueba, ya que no se utiliza
buffer en el reproductor. Además, como puede observarse, se obtiene un flujo que en
la mayor parte del tiempo está cerca de los 1,3 Mbit/s tal y como se esperaba. Se
detectan casos con pérdida de paquetes como a los 460 segundos, pero al seguir
reproduciendo a tiempo real se observa que el sistema se adapta bien a los errores
debido al hecho que siempre transmite por debajo del ancho de banda disponible.
A continuación, se muestran las figuras correspondientes al perfil generado de flujo
máximo que se puede transmitir según las estimaciones obtenidas del “socket” y el
intercambio entre capas realizado en la transmisión:
117
Sistema de video adaptativo H264/SVC sobre TCP
Figura 6.24: Perfil de transmisión según opciones del socket: Prueba 1,3 Mbit/s
Figura 6.25: Intercambio entre capas: Prueba 1300 Kbit/s
En la figura 6.25, se observan varias situaciones con pérdida de paquetes, pero como
puede observarse el sistema reacciona a gran velocidad a la bajada de ancho de banda
disponible. Sin embargo, es importante darse cuenta que se deben a pérdidas de la
propia transmisión, razón por la que se recupera con gran velocidad, y en ninguno de
los tres casos analizados hasta ahora ha habido ancho de banda compartido con otras
transmisiones, caso que se verá en la prueba cinco.
A parte, como puede observarse en la figura 6.25, la transmisión ha estado
principalmente concentrada en las capas 100 y 110, tal y como se esperaba.
6.4.4. Prueba 4 - Ancho de banda variable de 1,3 Mbit/s y 600 Kbit/s:
Sistema de video adaptativo H264/SVC sobre TCP
118
Esta prueba, será evaluado con ancho de banda variable, los primeros 200 segundos se
dispondrá de 1,3 Mbit/s, los siguientes 200 segundos de 600 Kbit/s y hasta el final de la
secuencia 1,3 Mbit/s.
A continuación, se puede ver la figura correspondiente al flujo transmitido capturada
con “Wireshark”:
119
Sistema de video adaptativo H264/SVC sobre TCP
Figura 6.26: Flujo transmitido: Prueba 1300-600-1300 Kbit/s
Como se puede observar, se obtiene el perfil deseado de 1,3 Mbit/s, 600 Kbit/s y 1,3
Mbit/s con intercambios de flujo en los instantes indicados. Se obtiene una duración
de 540 segundos, como en los anteriores casos debido al acortamiento del video al
filtrar con identificadores temporales menores que el máximo.
A continuación, se muestran las figuras correspondientes al perfil de transmisión según
las estimaciones realizadas por el “socket” y el intercambio entre capas realizado en la
transmisión:
Figura 6.27: Perfil de transmisión según opciones del socket: Prueba 1300-600-1300
Kbit/s
Sistema de video adaptativo H264/SVC sobre TCP
120
Figura 6.28: Intercambio entre capas: Prueba 1300-600-1300 Kbit/s
Como puede observarse en la figura 6.28, se extrae mayormente a las capas 100 y 110
cuando el ancho de banda disponible es de 1,3 Mbit/s, y a las capas 000, 010, 001 y
011 cuando el ancho de banda disponible es de 600 Kbit/s.
6.4.5. Prueba 5 - Ancho de banda de 1,3 Mbit/s compartido:
En esta prueba, se han realizado dos transmisiones simultáneas desde el dispositivo
“sender”, una dirigida al dispositivo “host” con la secuencia codificada según
H264/SVC, y la otra dirigida al dispositivo “sink” con una secuencia codificada según
H264/AVC. El objetivo de esta prueba es observar cómo se reparte el ancho de banda
disponible (1,3 Mbit/s) entre las dos transmisión. Es una prueba más similar a los
entornos reales en que simultáneamente se comparte el ancho de banda con otras
aplicaciones.
En esta prueba, se ha prescindido de mostrar el flujo capturado con “Wireshark”
porque es el agregado por las dos transmisiones y se va a trabajar con el perfil de
transmisión obtenido a través de las estimaciones por parte del “socket”. A
continuación, se muestran las figuras correspondientes al perfil de transmisión y al
intercambio entre capas de esta prueba:
121
Sistema de video adaptativo H264/SVC sobre TCP
Figura 6.29: Perfil de transmisión según opciones del socket: Prueba 1,3 Mbit/s
compartido
Figura 6.30: Intercambio entre capas: 1,3 Mbit/s compartido
Como puede observase en la figura 6.29, se obtiene un ancho de banda disponible de
entre 300 y 900 Kbit/s, lo que nos indica que ambos flujos luchan por el ancho de
banda disponible durante todo el tiempo repartiéndoselo entre ambos.
Es importante darse cuenta de que existen situaciones con pérdidas en la transmisión
como se puede observar, y el sistema es capaz de restablecerse incluso en el caso de
flujo compartido con otras transmisiones, lo que indica una cierta robustez a las
situaciones de “congestion avoidance” por parte del sistema desarrollado. Sin,
embargo, es igual de importante percatarse que habrán situaciones de congestión
límite para todos los caos que harán que la transmisión se detenga debido a las
colisiones.
Sistema de video adaptativo H264/SVC sobre TCP
122
Por último, debido al flujo disponible, principalmente se extrae a las capas 000, 010,
001 y 011.
123
Sistema de video adaptativo H264/SVC sobre TCP
Capítulo 7:
Conclusiones:
Después de analizar la evaluación del sistema se llega a las conclusiones siguientes:
1. El algoritmo de filtrado desarrollado da lugar a flujos de datos conformantes
con el estándar H264/SVC.
2. Los resultados de aplicar las estrategias de filtrado adaptativo planteadas
aunque no dan lugar a flujos de datos conformantes estrictamente hablando,
son reproducibles por parte de “OpenSVCDecoder”, con cambios de resolución,
calidad y velocidad apreciables a simple vista. Por lo que se puede considerar
los flujos resultantes como conformantes con H264/SVC.
3. Las pruebas de red sin compartir el ancho de banda disponible reaccionan
correctamente a las pérdidas de paquetes permitiendo reproducir la secuencia
de video en tiempo real, siempre que se disponga del ancho de banda
necesario para transmitir como mínimo hasta la capa base.
4. En los casos en que no se dispone del ancho de banda necesario para transmitir
hasta la capa base, el uso de un buffer que almacene parte del flujo antes de
reproducir garantiza la correcta reproducción del video, con el retardo
introducido por el buffer. Cuanto menor sea el ancho de banda disponible, más
retardo se deberá introducir.
5. Las pruebas de red compartiendo el ancho de banda disponible reaccionan
correctamente a las pérdidas de paquetes permitiendo reproducir la secuencia
de video en tiempo real, siempre que se disponga de “n” veces” el ancho de
banda necesario para transmitir como mínimo hasta la capa base, donde “n” es
el número de transmisiones simultáneas, ya que tienden a repartirse el ancho
de banda a partes iguales, a menos que se definan los anchos de banda limite
por aplicación.
6. Obviamente, con situaciones de alta congestión, las transmisiones a tiempo
real no serán posible debido a las colisiones.
7. El sistema desarrollado es una alternativa real a los sistemas de video bajo
demanda existentes siempre que se disponga de una conexión de banda ancha.
7.1.
Líneas futuras:
Existen muchas mejoras que se podrían llevar a cabo para mejorar el sistema
desarrollado. A continuación, se muestran tanto posibles mejoras para el sistema
como proyectos futuros continuación del presente proyecto:
Sistema de video adaptativo H264/SVC sobre TCP
124
1. Desarrollar el receptor orientado a aplicaciones a tiempo real, diseñado en el
apartado 2 del capítulo 5.
2. Desarrollar un codificador H264/SVC a tiempo real, lo cual sería condición
necesaria para poder desarrollar sistemas de videoconferencia que trabajaran
con el estándar H264/SVC, ya que actualmente con “JSVM” las codificaciones
no son a tiempo real.
3. Modificar “OpenSVCDecoder” para que detecte cuando se transmite con
identificador temporal menor que el máximo, y conseguir que adapte la
velocidad de reproducción.
4. Desarrollar “plugins” para los principales navegadores web que permitan
incorporar el códec H264/SVC para poder reproducir las secuencias H264/SVC
en el navegador web.
5. Incorporar el sistema de comunicaciones trabajando sobre HTTP, ya sea en
forma de aplicación programada con PHP, o con “servlets” de JAVA, o
incluyéndolo de forma nativa en el estándar HTML5.
125
Sistema de video adaptativo H264/SVC sobre TCP
APÉNDICES
Sistema de video adaptativo H264/SVC sobre TCP
126
Apéndice A:
Ficheros de configuración del codificador de JSVM
utilizados en las simulaciones:
Los siguientes ficheros han sido utilizados para la configuración de la codificación
hecha en la secuencia de video “BigBuckBunny”. Concretamente, se han codificado dos
capas de escalabilidad temporal para cada una de las capas, siendo las capas: capa
base, capa de calidad mejorada (ambas con resolución 320x180) y capa de resolución
superior a 640x320.
El archivo principal, “confSVC.cfg” es el siguiente:
# JSVM Main Configuration File
#========================GENERAL================================
OutputFile stream.264
# Bitstream file
FrameRate 24.0
# Maximum frame rate [Hz]
FramesToBeEncoded 14000
# Number of frames (at input
frame rate)
NonRequiredEnable 0
# NonRequiredSEI enable
(0:disable, 1:enable)
CgsSnrRefinement 1
# SNR refinement as 1: MGS; 0:
CGS
EncodeKeyPictures 1
# Key pics at T=0 (0:none,
1:MGS, 2:all)
MGSControl 1
# ME/MC for non-key pictures in
MGS layers
# (0:std, 1:ME with EL, 2:ME+MC
with EL)
#===================== CODING STRUCTURE ========================
GOPSize 2
# GOP Size (at maximum frame
rate)
IntraPeriod 4
# Intra Period
NumberReferenceFrames 1
# Number of reference pictures
BaseLayerMode 0
#Base layer mode (0,1: AVC
compatible, 2: AVC w subseq SEI)
ConstrainedIntraUps 0
# constrained intra upsampling
#======================= MOTION SEARCH =========================
SearchMode 4
# Search mode (0:BlockSearch,
4:FastSearch)
SearchFuncFullPel 3
# Search function full pel
# (0:SAD, 1:SSE, 2:HADAMARD,
3:SAD-YUV)
SearchFuncSubPel 2
# Search function sub pel
# (0:SAD, 1:SSE, 2:HADAMARD)
SearchRange 32
# Search range (Full Pel)
ELSearchRange 4
# Enh. layer search range
FastBiSearch 1
# Fast bi-directional search
(0:off, 1:on)
127
Sistema de video adaptativo H264/SVC sobre TCP
BiPredIter 4
# Max iterations for bi-pred
search
IterSearchRange 8
# Search range for iterations
(0: normal)
#========?================ LOOP FILTER =========================
LoopFilterDisable 0
# Loop filter idc (0: on, 1:
off, 2: on except for slice boundarieS, 3: Se aplica 2 etapas de
filtrado (limite bloques y limite tiras)
# 4: Luma on but Chroma off in
enh. layer # (w.r.t. idc=0)
# 5: Luma on except on slice
boundaries but Chroma off in enh. layer # (w.r.t. idc=2)
# 6: Como 3 en las muestras
luma y sin filtrado croma
# Loop filter idc (0: on,
1: off, 2:
# on except for slice
boundaries,
# 3: Luma on but Chroma off in
enh. layer # (w.r.t. idc=0)
# 4: Luma on except on slice
boundaries.
# but Chroma off in enh. layer
# (w.r.t. idc=2)
LoopFilterAlphaC0Offset 0
# AlphaOffset(-6..+6): valid
range
LoopFilterBetaOffset 0
# BetaOffset (-6..+6): valid
range
InterLayerLoopFilterDisable 0
# filter idc for inter-layer
deblocking
InterLayerLoopFilterBetaOffset 0 # BetaOffset for inter-layer
deblocking
#======================= LAYER DEFINITION ======================
NumLayers 3
# Number of layers
LayerCfg confSVC_layer0.cfg
# Layer configuration file
LayerCfg confSVC_layer1.cfg
# Layer configuration file
LayerCfg confSVC_layer2.cfg
# Layer configuration file
#====================== WEIGHTED PREDICTION ====================
WeightedPrediction 0
# Weighting IP Slice
(0:disable, 1:enable)
WeightedBiprediction 1
# Weighting B Slice (0:disable,
1:explicit,
# 2:implicit)
#===================== LOSS-AWARE RDO ==========================
LARDO 0
# Loss-aware RDO (0:disable,
1:enable)
#========================= HRD =================================
EnableVclHRD 0
# Type I HRD (default 0:Off,
1:on)
EnableNalHRD 0
# Type II HRD (default 0:Off,
1:on)
#======================= RATE CONTROL ==========================
RateControlEnable 0
# Enable base-layer rate
control (0=off, 1=on)
#====================== FRAME-COMPATIBLE =======================
MuxMethod 0
# Enable 3D mux method (0:
none, 1: SbS, 2: TaB)
Sistema de video adaptativo H264/SVC sobre TCP
MuxFilter 15
#
#
#
#
#
#
#
#
#
#
#
#
#
128
# 3D Muxing/DOwnsampling Filter
0: decimate,
1: average
2: [-1 2 6 2 -1]/8
3: [-1 2 -1]
4: [-1 4 26 4 -1]/32
5: [ 1 -2 5 56 5 -2 1]/64
6: HF1
7: HF0
8: SVC
9: CDF9
10: CDF7
11: "1024"•
12: low-pass (fractional-pixel
offset)
# 13: JVT-R006 (fractional-pixel
offset)
# 14: JVT-R070 (fractional-pixel
offset)
# 15: SVC (fractional-pixel offset)
MuxOffset0 1
(view 0)
MuxOffset1 1
Layer1;
# 16: HF0 (fractional-pixel offset)
# offset for input to layer 0
# is not zero; offset for
Los archivos de configuración de las tres capas son los siguientes. A continuación se
muestra “confSVC_layer0.cfg”:
# JSVM Layer Configuration File
#=========================== INPUT ============================
SourceWidth 320
# Input frame width
SourceHeight 180
# Input frame height
FrameRateIn 24
# Input frame rate [Hz]
FrameRateOut 24
# Output frame rate [Hz]
InputFile BigBuckBunny_320x180@24_000-000s.yuv
# Input file
SymbolMode 0
# 0=CAVLC, 1=CABAC
IDRPeriod 16
# IDR period (should be (GOP
size)*N)
IntraPeriod 4
# Intra period (should be (GOP
size)*N)
#=========================== CODING ===========================
ProfileIdc 77
# value of profile_idc (or 0
for auto detection)
MinLevelIdc 10
# minimum level (level_idc * 10
)
CbQPIndexOffset 2
# QP index offset for the Cb
component
CrQPIndexOffset 2
# QP index offset for the Cr
129
Sistema de video adaptativo H264/SVC sobre TCP
component
MaxDeltaQP 1
# Max. absolute delta QP
QP 32.0
# Quantization parameters
#========================= CONTROL ============================
InterLayerPred 0
# Inter-layer Pred. (0:no,
1:yes, 2:adap.)
ILModePred 0
# Inter-layer mode pred. (0:no,
1:yes, 2:adap.)
ILMotionPred 0
# Inter-layer motion pred.
(0:no, 1:yes, 2:adap.)
ILResidualPred 0
# Inter-layer residual pred.
(0:no, 1:yes, 2:adap.)
#================ EXTENDED SPATIAL SCALABILITY ================
UseESS 0
# ESS mode
#============================= MGS ============================
MGSVectorMode 0
# MGS vector usage selection
#====================== QP Cascading ==========================
ExplicitQPCascading 1
# QP Cascading (0:auto,
1:explicit)
DQP4TLevel0 0
# Delta QP for temporal level 0
DQP4TLevel1 1
# Delta QP for temporal level 1
#=================== SVC TO AVC REWRITE =======================
AvcRewriteFlag 0
# Enable SVC to AVC rewrite (0:
no, 1: yes)
El archivo “confSVC_layer1.cfg” es el siguiente:
# JSVM Layer Configuration File
#==================== INPUT / OUTPUT ==========================
SourceWidth 320
# Input frame width
SourceHeight 180
# Input frame height
FrameRateIn 24
# Input frame rate [Hz]
FrameRateOut 24
# Output frame rate [Hz]
InputFile BigBuckBunny_320x180@24_000-000s.yuv
# Input file
SymbolMode 0
# 0=CAVLC, 1=CABAC
IDRPeriod 16
# IDR period (should be (GOP
size)*N)
IntraPeriod 4
# Intra period (should be (GOP
size)*N)
#======================== CODING ==============================
ProfileIdc 86
# value of profile_idc (or 0
for auto detection)
MinLevelIdc 10
# minimum level (level_idc * 10
)
CbQPIndexOffset 2
# QP index offset for the Cb
component
CrQPIndexOffset 2
# QP index offset for the Cr
component
MaxDeltaQP 1
# Max. absolute delta QP
QP 25.0
# Quantization parameters
Sistema de video adaptativo H264/SVC sobre TCP
130
BaseLayerId 0
# Layerd ID for the base layer
#======================== CONTROL =============================
InterLayerPred 2
# Inter-layer Pred. (0:no,
1:yes, 2:adap.)
ILModePred 2
# Inter-layer mode pred. (0:no,
1:yes, 2:adap.)
ILMotionPred 2
# Inter-layer motion pred.
(0:no, 1:yes, 2:adap.)
ILResidualPred 2
# Inter-layer residual pred.
(0:no, 1:yes, 2:adap.)
#================ EXTENDED SPATIAL SCALABILITY ================
UseESS 1
# ESS mode
ESSCropWidth 320
# base layer upsampled frame
width
ESSCropHeight 180
# base layer upsampled frame
height
ESSOriginX 0
# base layer upsampled frame xpos
ESSOriginY 0
# base layer upsampled frame ypos
#=========================== MGS ==============================
MGSVectorMode 0
# MGS vector usage selection
#====================== QP Cascading ==========================
ExplicitQPCascading 1
# QP Cascading (0:auto,
1:explicit)
DQP4TLevel0 0
# Delta QP for temporal level 0
DQP4TLevel1 1
# Delta QP for temporal level 1
#=================== SVC TO AVC REWRITE =======================
AvcRewriteFlag 0
# Enable SVC to AVC rewrite (0:
no, 1: yes)
El archivo “confSVC_layer2.cfg” es el siguiente:
# JSVM Layer Configuration File
#===================== INPUT / OUTPUT =========================
SourceWidth 640
# Input frame width
SourceHeight 360
# Input frame height
FrameRateIn 24
# Input frame rate [Hz]
FrameRateOut 24
# Output frame rate [Hz]
InputFile BigBuckBunny_640x360@24.yuv
# Input file
SymbolMode 0
# 0=CAVLC, 1=CABAC
IDRPeriod 16
# IDR period (should be (GOP
size)*N)
IntraPeriod 4
# Intra period (should be (GOP
size)*N)
#========================= CODING =============================
ProfileIdc 86
# value of profile_idc (or 0
for auto detection)
MinLevelIdc 10
# minimum level (level_idc * 10
)
131
Sistema de video adaptativo H264/SVC sobre TCP
CbQPIndexOffset 2
# QP index offset for the Cb
component
CrQPIndexOffset 2
# QP index offset for the Cr
component
MaxDeltaQP 1
# Max. absolute delta QP
QP 27.0
# Quantization parameters
BaseLayerId 0
# Layerd ID for the base layer
#======================= CONTROL ==============================
InterLayerPred 2
# Inter-layer Pred. (0:no,
1:yes, 2:adap.)
ILModePred 2
# Inter-layer mode pred. (0:no,
1:yes, 2:adap.)
ILMotionPred 2
# Inter-layer motion pred.
(0:no, 1:yes, 2:adap.)
ILResidualPred 2
# Inter-layer residual pred.
(0:no, 1:yes, 2:adap.)
#=============== EXTENDED SPATIAL SCALABILITY =================
UseESS 1
# ESS mode
ESSCropWidth 640
# base layer upsampled frame
width
ESSCropHeight 360
# base layer upsampled frame
height
ESSOriginX 0
# base layer upsampled frame xpos
ESSOriginY 0
# base layer upsampled frame ypos
#========================== MGS ===============================
MGSVectorMode 0
# MGS vector usage selection
#===================== QP Cascading ===========================
ExplicitQPCascading 1
# QP Cascading (0:auto,
1:explicit)
DQP4TLevel0 0
# Delta QP for temporal level 0
DQP4TLevel1 1
# Delta QP for temporal level 1
#================= SVC TO AVC REWRITE =========================
AvcRewriteFlag 0
# Enable SVC to AVC rewrite (0:
no, 1: yes)
Sistema de video adaptativo H264/SVC sobre TCP
Apéndice B:
Sintaxis H264/SVC:
132
133
Sistema de video adaptativo H264/SVC sobre TCP
Sistema de video adaptativo H264/SVC sobre TCP
134
135
Sistema de video adaptativo H264/SVC sobre TCP
Sistema de video adaptativo H264/SVC sobre TCP
136
137
Sistema de video adaptativo H264/SVC sobre TCP
Sistema de video adaptativo H264/SVC sobre TCP
138
139
0
Sistema de video adaptativo H264/SVC sobre TCP
Sistema de video adaptativo H264/SVC sobre TCP
140
141
Sistema de video adaptativo H264/SVC sobre TCP
Sistema de video adaptativo H264/SVC sobre TCP
142
143
Sistema de video adaptativo H264/SVC sobre TCP
Sistema de video adaptativo H264/SVC sobre TCP
144
Apéndice C:
Manual de utilidades del proyecto:
C.1. Utilidades de video:
Reproducción de una secuencia YUV en Mplayer:
Una secuencia YUV, es aquella secuencia de video que está representado por las tres
componentes de representación de imagen YUV, es decir, una secuencia de video
decodificada.
La forma de indicarle a Mplayer que se va a reproducir una secuencia YUV es la
siguiente:
mplayer -demuxer rawvideo -rawvideo fps=FPS_IN:w=W_IN:h=H_IN in.yuv
En primer lugar se le indica que el formato de la secuencia de video no está codificado
(“rawvideo”), acto seguido para que Mplayer pueda reproducirlo se le indican la
velocidad de reproducción y su resolución. Mplayer con estos atributos es capaz de
detectar las diferentes combinaciones en número de bits para la representación de
todas sus componentes.
Reproducción de una secuencia codificada con H264:
Mplayer detecta automáticamente cuando se inicia la reproducción de una secuencia
de video codificada con H264, aunque para conseguir una respuesta más rápida por
parte de Mplayer es útil utilizar la extensión “.264”. El único parámetro que se le debe
indicar es la velocidad de reproducción.
Vemos a continuación el comando a ejecutar para reproducir una secuencia H264:
mplayer –fps FPS_IN in.264
Para la reproducción de un archivo codificado con SVC se utiliza exactamente el mismo
comando, y Mplayer ya se encarga de detectar que esta codificado con SVC. Para que
Mplayer detecte las codificaciones de SVC se debe compilar configurando el código
para que utilice este decodificador. Para más información sobre como realizar la
compilación, ver [4].
Descomprimir un fichero codificado:
Vamos a ver a continuación, el comando para obtener un fichero descomprimido en
formato YUV a partir de un fichero de entrada que use una de las siguientes
145
Sistema de video adaptativo H264/SVC sobre TCP
codificaciones o multiplexores de video y audio: AVI, MP4, H264; MPEG2, MPEG4. La
utilidad utilizada es “ffmpeg” y el comado correspondiente es el siguiente:
ffmpeg -i in.avi -v FPS_IN -s W_INxH_IN –pix-fmt yuv420p out.yuv
Los parámetros que se le indican son el fichero de entrada (“in.avi”), la velocidad de
reproducción de la secuencia de entrada, su resolución (se indica con un carácter “x”
en el medio) y el formato de codificación del archivo no comprimido de la salida. Se
elige por defecto “yuv420p”.
Obtención de versiones sub-muestreadas y sobre-muestreadas de una secuencia
YUV:
Para la obtención de versiones sub-muestreadas y sobre-muestreadas de una
secuencia YUV utilizaremos la utilidad “DownConvertStatic” del paquete de software
JSVM. El comando a utilizar es el siguiente:
DownConvertStatic W_IN H_IN in.yuv W_OUT H_OUT out.yuv NUM_METHOD
En los parámetros se indica las secuencias de entrada y de salida, y sus resoluciones. Es
decir, se indica la resolución del archivo de entrada, y la resolución deseada para el
archivo de salida. Además, se indica el o los filtros que se utilizaran para el submuestreo o el sobre-muestreo, mediante el parámetro “NUM_METHOD. Existen otros
parámetros, para aprender a utilizarlos o ver los distintos tipos de filtrado se
recomienda la lectura de [3]. El resultado de ejecutar esta utilidad será la versión sub o
sobre-muestreada de la entrada utilizando el método indicado.
Codificación de una secuencia H264/SVC:
El siguiente paso lógico, en las funcionalidades sobre utilidades de video, es la
codificación de una secuencia utilizando el estándar H264/SVC. Para codificar con AVC
se cogerá el caso particular de la siguiente explicación, en que solo se incluye una capa.
El proceso de codificación se realiza con la siguiente instrucción:
H264AVCEncoderLibTestStatic –pf confSVC.cfg
Existen muchos parámetros adicionales que se le pueden indicar, pero estos serán
equivalentes a los parámetros que se indicaran en el fichero de configuración. De esta
forma el único parámetro que se pasa es el archivo de configuración, donde se
inicializan todas las variables necesarias para la codificación.
Vemos a continuación las principales variables de codificación. No se van a presentar
todas las posibilidades del codificador “H264AVCEncoderLibTestStatic”. Para obtener
más información se recomienda la lectura de [3].
Sistema de video adaptativo H264/SVC sobre TCP
146
La codificación consta de varios ficheros de configuración, el principal (“confSVC.cfg”) y
uno por cada capa de las que conste la codificación (“confSVC_layer*i+”). Empezamos
presentando las opciones de configuración más importantes del archivo principal. En
ellas veremos la identificación del flujo de salida, su estructura de codificación, los
métodos utilizados en la búsqueda de muestras realizada en intra e inter-predicción y
la identificación de los ficheros correspondientes a las distintas capas que forman
parte de la codificación.
Empezamos, viendo la identificación del fichero de salida. Los parámetros que deberán
especificarse son los siguientes:
#============================ GENERAL ================================
OutputFile path/stream.264
# Bitstream file
FrameRate 24.0
# Maximum frame rate [Hz]
FramesToBeEncoded 14000
# Number of frames (at input frame rate)
Especificamos el nombre del fichero de salida, su velocidad de reproducción, y el
número de fotogramas de la secuencia de entrada que van a ser codificados. Como
punto importante, remarcar que para que no haya errores en la codificación el número
de fotogramas a codificar debe ser múltiplo del tamaño de GOP especificado en los
atributos que veremos a continuación.
En segundo lugar, se especifica la estructura de codificación, para conseguirlo
debemos fijar el tamaño de GOP de la secuencia y el periodo entre fotogramas intrapredecidos. La estructura en SVC se genera siguiendo los principios de funcionamiento
de la estructura diádica, de forma que con el tamaño de GOP determinaremos el
número de tiras B que habrá entre las tiras I y P.
#======================== CODING STRUCTURE ===========================
GOPSize 2
# GOP Size (at maximum frame rate)
IntraPeriod 4
# Intra Period
Seguimos en tercer lugar viendo las principales opciones en cuanto a los algoritmos de
búsqueda de muestras y el tamaño máximo sobre el que se van a realizar las
búsquedas. Es importante darse cuenta, que la velocidad de la codificación dependerá
bastante de la elección de estos parámetros.
#========================== MOTION SEARCH ============================
147
SearchMode 4
SearchFuncFullPel 3
SearchFuncSubPel 2
SearchRange 32
ELSearchRange 4
FastBiSearch 1
BiPredIter 4
IterSearchRange 8
Sistema de video adaptativo H264/SVC sobre TCP
# Search mode (0:BlockSearch, 4:FastSearch)
# Search function full pel
# (0:SAD, 1:SSE, 2:HADAMARD, 3:SAD-YUV)
# Search function sub pel
# (0:SAD, 1:SSE, 2:HADAMARD)
# Search range (Full Pel)
# Enh. layer search range
# Fast bi-directional search (0:off, 1:on)
# Max iterations for bi-pred search
# Search range for iterations (0: normal)
Con estos atributos, decidimos si utilizamos búsqueda rápida o por bloques, el tipo de
algoritmo utilizado para búsqueda a nivel de muestra o de sub-muestra, el tamaño
máximo de distancias en las búsquedas, así, como otros atributos más.
Por último, en el archivo de configuración principal, tenemos unos atributos que nos
permiten identificar donde encontrar los archivos de configuración de cada una de las
capas. Habrá una variable por cada capa de las que conste la codificación.
#========================== LAYER DEFINITION ===========================
NumLayers 3
# Number of layers
LayerCfg confSVC_layer0.cfg
# Layer configuration file
LayerCfg confSVC_layer1.cfg
# Layer configuration file
LayerCfg confSVC_layer2.cfg
# Layer configuration file
Pasamos a ver a continuación los principales atributos que se deben definir en los
archivos de configuración de cada una de las capas. En concreto veremos la
identificación de la secuencia de entrada en formato YUV, las características de la
estructura, las características de la codificación, si se utiliza predicción entre capas y si
se utiliza escalabilidad de resolución.
En primer lugar vamos a ver, la identificación de la secuencia YUV de entrada, su
resolución y su velocidad de reproducción de entrada. Además podemos fijar el valor
de la velocidad de reproducción de salida, con lo que en caso de que sean valores
distintos aumentaría o disminuiría el número de fotogramas codificados. Esta opción
nos permite por ejemplo fijar una secuencia de entrada a 50 fotogramas por segundo,
y en la capa base solo codificar la mitad de estos fotogramas fijando la velocidad de
salida a 25 fotogramas por segundo.
#==================== INPUT / OUTPUT ==========================
Sistema de video adaptativo H264/SVC sobre TCP
148
SourceWidth 320
# Input frame width
SourceHeight 180
# Input frame height
FrameRateIn 24
# Input frame rate [Hz]
FrameRateOut 24
# Output frame rate [Hz]
InputFile BigBuckBunny_320x180@24_000-000s.yuv
# Input file
Se verá a continuación, los parámetros correspondientes el periodo de tiras intrapredecidas, que indica para cada capa la periodicidad de las tiras I; y el periodo de tiras
IDR, que nos indicara la periodicidad en instantes de refresco, que seran tiras
decodificables por sí mismas, y como consecuencia instantes en los que se dejaran de
propagar errores.
#======================== CODING STRUCTURE ===========================
IDRPeriod 16
IntraPeriod 4
# IDR period (should be (GOP size)*N)
# Intra period (should be (GOP size)*N)
En tercer lugar, se verán los atributos que fijaran si se utilizara predicción entre capas
en la capa actual, y en caso que sea así, a partir de que capa se va a predecir.
#======================== CODING ==============================
BaseLayerId 0
# Layerd ID for the base layer
#======================== CONTROL =============================
InterLayerPred 2
# Inter-layer Pred. (0:no,
1:yes, 2:adap.)
ILModePred 2
# Inter-layer mode pred. (0:no,
1:yes, 2:adap.)
ILMotionPred 2
# Inter-layer motion pred.
(0:no, 1:yes, 2:adap.)
ILResidualPred 2
# Inter-layer residual pred.
(0:no, 1:yes, 2:adap.)
En este caso, decidimos para cada capa de mejora la capa sobre la que se realizaran las
predicciones, normalmente la inferior; aunque existen casos como cuando se utiliza
una capa intermedia con calidad mejorada, en que la capa de resolución superior se
hace predecir sobre la capa base por temas de eficiencia entre tamaños de extracción
utilizando el algoritmo de filtrado y calidad visual obtenida. En el caso de la capa base
este atributo no se utiliza ya que no va a predecir de ninguna capa.
Además, se especifica el tipo de predicciones entre capas que se va a utilizar, pudiendo
elegir un tipo para todas las predicciones entre capas (primer atributo), o un tipo para
149
Sistema de video adaptativo H264/SVC sobre TCP
cada uno de los tres tipos de predicción entre capas. En las capas superiores se deberá
especificar un valor de 1 o de 2, mientras que en la capa base se elegirá el valor de 0,
ya que no existe predicción entre capas.
Pasamos a ver, los atributos correspondientes al parámetro de cuantificación que
vamos a utilizar. En primer lugar veremos la forma de fijar el parámetro de
cuantificación que vamos a utilizar. Además vamos a ver como fijar parámetros de
cuantificación diferentes en las componentes de crominancia, y en las distintas capas
temporales que se generan.
#======================== CODING ==============================
MaxDeltaQP 1
# Max. absolute delta QP
QP 25.0
# Quantization parameters
Con estos dos parámetros fijamos el parámetro de cuantificación para la capa, y la
máxima desviación absoluta que se permitirá respecto al valor fijado, en este caso el
parámetro de cuantificación quedaría entre 24 y 26.
#======================== CODING ==============================
CbQPIndexOffset 2
# QP index offset for the Cb component
CrQPIndexOffset 2
# QP index offset for the Cr component
Con estos dos parámetros fijamos la diferencia relativa de cada una de las dos
componentes de crominancia respecto al valor de la capa. Normalmente se utilizara
estos atributos con diferencias positivas ya que el ojo humano es más sensible a la
componente de luminancia, y consecuentemente nos podremos permitir
normalmente el hecho de que no se obtengan unas PSNR tan altas en las componentes
de crominancia.
Para conseguir, diferentes parámetros de cuantificación en las distintas capas
temporales generadas dentro de cada capa utilizamos “QPCascading”, en el que
definimos de la misma forma que antes las diferencias relativas respecto al valor de la
capa, para cada una de las capas de escalabilidad temporal. Es necesario especificar un
valor para cada capa en caso de especificarse su uso.
#======================= QP Cascading =========================
ExplicitQPCascading 1
# QP Cascading (0:auto, 1:explicit)
DQP4TLevel0 0
# Delta QP for temporal level 0
DQP4TLevel1 1
# Delta QP for temporal level 1
Sistema de video adaptativo H264/SVC sobre TCP
150
En quinto lugar, veremos como determinar si vamos a utilizar escalabilidad espacial.
Tendremos un atributo que nos permitirá activar su uso, y deberemos indicar la
resolución de la capa en la que estamos trabajando. Este atributo se deberá activar
tanto cuando estemos utilizando una capa con resolución superior, como cuando
estemos generando una capa de calidad mejorada con el uso de MGS. Se muestran a
continuación estos atributos:
#================ EXTENDED SPATIAL SCALABILITY ================
UseESS 1
# ESS mode
ESSCropWidth 320
# base layer upsampled frame width
ESSCropHeight 180
# base layer upsampled frame height
ESSOriginX 0
# base layer upsampled frame x-pos
ESSOriginY 0
# base layer upsampled frame y-pos
En penúltimo lugar se va a explicar cómo se debe hacer para realizar una codificación
usando MGS y generando varias capas de mejora con partición de los coeficientes.
Para ello, disponemos de un atributo que se encarga de permitir activar el uso de MGS
con partición de coeficiente, y posteriormente asignaremos valores para cada capa de
mejora, la suma de los cuales debe ser 8, correspondientes al número de coeficientes
disponibles. Se muestran a continuación estos atributos:
#=========================== MGS ==============================
MGSVectorMode 1
# MGS vector usage selection
MGSVector0 4
# Specifies 0th position of the vector
MGSVector1 2
# Specifies 1st position of the vector
MGSVector2 2
# Specifies 2nd position of the vector
Decodificación de una secuencia H264/SVC:
La utilidad para decodificar una secuencia H264, tanto AVC como SVC, es
“H264AVCDecoderLibTestStatic”. Esta utilidad convierte una secuencia codificada
según H264 en una secuencia de video no comprimida en formato YUV. A continuación
se muestra el comando para decodificar, donde sus atributos son la secuencia H264 de
entrada, y el fichero en el que almacenar el flujo decodificado:
H264AVCDecoderLibTestStatic in.264 out.yuv
C.2. Utilidades de compilación:
151
Sistema de video adaptativo H264/SVC sobre TCP
Compilación con make:
Para realizar la compilación del código que se haya desarrollado utilizaremos el
compilador de GNU: GCC. Veremos a continuación la plantilla de un Makefile que
utilizara este compilador. En concreto, el ejemplo que se propone trabaja con la
utilidad c++, que se corresponde con el compilador del lenguaje de programación c++
del conjunto de compiladores GCC.
Para compilar vamos a utilizar el siguiente comando. Este debe ejecutarse en el
directorio raíz en que se encuentran los archivo de código fuente.
cd project_dir
make
Vemos a continuación el conjunto de instrucciones que forman parte del Makefile:
EXEC := application_name
DIRSRC := src/
DIROBJ := obj/
DIRHDR := include/
CXXFLAGS := -I $(DIRHDR)
OBJS := $(subst $(DIRSRC),
$(wildcard $(DIRSRC)*.cpp)))
$(DIROBJ),$(patsubst
%.cpp,
%.o,
.PHONY: all clean
all: info $EXEC
$(EXEC): $(OBJS)
$(CXX) -o $@ $^
$(DIROBJ) %.o: $(DIRSRC) %.cpp
$(CXX) $(CXXFLAGS) -c $< -o $@
clean:
rm -f *.log $(EXEC) *~ $(DIROBJ)* $(DIRSRC)*~ $(DIRHEA)*~
El Makefile anterior se encarga de realizar la compilación del fichero por etapas. En
primer lugar a partir los ficheros de código fuente obtiene los ficheros objeto
resultantes y los almacena en el directorio “obs/”. Acto seguido, se realiza el proceso
de enlazado para obtener el ejecutable resultante.
Además hemos definido el comportamiento cuando se ejecute “make clean”, para que
elimine todos los ficheros temporales.
Sistema de video adaptativo H264/SVC sobre TCP
152
El siguiente comando realiza la misma funcionalidad. En él se deben especificar todas
las cabeceras y ficheros de código fuente necesarios para la compilación.
c++ -o application_name hdr1.h … hdrN.h src1.cpp … srcN.cpp
Compilación con KDevelop4:
En el programa KDevelop4, se trabaja con Makefiles que van a ser compilados
utilizando CMake. Para compilar en KDevelop solo es necesario incluir todos los
ficheros en el proyecto y sus nombres, tanto de cabecera como de código fuente en el
archivo “CMakeLists.txt”. Así, es el propio programa el que se encarga de generar los
ficheros de compilación.
En concreto deben ponerse utilizando la siguiente línea de texto:
add_executable(application_name hdr1.h … hdrN.h src1.cpp … srcN.cpp)
C.3. Utilidades desarrolladas en el proyecto:
Obtener los atributos de una secuencia H264/SVC:
La primera utilidad desarrollad, se encarga de mostrar por pantalla los atributos de
cada una de sus unidades NAL. En concreto muestra tipo de unidad NAL, capa a la que
pertenece y en caso de ser una tira codificada, tipo de tira (I, P o B). Además, en todos
los casos muestra el número de unidad NAL, y su tamaño en bytes.
El comando correspondiente es el siguiente:
obtain_NALU_parameters in.264
El único parámetro que tiene es el flujo de entrada.
Filtrado hasta una capa máxima:
La segunda utilidad desarrollada en el proyecto se encarga de obtener una versión
filtrada de la secuencia de video H264/SVC de entrada. De esta forma, eligiendo en la
línea de comandos el DTQ máximo de la extracción obtenemos a la salida otra
secuencia H264/SVC, que es a su vez conformante con el estándar, es decir, la
secuencia resultante será decodificable y reproducible.
El comando correspondiente para esta utilidad es el siguiente:
extract_DTQ in.264 out.264 D_th T_th Q_th
Como se puede observar se fijan los atributos máximos de la extracción, el archivo de
entrada, y el archivo de salida en que será almacenada la versión filtrada.
153
Sistema de video adaptativo H264/SVC sobre TCP
Extracción con ancho de banda fijo:
Esta utilidad, se encarga de extraer según el algoritmo de filtrado siempre hasta la
capa con ancho de banda necesario para transmitir hasta esa capa máximo pero
menor al disponible, que en este caso será fijo y será uno de los atributos que se le
pasaran al ejecutable.
El comando correspondiente es el siguiente:
fixedBW_extraction in.264 out.264 max_BW(KB/s)
Como se puede observar los atributos que se le van a pasar son el archivo de entrada,
el de salida y el ancho de banda disponible. Este ancho de banda limite será
comparado con las estimaciones del ancho de banda necesario para transmitir hasta
cada una de las posibles capas, y servirá para limitar la extracción. Se ve así, que
cuanto mayor sea el ancho de banda disponible, más calidad tendrá la secuencia
extraída.
Extracción con ancho de banda variable:
Este caso, será igual que el anterior pero utilizando intercambios de ancho de banda
disponible a través del tiempo. Para conseguirlo se ha utilizado un fichero auxiliar en el
que se indicaran los diferentes anchos de banda y se pasa como atributo el periodo de
actualización entre cambios de ancho de banda máximo (se indica en segundos).
El comando correspondiente es el siguiente:
variableBW_extraction in.264 out.264 BW.txt time(s)
Sus atributos son la secuencia de entrada, el fichero donde almacenar la secuencia de
salida, el fichero auxiliar en el que se almacena un valor de ancho de banda (KB/s) por
línea y el intervalo de actualización.
Este ejecutable funciona de tal forma que cuando transcurre el tiempo indicado, se
actualiza el ancho de banda disponible. Conseguimos así, emular el funcionamiento de
situaciones en que el ancho de banda disponible es variante.
Extracción por red:
Finalmente, se va a explicar el funcionamiento del sistema de transmisión diseñado.
Esta vez al trabajar a través de redes, ha sido necesario definir dos utilidades distintas,
el transmisor se encargara de enviar el flujo de dato filtrado según el ancho de banda
disponible y el receptor de enviarlo al reproductor.
El comando correspondiente a la transmisión del flujo de datos es el siguiente:
network_extraction in.264 @dst_IP dst_PORT
Sistema de video adaptativo H264/SVC sobre TCP
154
Los parámetros son los correspondientes al fichero de entrada y la identificación del
servidor formada por su dirección IP y su puerto. De esta forma fijamos el destino de la
transmisión y vamos extrayendo hasta la capa con mayor ancho de banda inferior al
disponible, que obtenemos con la estimación de TCP, es decir, tamaño de la ventana
de congestión dividido por el RTT, o con la estimación de tamaños enviados dividido
por el tiempo de ejecución o una combinación entre los dos casos.
Una vez realizadas las pruebas en la puesta en escena del proyecto se ha visto que el
estimador reaccionaba de forma muy agresiva debido a la detección de pérdidas. Por
esta razón se ha desarrollado una última versión en la que se puede elegir el peso de
cada uno de los estimadores. El comando correspondiente es el siguiente:
network_extractor in.264 @dst_IP dst_PORT TCP_est_height(%)
En este caso se indica además el peso que tendrá el estimador de TCP en tanto por
ciento.
La otra utilidad necesaria para el funcionamiento del sistema es un receptor TCP
estándar, que se encargue de almacenar el contenido recibido, o de enviarlo al
reproductor. Es importante darse cuenta que el receptor se deberá ejecutar siempre
antes que el transmisor ya que funcionara como servidor, y en caso de hacerlo en
orden inverso, el transmisor no encontraría el socket escuchando en el puerto y
dirección IP correspondientes.
El comando correspondiente al receptor es el siguiente:
tcp_server @src_IP src_PORT
Se le indica la dirección IP y el puerto en la que realizar la escucha y se envía a la salida
estándar el contenido de video recibido.
Para terminar vamos a ver la utilización de estas comandas y otra adicional (bfr), para
la realización de las pruebas que se han detallado en el capítulo 6.
En primer lugar creamos un fichero FIFO, que utilizaremos como punto intermedio
entre el receptor y el buffer que se encargara de cargar parte del fichero antes de
empezar a reproducirse.
mkfifo fifo_name
En segundo lugar utilizamos el comando bfr para disponer del buffer, que nos va a
permitir precargar parte de la secuencia antes de empezar a reproducir y redirigimos
su salida estándar para ser reproducida con Mplayer.
bfr fifo_name -v -pk1m -m 10% -i 99% --throttle 90% --speedcap 8000K
155
Sistema de video adaptativo H264/SVC sobre TCP
--buffersize BUFFER_SIZE -o - | mplayer -nocache - 1>/dev/null
En tercer lugar ponemos el receptor en escucha:
tcp_server @src_IP src_PORT
Para finalizar ejecutamos
“network_extraction”:
en
el
origen
de
la
transmisión
el
comando
network_extraction in.264 @dst_IP dst_PORT
Lo que conseguimos con estas instrucciones es que empiece la transmisión y que se
vaya cargando el video en el buffer intermedio. Entonces cuando ha terminado de
cargar el buffer que le hemos indicado, empezara la reproducción de la secuencia de
video en Mplayer.
Sistema de video adaptativo H264/SVC sobre TCP
156
Bibliografía:
[1] ITU-T, “H264, advanced video coding for generic audiovisual services”,
2012
[2+ Marc Torrent Vernetta, “Diseño de un sistema de transmisión de video
escalable sobre un sistema de redes P2P”, 2010
[3] ITU-T, “JSVM software manual”, 2011
*4+ Médéric Blestel y Mickaël Raulet, “Open SVC Decoder: a flexible SVC
library”, 2010
[5] Universidad Politécnica de Catalunya. Departamento de telemática.
Jorge Mata *et al.+, “Multimedia communications. TCP Flows Practice”,
2014
Descargar