Transmisión de Vídeo y Audio: Protocolos de Streaming
Los expertos predicen que la industria de la transmisión en vivo tendrá un valor de más de 180 mil millones de dólares en 2027, con la pandemia de COVID-19, el tráfico y consumo de vídeo sobre redes de datos se ha disparado a más del doble frente a años como el 2019. Es por tanto una tecnología en auge que debemos conocer en detalle y saber cómo aprovechar mejor lo que nos ofrece para asi ser capaces de adaptarnos al tiempo acelerado que vivimos.
El transporte de señales a través de redes no gestionadas se ha convertido una solución estándar para los broadcasters y operadores, ya no solo como una forma de ofrecer redundancia a las soluciones tradicionales/legacy, sino como la solución principal para su transporte en muchos casos
Consideramos que hay tres tipos de transmisión de vídeo sobre redes de datos, la descarga tradicional donde se descarga el fichero integro de vídeo, la descarga progresiva o pseudo streaming donde el player reproduce según van llegando los fragmentos de vídeo y el streaming.
Primero tenemos que tener claro qué es protocolo y qué es streaming.
Protocolo
Un protocolo es un conjunto de reglas establecidas que determinan cómo se transmiten los datos entre diferentes dispositivos electrónicos. Podríamos decir que es similar a un lenguaje hablado, donde las reglas determinan una conversación, las reglas gramaticales asi como el vocabulario son las que determinan el idioma.
Los protocolos se pueden apilar en forma de capas, de tal forma que cada protocolo tiene una función determinada. La capa más baja es la base y sobre ella se levantan los diferentes elementos de una transmisión de datos. Desde la capa física, hasta el gobierno de paquetes, pasando por el transporte y terminando en la capa de aplicación.
La utilización de un mismo protocolo permite que las máquinas se comuniquen entre sí, independientemente del sistema operativo, marca, modelo e incluso tecnología de fabricación.
Podemos determinar los protocolos en cuatro tipos:
- Capa de comunicación o enlace: PPP, DSL, Wi-Fi, etc.
- Capa de Internet: IPv4, IPv6, etc.
- Capa de transporte: TCP, UDP, etc.
- Capa de aplicación: HTTP, IMAP, FTP, etc
Streaming
Streaming es una transmisión mediante un flujo de datos que normalmente se refiere a video y/o audio, la característica que tiene conceptualmente es que permita comenzar su procesamiento antes de ser terminado. El streaming se realiza a través de una red de datos, bien sea una red privada, pública o internet.
Tipos de streaming
Streaming con descarga, es el streaming tradicional o transferencia clásica, que realiza una descarga completa en local del fichero a reproducir.
Descarga progresiva, Sin terminar de descargar un fichero de video permite comenzar la reproducción. Se requiere utilizar en local un búfer de datos que va almacenando el material descargado.
Streaming Live, se puede reproducir el video desde el comienzo, sin necesitar cerrar el fichero original.
Pero ¿qué es un protocolo de streaming?
El protocolo de streaming es el conjunto de reglas y capas que permiten hacer una transmisión de video y audio desde un punto de difusión a un punto de recepción, siempre a través de una cada de red de datos, publica como internet o privada. Existen varios protocolos para poder hacer llegar el vídeo y audio a los clientes de un servidor.
Y, ¿cómo se utiliza?
El vídeo y audio se envía desde un servidor de transmisión a un cliente utilizando primero un protocolo en la capa de transporte y posteriormente se decodifica con el protocolo de aplicación.
¿Qué protocolos en la capa de transporte?
TCP (Transmission Control Protocol)
Se trata de una arquitectura de comunicación para el intercambio de mensajes entre dispositivos informáticos en una red. Es el protocolo más común en redes que utilizan el Protocolo IP de internet; se denomina comúnmente TCP / IP.
Garantiza la entrega e integridad de los datos de un extremo a otro. TCP requiere una conversación entre servidor y cliente, de forma que establece una comunicación bidireccional de envío y recepción con acuse de recibo. Es un protocolo más lento, pero también más seguro que otros, se utiliza para transmisión unicast.
Muy utilizado para la transferencia de ficheros de video, acceso a páginas web o el envío y recepción de correos electrónicos.
UDP (User Datagram Protocol)
El Protocolo de datagramas de usuario, es un protocolo de comunicación utilizado en Internet para envíos de información especialmente sensibles al tiempo. Es más rápido que otros ya que no establece formalmente una conexión previa, antes de que se transfieran los datos. Esta ventaja de velocidad es una fragilidad del protocolo frente a pérdida de paquetes.
Es una alternativa al protocolo de control de transmisión (TCP). En una red que utiliza el Protocolo de Internet (IP), a veces se denomina UDP / IP. Es un protocolo ágil y rápido pero inseguro respecto a la garantía de entrega de todos los paquetes asi como su vulnerabilidad frente a posibles ataques. Puede utilizarse en una transmisión unicast, multicast o broadcast.
Principalmente utilizado para la transmisión de vídeo en directo, audio IP juegos online, videoconferencia Ip o voz sobre ip.
¿Qué protocolos de aplicación son más utilizados para vídeo y audio?
HTTP (Hypertext Transfer Protocol)
El Protocolo de transferencia de hipertexto es un protocolo de comunicación basado en TCP/ IP que permite transferencias de información, se realiza una petición de datos entre cliente que inicia la conversación y un servidor, no existe control sobre la transmisión dado que no guarda ningún dato entre dos peticiones en la misma sesión.
Cuando TCP y HTTP sufren un error de transmisión, se vuelve a intentar la entrega de los paquetes perdidos hasta conseguir una confirmación de que la información llegó en su totalidad
En transmisión de video para directo, se utiliza el HLS.
HLS (HTTP LIVE STREAMING)
Se trata de un protocolo robusto y eficaz, la transmisión en vivo HTTP (HLS) es un protocolo de transmisión de velocidad de bits adaptable basado en HTTP desarrollado por Apple para permitirles eliminar Flash en los dispositivos iPhone. Es un protocolo muy extendido y compatible con casi todos los navegadores web, dispositivos y teléfonos móviles. Su principal característica es que soporta una transmisión con tasa de bits adaptativa, por lo que la calidad se adapta al ancho de banda del cliente Player. Este estándar ahora es compatible con el códec H.265, que ofrece el doble de calidad de video que el H264.
Aunque se llama transmisión HTTP "en vivo", se usa tanto para transmisión bajo demanda (VOD) como para transmisión en vivo.
La codificación del video se realiza por segmentos (chunks de video), enviando pequeñas descargas del video cada x segundos. Tras el envío mínimo inicial se puede reproducir el vídeo. Para ello existe un archivo índice que referencia cada segmento y permite al player ubicar y reproducir cada fragmento recibido.
El contenido permite la encriptación para proteger el contenido y sus derechos de autor.
Este contenido, además permite atravesar un firewall de protección o un servidor proxy (siempre que permita tráfico HTTP estándar). El HLS permite la transmisión mediante protocolo seguro HTTPS.
HLS se ha convertido en el protocolo de transmisión más utilizado.
La gran ventaja de este protocolo es su alta compatibilidad, los navegadores de escritorio, los televisores inteligentes y los dispositivos móviles Android e iOS son compatibles con HLS. Los reproductores de video HTML5 también son compatibles de forma nativa con HLS, en comparación con HDS y RTMP.
Aparte de la compatibilidad más amplia de dispositivos de HLS y la compatibilidad con el reproductor HTML5, este protocolo es uno de los más seguros del mercado. Eso es lo que hace que HLS sea el protocolo perfecto para transmitir video en vivo a bases de espectadores masivos.
La única desventaja notable del protocolo HLS es la elevada latencia cuando se transmite en vivo.
HLS Low-Latency
HLS de baja latencia (LL-HLS) es un avance del HLS que consigue baja latencia. El protocolo ofrece latencias inferiores a 2 segundos o menos y es retro compatible con versiones anteriores.
Es un protocolo en fase de despliegue e implementación entre los distintos fabricantes de dispositivos.
RTMP (Real-Time Messaging Protocol)
El protocolo de mensajería en tiempo real fue desarrollado por Macromedia (propiedad de Adobe), para la transmisión de muy baja latencia en tiempo real de video, audio y datos entre un servidor y un reproductor Flash. Fiable y eficiente, funcionó muy bien para la transmisión en vivo.
Si bien Flash está en fase de desaparición, RTMP sigue siendo un protocolo de uso común para la transmisión en vivo dentro de los flujos de trabajo de producción.
Basado en TCP, RTMP es una tecnología de transmisión continua y existe una comunicación entre el cliente y el servidor.
Una vez recibida una secuencia de paquetes se notifica al servidor. Si hay paquetes perdidos dentro de esa secuencia, se retransmitirá la secuencia completa de paquetes, esto hace que la latencia sea un punto débil de este protocolo ya que puede aumentar notablemente en una transmisión en directo.
Este protocolo está en proceso paulatino de desuso, ya que sus limitaciones como no poder utilizar codecs como HEVC o grandes resoluciones con tasas de bits elevadas. Dado el elevado número de codificadores existentes compatibles con este protocolo y su robustez se utiliza ampliamente en las fases de ingesta de vídeo. RTMP no se utiliza tanto como protocolo de transmisión de video hacia cliente final.
Existen variaciones de RTMP, incluido RTMPS, que funciona a través de una conexión segura TLS / SSL.
RTMP es uno de los protocolos más antiguos del mercado, ¡pero es bastante efectivo para su edad! Incluso podríamos decir que RTMP fue un protocolo de transmisión en vivo pionero.
RTMFP (Real-Time Media Flow Protocol)
El Protocolo de flujo de medios en tiempo real (RTMFP) es un protocolo de comunicación de Adobe que permite la comunicación directa entre usuarios finales entre múltiples instancias del cliente Adobe Flash Player y aplicaciones creadas con el marco Adobe AIR para la entrega de comunicación en vivo y en tiempo real.
HDS (HTTP Dynamic Streaming)
HTTP Dynamic Streaming es la evolución de RTMP por parte de Adobe. Es un protocolo de transmisión basado en flash que está en proceso de desuso.
Permite la transmisión adaptativa y posee una alta calidad. HDS posee baja latencia, si bien es mayor que el RTMP debido al proceso de fragmentación y encriptación.
Códecs de video: H.264, VP6
Códecs de audio: AAC, MP3
Latencia: 6-30 segundos
MPEG-DASH (Moving Picture Expert Group Dynamic Adaptive Streaming over HTTP)
Moving Pictures Expert Group (MPEG) desarrolla un protocolo de código abierto Dynamic Adaptive Streaming sobre HTTP (DASH) como alternativa estándar de la industria a HLS de Apple.
MPEG-DASH es uno de los protocolos de tasa de bits adaptativa de transmisión más modernos y se considera uno de los mejores en la industria
Este protocolo es independiente del códec, es compatible con Encrypted Media Extensions (EME) y Media Source Extension (MSE), que son API basadas en estándares para la gestión de derechos digitales (DRM) basada en navegador
La gran desventaja es que al ser competencia directa de Apple y su HLS, MPEG-DASH no es compatible con Safari e iOS.
Códecs de video: códec independiente
Códecs de audio: códec independiente
Formatos variantes: MPEG-DASH CENC
Latencia: 6-30 segundos
CMAF (Common Media Application Format) Low Latency
CMAF de baja latencia para MPEG DASH es una tecnología emergente para acelerar la entrega de video basada en HTTP. Ofrece videos ultrarrápidos a escala mediante el uso de segmentos de datos más cortos.
Compatibilidad de reproducción: cualquier reproductor que no esté optimizado para CMAF de baja latencia para DASH puede recurrir al comportamiento DASH estándar (latencia más alta)
Beneficios: la baja latencia se une a la transmisión basada en HTTP
Latencia: 3 segundos o menos
RTP (Real Time Protocol)
RTP es un protocolo de Internet para la transmisión en tiempo real de datos multimedia en modo unicast o multicast. Trabaja sobre protocolo UDP, tiene una serie de características especiales de tiempo real, como código de tiempo sobre el vídeo y número de secuencias.
Posee una serie de limitaciones, no incluye recuperación de pérdida de paquetes, tiene mecanismos para compensar cualquier pérdida menor de datos, pero no garantizar el envío, ni garantizar que los paquetes lleguen ordenados, tampoco que los paquetes lleguen a tiempo ni la calidad de servicio.
Requiere el uso de un buffer que se carga antes de comenzar la reproducción para asegurar la calidad del servicio, este buffer es el amortiguador frente a las limitaciones de calidad en el envío y perdida de paquetes de datos.
Implica la transmisión periódica de paquetes de control a todos los participantes en una sesión La función principal es proporcionar mecanismos de realimentación para informar sobre la calidad en la distribución de los datos
RTP también es el protocolo de transporte utilizado por WebRTC.
Real-Time Transport Protocol with Forward Error Correction (RTP-FEC)
RTP con corrección de errores de reenvío, posee una amplia aplicabilidad para reparar automáticamente cualquier corrupción y pérdida de paquetes. El uso de este protocolo requiere más ancho de banda que RTP sin FEC.
RTCP (Real Time Control Protocol)
RTCP se usa para monitorear las estadísticas de transmisión y proporcionar retroalimentación de calidad de servicio (QoS). RTCP ayuda a la sincronización de múltiples flujos de media del RTP.
RSP (Resilient Streaming Protocol)
El protocolo de transmisión resiliente, es la primera tecnología de transmisión en vivo que protege completamente la pérdida de calidad de audio y video durante una transmisión, independientemente de las interrupciones de la red.
RSP garantiza la entrega de video y audio completos sin errores, además permite atravesar el firewall de una conexión HTTP.
Tiene latencia baja y predefinida para garantizar no almacenar nada en el búfer o tener pérdida de paquetes por inestabilidad de la red en el sitio de transmisión.
RTSP (Real Time Streaming Protocol)
Protocolo primitivo de transmisión en tiempo real con baja latencia, utiliza TCP como protocolo de transporte y permite la recepción de desde servidores, el cliente establece y controla uno o varios flujos sincronizados de audio y vídeo, está específicamente diseñado para ser usado en transmisiones de vídeo.
Permite controlar los servidores para streaming, establece una sesión de control entre el cliente receptor y el emisor y actúa como un control remoto de los servidores multimedia.
Este protocolo, por ejemplo, se utiliza para el control desde un cliente receptor de las funciones de Play, Pause, REW… de un sistema de video bajo demanda (Video On Demmand).
RTSP también puede usar UDP como su protocolo de transporte, pero no es tan fiable y seguro como TCP
RTSP es similar en algunos aspectos al protocolo HTTP Live Streaming (HLS). Los servidores RTSP a menudo funcionan junto con el Protocolo de transporte en tiempo real (RTP) y el Protocolo de control en tiempo real (RTCP) para entregar flujos de medios.
Es una excelente opción para sistemas de vigilancia, dispositivos IoT y SDK móviles. Este protocolo es increíblemente popular para controlar varios tipos de drones.
RTSP fue utilizado principalmente por RealNetworks RealPlayer. RTSP requiere un servidor dedicado para la transmisión y no admite el cifrado de contenido o la retransmisión de paquetes perdidos, ya que se basa en el protocolo RTP junto con RTCP para la entrega de transmisión de medios.
RIST (Reliable Internet Stream Protocol)
RIST, que significa protocolo de flujo de Internet confiable, es un protocolo de baja latencia y alta disponibilidad adecuado para aplicaciones de larga distancia. Es un protocolo de transporte de código abierto y especificación abierta diseñado para la transmisión confiable de video a través de redes con pérdidas (incluido Internet) con baja latencia y alta calidad. Actualmente se encuentra en desarrollo en el marco del "Grupo de actividades RIST" del Foro de servicios de vídeo.
MSS (Microsoft Smooth Streaming)
MSS es el protocolo de transmisión de video con tasa de bits adaptable de Microsoft, diseñado con medidas de seguridad adicionales, DRM, para proteger el contenido de la piratería.
Es un método de entrega de medios híbridos que funciona como transmisión, pero se basa en la descarga progresiva HTTP.
Permite la entrega adaptable a todos los dispositivos de Microsoft. El protocolo no puede competir con otros formatos basados en HTTP.
Códecs de video: H.264, VC-1
Códecs de audio: AAC, MP3, WMA
Latencia: 6-30 segundos (una latencia más baja solo es posible cuando se sintoniza)
SRT (Secure Reliable Transport)
Se trata de un protocolo de código abierto impulsado por Haivision, SRT está orientado al transporte de señal de vídeo y audio con ultra baja latencia bajo UDP.
SRT es un protocolo de transporte puro, independiente del códec, garantiza que lo enviado y recibido en el decodificador es idéntico y sin pérdida. Ofrece cifrado AES nativo, realizando la seguridad de la transmisión a nivel de enlace bajo encriptación. Permite atravesar el firewall en todo el flujo de trabajo al admitir los modos de envío y recepción.
Posee la capacidad de detectar el rendimiento de la red con respecto a la latencia, la pérdida de paquetes, la fluctuación y el ancho de banda disponible. Las integraciones avanzadas de SRT pueden utilizar esta información para guiar el inicio de la transmisión o incluso para adaptar los puntos finales a las condiciones cambiantes de la red.
En un flujo de transmisión bajo SRT, estos tres pasos serían un ejemplo de cómo funciona:
1. Codifica el video capturado en h264 (o h265, mpeg2)
2. Envuelve estos datos codificados en datos MPEG-TS
3. Envuelve los datos MPEG-TS en un paquete SRT y los envía a su destino.
Cada vez más fabricantes Broadcast está adoptando este protocolo para el video sobre redes IP, el trabajo remoto, el video en cloud, la transmisión de contenidos bajo redes no controladas, etc.
Zixi
Si bien Zixi es más bien una plataforma que permite múltiples protocolos, también es un protocolo propietario, bajo licencia, que posee como característica que es un sistema de transmisión muy seguro ya que utiliza encriptación AES. Zixi encapsula los contenidos con tecnología propietaria basada en FEC y ARQ.
El protocolo Zixi TS (ZiXi protected transport) está basado en UDP, se ajusta dinámicamente a las diferentes condiciones de la red y emplea técnicas propias de corrección de errores para la entrega de video en directo sin errores y con latencia ultrabaja (menos de 300 ms).
Posee vinculación de red, evaluación dinámica de la calidad del enlace, optimiza la transmisión en base al ancho de banda.
Búfer de eliminación de fluctuación dinámica y opción de compresión de secuencia de bits nulos, mecanismo de corrección de errores inteligente híbrido:
Soporta todos los formatos y códecs de video estándar
Cifrado, monitoreo, análisis de flujo y estadísticas de QoS integrados
Latencia fija y predecible que puede ser inferior a un segundo
WebRTC (Web Real-Time Communications)
Protocolo de código abierto con API de JavaScript para compartir videos entre navegadores.
WebRTC ofrece transmisión de voz y video casi con muy baja latencia, casi instantánea desde y hacia cualquier navegador. Su diseño está basado en aplicaciones de chat que se está utilizando en otros ámbitos más de vídeo y audio.
El mayor hándicap es su escalabilidad, por lo que es necesario utilizar una solución tipo Wowza Streaming Engine o Wowza Streaming Cloud para poder aprovechar toda su potencia.
Códecs de video: H.264, VP8, VP9
Códecs de audio: Opus, iSAC, iLBC
Compatibilidad de reproducción: Chrome, Firefox y Safari admiten WebRTC sin ningún complemento
Beneficios: Muy rápido y basado en navegador
Latencia: entrega de menos de 500 milisegundos
MPEG-TS (Moving Pictures Expert Group (MPEG) Transport Stream)
El flujo de transporte MPEG (MPEG-TS, MTS) o simplemente de transport Stream (TS) es un formato contenedor de vídeo, estándar MPEG utilizado para la transmisión y almacenamiento de audio, video y datos de información del sistema y del programa (PSIP). Se utiliza en sistemas de transmisión como DVB, ATSC e IPTV.
TS es rápido porque comienza de inmediato la transmisión de flujo de vídeo, normalmente MPEG-2. Otros protocolos, como HLS tienen que negociar primero qué flujo es mejor para su conexión. HLS es más lento, por tanto, pero puede ser de mejor calidad que TS (debido a una mayor tasa de bits posible) y más confiable que TS.
FLV
Flash Video (FLV) es un formato contenedor propietario de Adobe, que se ha utilizado mucho en el pasado. FLV corría sobre HTTP realizando un pseudo streaming. El formato es relativamente simple y liviano, es rápido en su carga.
Hay dos formatos de archivo de Flash Video diferentes: FLV y F4V. Los datos de audio y video de los archivos FLV se codifican de la misma manera que los archivos SWF. El formato de archivo F4V se basa en el formato de archivo multimedia base ISO.
FLV fue desarrollado originalmente por Macromedia. A principios de la década de 2000, Flash Video era el estándar de facto para la transmisión de video basada en web (sobre RTMP).
Los dispositivos iOS de Apple, junto con casi todos los demás dispositivos móviles, no son compatibles con el complemento Flash Player.
Este protocolo/formato se ha dejado de usar paulatinamente.
CMAF (Common Media Application Format)
Apple y Microsoft acudieron al foro MPEG con una propuesta. Un nuevo estándar llamado Common Media Application Format (CMAF).
Se trata de un novedoso protocolo, que posee flujos de trabajo optimizados y latencia reducida. Este protocolo es un contenedor de ficheros
CMAF en sí mismo es un formato multimedia. Pero al incorporarlo a un sistema más amplio destinado a reducir la latencia, las organizaciones líderes están impulsando la industria.
Esto requiere dos comportamientos clave:
Codificación fragmentada
Codificación de transferencia fragmentada
Un flujo optimizado es dividir el video en trozos pequeños de una duración determinada, que luego se pueden publicar inmediatamente después de la codificación. De esa manera, la entrega es casi en tiempo real, mientras los fragmentos posteriores aún se están procesando.
SHOUTcast
Se trata de un sistema de audio para radio propietario basado en HTTP, SHOUTcast DNAS es un software multiplataforma para la transmisión de medios a través de Internet.
El audio digital, normalmente MP3 o codificación de audio avanzada de alta eficiencia, se transmita hacia y desde el software del reproductor multimedia, lo que permite la creación de "estaciones" de radio por Internet.
El uso más común de SHOUTcast es para crear o escuchar transmisiones de audio por Internet; sin embargo, también hay transmisiones de video.
Su mayor limitación es la compatibilidad, especialmente en dispositivos móviles.
Pero, ¿en producción se utilizan estos protocolos o hay otros específicos?
Para los sistemas de producción audiovisual el protocolo normalmente no es el mismo de transmisión, ya que la calidad, profundidad de bits, inmediatez y latencia es distinta.
En las fases de producción, tanto si es para una grabación como para una emisión en directo las necesidades son tener la mayor calidad de imagen y sonido posibles.
Y aquí es donde llega la revolución del Video IP
Con protocolos como NDI, SMPTE 2110 o SMPTE 2022
¿Y quién se está imponiendo entre tanto protocolo de transmisión?
En proporciones de uso generalizado HLS está en torno al 45% frente a un 33% del RTMP, MPEG DASH escala posiciones con un 7%, el resto aún está muy lejos de las posiciones del top 2.
Podemos decir que el HLS es el más recomendable dado que soporta HTML5 frente al RTMP que requiere flash ya obsoleto, HLS es más seguro para el uso masivo de espectadores.
En ingesta gana RTMP, pero en reproducción HLS.
MPEG-DASH es actualmente el protocolo de transmisión más prometedor, aunque aún no ha ganado tracción en el mundo en línea. Si no le importa la desventaja de no ser compatible con dispositivos iOS, debería estar atento a MPEG-DASH en un futuro próximo. Pero a pesar de que MPEG-DASH es tan prometedor, no podemos recomendarlo todavía, ya que todavía es un protocolo increíblemente joven y aún no hemos visto todo su potencial.
RTMP y SRT son las grandes apuestas para la contribución de la primera milla, mientras que tanto DASH como HLS lideran el camino cuando se trata de reproducción.
En el mundo broadcast, los protocolos Zixi, SRT y RIST son los más empleados, en función del uso y el equipamiento utilizado. Estos tres protocolos son los más profesionales en el mundo audiovisual Broadcast.
¿Qué otros componentes son cruciales a la hora de una transmisión de vídeo?
Tipos de transmisión, ¿cuáles son?
Transmisión Unicast
El video sobre IP se transmite desde un punto, como un servidor web, a un único punto final, cliente.
Transmisión Broadcast
Broadcast significa difusión, el tráfico fluye desde un único punto a todos los puntos finales posibles dentro del alcance de la red.
Ésta es la técnica más sencilla para garantizar que el tráfico llegue a sus destinos.
Se utiliza ampliamente en las redes de televisión para la distribución de vídeo y audio.
La transmisión no es factible en Internet debido a la enorme cantidad de datos innecesarios que llegarían continuamente al dispositivo de cada usuario, las complicaciones y el impacto de la codificación y los problemas de privacidad relacionados.
Transmisión Multicast
La Multidifusión o multicast: la transmisión es de “una fuente a muchos destinos”, solo los destinos que apuntan a la fuente específica pueden recibir el flujo de tráfico.
En una red IP, los clientes no se comunican directamente con los servidores. Los routers de red para uso de multidifusión replican los paquetes recibidos en una interfaz de entrada y envían las réplicas a varias interfaces de salida.
En el modelo de multidifusión, el origen y los destinos son casi siempre "Host" y no "Enrutadores". Los protocolos estándar de enrutamiento de multidifusión proporcionan la mayoría de estas facilidades, pero algunas arquitecturas de enrutadores no pueden enviar múltiples copias de paquetes y, por lo tanto, no admiten la multidifusión directa.
Transmisión Simulcast
La transmisión simultánea o simulcast (simultaneous broadcast) se refiere a una emisión de la misma información a través de más de un medio o de más de un servicio en el mismo medio. Esto permite llegar a una audiencia más amplia, sin importar qué plataforma o servicio se utilice.
Habitualmente se trata de transmisiones de radio o televisión. Envío de un mismo evento a múltiples plataformas: radio, televisión terrestre, televisión satelital e internet.
Otro caso de uso, la emisión en TDT de varios canales de audio, en versión original y doblada al idioma local. Esto es simulcast de audios por un mismo medio.
Asier Anitua Valluerca
Gerente Desarrollo de Negocio
Telefónica Servicios Audiovisuales