Lidando com Latência para Melhorias de Desempenho

Fluxo-de-Trabalho-IP-em-Broadcast

Por Karl Paulsen

Latência é uma preocupação contínua, impactando quase todas as formas de mídia e sistemas de comunicação. Pode ser evidente em uma conexão à Internet, um servidor, um sistema de disco e em uma rede IP. Estamos ouvindo muito mais sobre a latência enquanto nos movemos do mundo SDI para o vídeo em tempo real sobre IP.

A latência é definida como o intervalo de tempo (ou período) entre um estímulo e uma reação ou resposta. A latência pode ser uma propriedade “física” – como na velocidade de propagação (VoP) em um cabo referenciado à freqüência do sinal transportado e é baseada nos materiais usados ​​na fabricação desse cabo.

A latência pode também ser uma propriedade de “transporte de sinal”, tal como no tempo de voo (ToF), isto é, a metodologia que descreve o tempo que leva um objecto, partícula ou acústica, electromagnética ou outra onda a percorrer uma distância através de um meio.

FIG. 1: Causas típicas de latência devido ao atraso de propagação dos links (Dlink) e no atraso de processamento nos nós (Dnode) que devem ser contabilizados no projeto do sistema. ToF pode incluir como os elementos em uma rede (transmissores, receptores, switches e transdutores) são projetados; Enquanto VoP é influenciado, em parte, pela escolha do próprio cabeamento (por exemplo, Belden 1694A em comparação com 1855 para vídeo ou Cat5 vs Cat6a para IP).

A latência de vídeo, especialmente em uma rede IP com pacotes, pode afetar a confiabilidade, a estabilidade e a capacidade de mudar adequadamente uma linha de vídeo. As práticas descritas no SMPTE RP168, a prática recomendada que define o ponto de comutação de intervalo vertical para vídeo, ajudam a governar como os sistemas de vídeo sobre IP em tempo real abordam a packetização da essência para sistemas de vídeo em tempo real.

As necessidades de um fluxo de vídeo ao vivo em comparação com a alimentação de um monitor de parede ou codificador assumir diferentes perspectivas, que devem ser cuidadosamente considerados como sinais negociar segmentos de qualquer rede.

A latência na recuperação e remontagem de pacotes em uma rede de transporte de sinal de vídeo pode afetar o tempo necessário para reconstruir um quadro completo (campo) de vídeo. Demasiada latência e você tem uma inconsistência de tempo causando quadros ignorados ou “gagueira” de vídeo.

As capacidades de buffer também afetam o desempenho. Se o buffer do switch de rede for insuficiente, o impacto pode resultar em uma resolução de pacote incompleta, o que poderia causar a perda de uma série de quadros de vídeo ou a falha de um roteamento de comutador ou conexão para gerar outra imagem exibida indevidamente ou uma perda total de sinal.

O desempenho e a latência caminham juntos quando se olha para qualquer solução de sistema ou aplicativo, que depende de entrega consistente e determinista de dados. Nas implementações de mídia de hoje, a essência de áudio e vídeo (os dados, às vezes chamado de carga útil) pode assumir variações dependendo de onde os dados são apresentados no fluxo de trabalho. Uma perspectiva relevante e oportuna (para a indústria de vídeo profissional) é incorporada nas características de rede em tempo real do protocolo de transporte (RTP); I.e., como os sinais são impactados em um streaming de vídeo versus um fluxo de trabalho baseado em arquivo.

Os leitores técnicos interessados ​​devem ler e compreender terminologias como RFC 3550 (o protocolo de transporte para aplicações em tempo real) e RFC 4175 (o RTP carga formato para vídeo não comprimido), abertamente disponíveis e desenvolvidos através do IETF (Internet Engineering Task Force).
DESEMPENHO DO SERVIDOR

Os servidores trazem consigo seu próprio conjunto de problemas de latência e desempenho. Dimensionamento insuficiente da memória; Caches mal gerenciados ou núcleos de processador que não podem acompanhar as demandas de processamento de sinal, o que resultará em um abrandamento das aplicações; Atrasos de processamento de sinal; Ou, no pior dos casos, erros computacionais, o que dificulta a sincronização com as demandas do sistema global.

Os servidores multicore disponíveis hoje têm bastante poder de CPU; Mas obter esse poder para ou a partir da rede pode ser um problema. Placas de interface de rede (NIC) e adaptadores de barramento de host (HBA) podem ser um gargalo de servidor se não configurado, especificado ou implementado corretamente.

Tradicionalmente, esses componentes de E / S eram bloqueados em um único processador de núcleo. No entanto, usando outros recursos, como hipervisores e escalonamento de recursos (RSS), o desempenho é aumentado, permitindo que as placas de interface para distribuir o processamento de E / S em vários núcleos de processador.

Outra técnica de virtualização de servidor trata da classificação das tarefas de E / S para a máquina virtual correta. Essa técnica envolve o que é chamado de “fila de dispositivos de máquina virtual”. Essa tecnologia VMDQ é produzida por fornecedores que fabricam cartões de E / S e processadores. Ele permite que o adaptador Ethernet se comunique com os produtos hypervisor estabelecidos para agrupar pacotes de acordo com as melhores necessidades da VM para a qual eles se destinam.
SISTEMAS DE ARMAZENAMENTO

As soluções de armazenamento destinadas à produção de mídia têm seu próprio conjunto de problemas de rendimento, desempenho e latência, que são gerados por fatores variados. No nível de raiz do disco único, e o mais notável ou fácil de entender, estão os impactos da “latência rotacional” (às vezes chamada de “atraso rotacional”), que é a base

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Support