35 resultados para Mecanismo de encaixe

em Repositório Científico do Instituto Politécnico de Lisboa - Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objectivo o estudo de um sistema de levitação magnética com chumaceiras supercondutoras, para utilização numa fonte de alimentação de energia eléctrica ininterrupta, que usa um volante de inércia como sistema de armazenamento de energia. Partindo de um modelo comercial existente, foi modelizada a substituição do sistema de levitação por um sistema com chumaceiras supercondutoras. Foi feito o dimensionamento do magnete permanente e do supercondutor de forma a atingir-se a força de levitação magnética necessária para elevar o rotor da máquina, garantindo simultaneamente a máxima estabilidade do sistema. Os perfis de distribuição do campo magnético no volante de inércia foram modelizados recorrendo ao método dos elementos finitos, através da utilização do software Ansys. O cálculo da força de levitação foi efectuado recorrendo ao software MATHEMATICA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução – O efeito de êmbolo é um dos principais problemas relacionados com a eficácia de uma prótese. Uma diminuição do mesmo pode levar a uma marcha mais natural através do aumento da propriocetividade. Objetivos – Verificar se existe diferença de valores do efeito de êmbolo entre vários sistemas de suspensão para próteses transtibiais com a utilização de Liners e testar a aplicação de testes de imagiologia na análise da melhor solução protésica para um determinado indivíduo. Metodologia – Foi obtida uma radiografia da prótese em carga na posição ortostática, mantendo o peso do indivíduo igualmente distribuído pelos dois pés. Seguidamente foi realizada outra radiografia no plano sagital com o joelho com 30° de flexão, com a prótese suspensa e um peso de 5kg aplicado na extremidade distal da mesma durante 30 seg. Através destes dois exames efetuaram-se as medições do êmbolo para cada tipo de sistema de suspensão. Resultados – Dos quatro sistemas estudados apenas três apresentam valores de êmbolo, visto que um dos sistemas não criou suspensão suficiente para suportar o peso colocado na extremidade distal da prótese. Através das medições realizadas nos exames imagiológicos dos três sistemas pudemos encontrar variações de efeito de êmbolo que vão dos 47,91mm aos 72,55mm. Conclusão – Através da realização do estudo imagiológico verificaram-se diferenças a nível do efeito de êmbolo nos vários sistemas de suspensão, provando que esta é uma ferramenta viável na avaliação do mesmo. Também através da análise dos resultados ficou notório que o sistema de suspensão Vacuum Assisted Suspention System (VASS) é o que apresenta menos êmbolo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A inovação e o desenvolvimento tecnológico obrigam os fabricantes a uma intensa competição global, face a uma redução no ciclo de desenvolvimento dos produtos e a rigorosos constrangimentos de custos, ao mesmo tempo que enfrentam consumidores mais exigentes, que procuram produtos de Qualidade. A Fiabilidade do bem é um aspecto marcante dessa Qualidade. Tradicionalmente o acesso a essa fiabilidade é baseado em testes de vida, normalmente acelerados. Todavia, para produtos altamente fiáveis, pouca informação a respeito da sua fiabilidade é fornecida por via dos testes de vida, nos quais poucas ou nenhumas falhas são observadas. Perante este cenário, a análise de degradação surge como uma técnica alternativa atractiva aos clássicos métodos de estudo da fiabilidade, apresentando como grande vantagem o facto de não ser necessário que nenhuma falha ocorra para se obter informação sobre a fiabilidade do bem, beneficiando ainda de uma redução no tempo de duração dos testes. Este trabalho começa por abordar os fundamentos da teoria da fiabilidade, e sua aplicação ao ciclo de vida dos componentes, fazendo alusão aos modelos de fiabilidade, ou distribuições de vida que mais usualmente se ajustam as várias fases de vida de um bem, nomeadamente a distribuição Exponencial, Normal e com particular destaque à versátil distribuição de Weibull. De seguida é feita a abordagem à análise de degradação dos componentes como uma técnica útil para estimar a fiabilidade de um bem, e neste contexto é feita a abordagem de uma metodologia de análise da degradação com base na monitorização da condição dos componentes. Quando um bem está sujeito a um processo de degradação, onde se pode fixar um valor limite para a característica que está a ser medida, pode-se recolher uma série de dados relativos ao processo em causa, servindo estes para ajustar um modelo matemático de degradação, que por extrapolação da curva de degradação permitem estimar o tempo até à falha, e por consequência o tempo de vida útil restante.O trabalho enquadra ainda a análise da degradação dos componentes numa perspectiva de apoio à estratégia de manutenção, no domínio da manutenção condicionada, e em particular no quadro da manutenção preditiva, tendo por objectivo fazer a optimização do programa de manutenção a aplicar, de forma a minimizar os custos globais da função manutenção. Nesta vertente são também considerados os intervalos P-F para monitorizar a evolução do estado de falha, em que é necessário definir o valor do parâmetro analisado para o qual se considere o início do processo de falha e o correspondente valor de falha efectiva. É apresentado um estudo prático com a colaboração duma prestigiada empresa de comercialização e distribuição de veículos pesados, focalizado num modelo de camião específico comercializado por essa marca. O estudo está direccionado para o sistema de travagem do veículo, mais concretamente a um dos seus componentes mecânicos, as pastilhas de travão. Este componente tem associado o mecanismo de degradação conhecido por desgaste. A medição do parâmetro de desgaste será feita por meio da técnica de simulação de valores, tendo no entanto em consideração, uma base de dados restrita de valores reais. O estudo de fiabilidade deste componente tem por objectivo fundamental estimar o tempo de Vida Útil Restante (“Residual Useful Life, RUL”) para as pastilhas, ou seja, até que se atinja o valor limite admissível (considerado como falha). Para os cálculos foi utilizado o programa informático denominado Weibull ++7. O caso de estudo permitiu determinar para situações particulares a relação entre o desgaste e a distância percorrida, estimando-se desta forma a vida restante (em distância), até ao momento em que o componente atinge o limite de desgaste considerado admissível. O grande potencial de estudo futuro passa pela elaboração de um modelo (com base em dados reais de exploração), que contemple os principais factores de influência, e que duma forma expedita permita a gestores de frota, fabricantes ou responsáveis da marca fazer a análise da fiabilidade do componente, tendo em conta uma situação específica de exploração. O conhecimento da fiabilidade das pastilhas pode levar à optimização da exploração do veiculo, por meio de um planeamento estratégico da sua manutenção,nomeadamente ao nível do aprovisionamento, na programação das intervenções, e em particular quanto à vida útil restante para as pastilhas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação expõe o trabalho desenvolvido ao longo do estágio de natureza profissional, integrado no curso de Mestrado de Engenharia Mecânica - Perfil de Manutenção e Produção. Sob uma orientação bem definida, a principal motivação deste trabalho consistiu na análise de eficácia dos métodos do projecto, construção e instalação dos gasodutos de gás natural em conformidade com os códigos e normas aplicáveis, de forma a verificar se a sua integridade pode ser eficazmente monitorizada pelas diversas técnicas de inspecção executadas. No presente documento é inicialmente abordado o impacto do gás natural nos tempos actuais, seguidamente é descrita a metodologia adjacente aos processos de construção em que se incluiu a análise de um aço para o fabrico de tubagens. Seguidamente é efectuada a descrição das etapas no terreno que constituem a construção de um gasoduto, designadamente a: Abertura de Pista, Alinhamento de Tubagem, Colocação do Tubo à Vala, Curvatura de Tubos, Atravessamentos, Soldadura, Controlo não Destrutivo, Revestimento, Ensaios diversos (Dieléctricos, Resistência Mecânica, Estanquidade), Cobertura da Vala, Protecção Catódica, Sinalização e Instrumentação (e.g.: SCADA). Posteriormente são descritas as técnicas de inspecção. Posteriormente são analisadas as técnicas de inspecção mais utilizadas em fase de exploração de um gasoduto, considerando a inspecção a sistemas de Protecção Catódica, a inspecção por PIGs e a inspecção por Ondas Guiadas. Sob uma lógica de constante evolução tecnológica torna-se imperativo adaptar os actuais processos de construção a sistemas onde a optimização ao nível dos materiais (aços) pode constituir uma mais valia para o projecto, pelo que é efectuada uma análise de abordagem futura para os gasodutos. A instalação de uma gasoduto obedece ao complexo cumprimento das diversas etapas, sendo a fiabilidade de cada actividade determinante para o sucesso das fases subsequentes. Foi dada uma especial atenção à Protecção Catódica, tendo-se demostrado que esta técnica é actualmente um dos meios mais eficazes para atenuar e prevenir a degradação por corrosão, pois este é o mecanismo de falha mais premente. A adopção de novos aços poderá traduzir-se numa redução de recursos materiais na construção e redução dos custos associados. Um gasoduto é uma infra-estrutura ainda em constante dinamismo. A evolução tecnológica ao nível dos materiais tem efeitos práticos no cálculo, construção e exploração reflectindo a optimização dos processos e a satisfação das necessidades energéticas, por via da inovação nos gasodutos de alta pressão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os edifícios estão a ser construídos com um número crescente de sistemas de automação e controlo não integrados entre si. Esta falta de integração resulta num caos tecnológico, o que cria dificuldades nas três fases da vida de um edifício, a fase de estudo, a de implementação e a de exploração. O desenvolvimento de Building Automation System (BAS) tem como objectivo assegurar condições de conforto, segurança e economia de energia. Em edifícios de grandes dimensões a energia pode representar uma percentagem significativa da factura energética anual. Um BAS integrado deverá contribuir para uma diminuição significativa dos custos de desenvolvimento, instalação e gestão do edifício, o que pode também contribuir para a redução de CO2. O objectivo da arquitectura proposta é contribuir para uma estratégia de integração que permita a gestão integrada dos diversos subsistemas do edifício (e.g. aquecimento, ventilação e ar condicionado (AVAC), iluminação, segurança, etc.). Para realizar este controlo integrado é necessário estabelecer uma estratégia de cooperação entre os subsistemas envolvidos. Um dos desafios para desenvolver um BAS com estas características consistirá em estabelecer a interoperabilidade entre os subsistemas como um dos principais objectivos a alcançar, dado que o fornecimento dos referidos subsistemas assenta normalmente numa filosofia multi-fornecedor, sendo desenvolvidos usando tecnologias heterogéneas. Desta forma, o presente trabalho consistiu no desenvolvimento de uma plataforma que se designou por Building Intelligence Open System (BIOS). Na implementação desta plataforma adoptou-se uma arquitectura orientada a serviços ou Service Oriented Architecture (SOA) constituída por quatro elementos fundamentais: um bus cooperativo, denominado BIOSbus, implementado usando Jini e JavaSpaces, onde todos os serviços serão ligados, disponibilizando um mecanismo de descoberta e um mecanismo que notificada as entidades interessadas sobre alterações do estado de determinado componente; serviços de comunicação que asseguram a abstracção do Hardware utilizado da automatização das diversas funcionalidades do edifício; serviços de abstracção de subsistemas no acesso ao bus; clientes, este podem ser nomeadamente uma interface gráfica onde é possível fazer a gestão integrada do edifício, cliente de coordenação que oferece a interoperabilidade entre subsistemas e os serviços de gestão energética que possibilita a activação de algoritmos de gestão racional de energia eléctrica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação de experiências correctas e controladas para testar uma dada hipótese científica exige processos mentais complexos, sendo uma tarefa exigente para crianças. Foram formuladas as seguintes hipóteses: (1) as crianças compreendem o que é uma boa experiência para testar uma dada hipótese, e conseguem justificar correctamente as suas escolhas de forma clara e rigorosa; (2) as crianças têm um melhor desempenho quando as experiências correctas e incorrectas são apresentadas em dois grupos distintos (condição passiva), do que quando estão misturadas (condição activa); (3) o desempenho das crianças é influen¬ciado pelo seu conhecimento e/ou crenças acerca do fenómeno a ser expe¬rimentado; (4) o desempenho melhora com a idade; e (5) que o mecanismo do controle de variáveis é facilmente aprendido. Crianças do 3º e 6º anos de escolaridade (N = 36 de cada grupo etário) avaliaram experi¬ências em seis tarefas diferentes, sendo-lhes pedido para escolherem a experiência mais correcta e rigorosa para testar uma dada hipótese e para justificarem essa escolha. Os resultados mostraram que a maior parte dos participantes conseguiam distinguir uma experiência correcta em algumas das seis tarefas. O desempenho foi superior na condição passiva do que na activa. Em algumas tarefas, a natureza do fenómeno usado levou as crianças a manterem as suas ideias e crenças e responder incorrectamente. Também a relevância que as variáveis apresentavam para os participantes influenciou as suas escolhas de experiências correctas. Foram apenas encontradas pequenas diferenças entre os dois grupos etários. Quando o mecanismo de controle de variáveis lhes foi ensinado de forma directa e explicita, as crianças aprenderam e conseguiram transferir a sua aprendiza¬gem para outras situações científicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectivos do estudo: identificar os principais broncodilatadores inalados e o seu mecanismo básico de acção; caracterizar as respostas funcionais aos BDs; caracterizar os principais dispositivos de administração dos BDs inalados; caracterizar o procedimento da administração dos BDs inalados de acordo com o dispositivo utilizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho propõe a concepção e implementação de um sistema de recuperação de informação de diversos Objectos Digitais (objecto originalmente criado no meio informático, como por exemplo um documento, um vídeo…) com recurso a anotações/metadados descritivos do objecto (dados que descrevem outros dados). Para fomentar o processo de preenchimento dos metadados é proposto um mecanismo de créditos para estimular o preenchimento cooperativo entre utilizadores e autores de Objectos Digitais (OD), com base na metáfora da bolsa de valores. Deste processo de anotações resulta incerteza, ou seja, o mesmo objecto pode ser descrito de forma diferente por utilizadores distintos. Este sistema propõe uma forma de lidar com esta incerteza, recorrendo ao conceito de base de dados probabilística que não é mais que associar a cada termo armazenado, um valor (peso do termo) entre 0 e 1, a que demos o nome de peso do termo. Deste modo, foi também proposto um modelo de cálculo do peso dos termos descritivos dos OD baseado no feedback fornecido pelos utilizadores. Recorrendo ao peso dos termos, foi ainda possível determinar a relevância de um OD quando confrontado com uma pergunta dando assim a possibilidade a um utilizador, recuperar/pesquisar OD de qualquer tipo, ordenados por um valor de relevância. Para além da concepção e correspondente implementação do BOD, este trabalho discute ainda diferentes cenários de aplicação do sistema, ilustrando consequentemente a sua versatilidade e flexibilidade

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho desenvolvido teve como objectivo principal a preparação de matrizes porosas de quitosano reticuladas com materiais biodegradáveis e biocompatíveis para uso em aplicações biomédicas. As matrizes foram caracterizadas a nível estrutural (análise por IV e RMN), a nível físico (análise por SEM, ensaios de biodegrabilidade e inchamento) e também a nível funcional (análise da capacidade de libertação controlada de um fármaco). Os agentes reticulantes das matrizes foram cuidadosamente seleccionados usando como critério principal a ausência de toxidade (biocompatibilidade). Foram seleccionados para este estudo diferentes copolímeros de poli(2-etil-2-oxazolina) e glicidil metacrilato, o ácido bórico, o ácido malónico e o líquido iónico 1-(2-hidroxietil)-3-metil-imidazol tetrafluoroborato. Os agentes reticulantes poliméricos foram sintetizados usando uma tecnologia limpa (polimerização viva em dióxido de carbono supercrítico através de uma mecanismo de abertura de anel por via catiónica). A análise do perfil de biodegrabilidade das matrizes de quitosano reticuladas revelou que se degradam facilmente em meio ligeiramente ácido (pH5.0) o que levou à sua exclusão para estudos de expansão celular. As matrizes estudadas revelaram um elevado grau de inchamento cujo potencial para libertação controlada de fármacos foi explorado para a libertação de dexametasona, um glicocorticóide sintético adequado a administração por via transdérmica. As matrizes de quitosano reticuladas e impregnadas com dexametasona apresentam um perfil de libertação controlada e contínua ao longo de vinte e sete horas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em Portugal não são conhecidos estudos publicados que identifiquem com clareza as distribuições típicas dos valores associados aos parâmetros técnicos de exposição utilizados nos exames radiológicos mais comuns. Este estudo tem como objectivos identificar os parâmetros técnicos utilizados em exames radiológicos convencionais na região de Lisboa e comparar os dados com a referência europeia CEC. Os resultados obtidos evidenciam que nas projecções estudadas existe uma predominância para o uso de termos de exposição acima da recomendação CEC e de valores de potencial da ampola (kV) abaixo da recomendação. Esta investigação sugere a necessidade de fixar os NRD nacionais, e/ou locais, e efectuar as respectivas medições, dado que a optimização da exposição é um mecanismo de controlo fundamental para limitar as exposições desnecessárias dos pacientes às radiações ionizantes. Conclui-se que a nível local (região da Grande Lisboa) existe um desconhecimento da prática radiológica enquadrada nos referenciais europeus de boa prática radiológica. Desconhecendo-se a situação a nível nacional, sugerem-se estudos no sentido de identificar os padrões de prática radiológica a nível do País e de promover a optimização dos procedimentos em radiologia convencional. ABSTRACT - Typical distribution of exposure parameters in plain radiography is unknown in Portugal. This study aims to identify exposure parameters that are being used in plain radiography in Lisbon area and to compare collected data with European references (CEC guidelines). Results show that in the four anatomic regions there is a strong tendency of using exposure times above the European recommendation. We also found that x-ray tube potential values (kV) are below the recommended values from CEC guidelines. This study shows that at a local level (Lisbon region) radiographic practice does not fit with CEC guidelines concerning exposure techniques. We suggest continuing national/local studies with the objective to improve exposure optimization and technical procedures in plain radiography. This study also suggests the need to establish national/local DRL’s and to proceed to effective measurements for exposure optimization.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cada vez mais as pessoas se deslocam para locais desconhecidos por motivos profissionais, financeiros ou simplesmente por lazer. Em todas estas situações as primeiras dificuldades com que se deparam são saber qual o percurso a adoptar para chegar a um determinado destino e a falta de informação sobre o local onde se encontram, especialmente sobre os possíveis pontos de interesse que existem em redor. O presente trabalho propõe a concepção e a implementação de um sistema de visualização para dispositivos móveis de percursos pré-definidos baseado em standards. Pretende-se construir um software aberto de modo a poder ser utilizado em diversas aplicações geográficas modulares e facilitar a investigação na área, pois a maior parte do software disponibilizado é proprietário havendo apenas hipótese de interagir através de API disponibilizada. O trabalho pretende servir utilizadores que pretendam tirar partido de um guia digital móvel, materializado num dispositivo móvel com capacidade visualização gráfica do percurso. Pode ser utilizado nas mais diversas situações: orientação em trilhos ou rotas turísticas; identificação e orientação de pontos de interesse numa cidade ou região; ou informação de contexto. Para estimular a atenção do utilizador é proposto um mecanismo de alertas/avisos que serão despoletados durante a execução do percurso. Como muitas das funcionalidades disponibilizadas pelo sistema necessitam de efectuar cálculo de distâncias, é proposto um modelo de determinação de distâncias. De modo a gerir o conteúdo dos ficheiros utilizados é proposto um mecanismo de processamento de ficheiros, que permite efectuar transformações, validações e gravações de ficheiros. Para além da concepção e correspondente implementação do Visualizador, este trabalho apresenta ainda cenários de aplicação do sistema, ilustrando consequentemente a sua utilização em situações reais e encontra-se disponível para ser usado e melhorado pela comunidade científica, pois foi feito o registo como open source no site sourceforge.net.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A imagem de perfusão do miocárdio por tomografia computorizada de emissão de fotão único (SPECT, do acrónimo inglês Single Photon Emission Computed Tomography) é um dos exames complementares de diagnóstico mais indicados na cardiologia clínica. Os dois agentes tecneciados mais utilizados são o 99mTc-tetrofosmina e o 99mTc-sestamibi. Estes permitem avaliar a distribuição do fluxo sanguíneo no músculo cardíaco. O mecanismo de fixação é idêntico nos dois radiofármacos (RF’s). São excretados, do organismo, a partir do sistema hepatobiliar para o duodeno e para o intestino. Assim, o RF está presente tanto no coração como nos órgãos adjacentes. O coração encontra-se localizado sobre o diafragma, logo acima do lobo esquerdo do fígado e nas proximidades do estômago. Deste modo, os fotões difusos provenientes desses órgãos podem interferir com a interpretação das imagens SPECT, principalmente na parede inferior do ventrículo esquerdo, traduzindo-se na redução da razão alvo-fundo e na qualidade da imagem. Deste modo, a sensibilidade e a especificidade da Cintigrafia de Perfusão do Miocárdio (CPM) diminuem. Têm sido descritos na literatura vários métodos e técnicas para minimizar o efeito da actividade extra-miocárdica, como: a aquisição de imagens mais tardias, a ingestão de líquidos ou alimentos ricos em lípidos. Outras técnicas apontam para a alteração do posicionamento do paciente durante a aquisição. Assim, o objectivo deste estudo é identificar o protocolo da CPM a nível nacional e avaliar a percentagem de repetições de exames provocadas pela interferência de actividade extra-miocárdica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo deste trabalho passa pelo desenvolvimento de uma ferramenta de simulação dinâmica de recursos rádio em LTE no sentido descendente, com recurso à Framework OMNeT++. A ferramenta desenvolvida permite realizar o planeamento das estações base, simulação e análise de resultados. São descritos os principais aspectos da tecnologia de acesso rádio, designadamente a arquitectura da rede, a codificação, definição dos recursos rádio, os ritmos de transmissão suportados ao nível de canal e o mecanismo de controlo de admissão. Foi definido o cenário de utilização de recursos rádio que inclui a definição de modelos de tráfego e de serviços orientados a pacotes e circuitos. Foi ainda considerado um cenário de referência para a verificação e validação do modelo de simulação. A simulação efectua-se ao nível de sistema, suportada por um modelo dinâmico, estocástico e orientado por eventos discretos de modo a contemplar os diferentes mecanismos característicos da tecnologia OFDMA. Os resultados obtidos permitem a análise de desempenho dos serviços, estações base e sistema ao nível do throughput médio da rede, throughput médio por eNodeB e throughput médio por móvel para além de permitir analisar o contributo de outros parâmetros designadamente, largura de banda, raio de cobertura, perfil dos serviços, esquema de modulação, entre outros. Dos resultados obtidos foi possível verificar que, considerando um cenário com estações base com raio de cobertura de 100 m obteve-se um throughput ao nível do utilizador final igual a 4.69494 Mbps, ou seja, 7 vezes superior quando comparado a estações base com raios de cobertura de 200m.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoje em dia, há cada vez mais informação audiovisual e as transmissões ou ficheiros multimédia podem ser partilhadas com facilidade e eficiência. No entanto, a adulteração de conteúdos vídeo, como informação financeira, notícias ou sessões de videoconferência utilizadas num tribunal, pode ter graves consequências devido à importância desse tipo de informação. Surge então, a necessidade de assegurar a autenticidade e a integridade da informação audiovisual. Nesta dissertação é proposto um sistema de autenticação dedeo H.264/Advanced Video Coding (AVC), denominado Autenticação de Fluxos utilizando Projecções Aleatórias (AFPA), cujos procedimentos de autenticação, são realizados ao nível de cada imagem do vídeo. Este esquema permite um tipo de autenticação mais flexível, pois permite definir um limite máximo de modificações entre duas imagens. Para efectuar autenticação é utilizada uma nova técnica de autenticação de imagens, que combina a utilização de projecções aleatórias com um mecanismo de correcção de erros nos dados. Assim é possível autenticar cada imagem do vídeo, com um conjunto reduzido de bits de paridade da respectiva projecção aleatória. Como a informação dedeo é tipicamente, transportada por protocolos não fiáveis pode sofrer perdas de pacotes. De forma a reduzir o efeito das perdas de pacotes, na qualidade do vídeo e na taxa de autenticação, é utilizada Unequal Error Protection (UEP). Para validação e comparação dos resultados implementou-se um sistema clássico que autentica fluxos dedeo de forma típica, ou seja, recorrendo a assinaturas digitais e códigos de hash. Ambos os esquemas foram avaliados, relativamente ao overhead introduzido e da taxa de autenticação. Os resultados mostram que o sistema AFPA, utilizando um vídeo com qualidade elevada, reduz o overhead de autenticação em quatro vezes relativamente ao esquema que utiliza assinaturas digitais e códigos de hash.