999 resultados para Optimização robusta
Resumo:
Esta pesquisa (i) caracteriza o processo de transformação estrutural, (ii) quantifica o seu impacto sobre o crescimento da produtividade agregada do trabalho e (iii) investiga os determinantes do crescimento da produtividade induzido pela transformação estrutural através de um extensivo estudo econométrico. Encontrou-se que, em média, a transformação estrutural desempenhou um papel importante para o crescimento da produtividade agregada em países em desenvolvimento. Em particular, a realocação de trabalhadores entre setores foi capaz de explicar, em média, cerca de 50% do crescimento da produtividade agregada em países da América Latina até a década de oitenta. Dessa década em diante, a tranformação estrutural deixou de contribuir para o crescimento da produtividade nessa região. Esse retrocesso estaria relacionado com a retração de atividades de produtividade relativamente alta, como a indústria de transformação, e com o inchaço do setor de serviços. Em oposição à Mcmillan & Rodrik (2011), os resultados encontrados apontaram para uma relação nula ou muito fraca e, certamente, pouco robusta entre a taxa real de câmbio e o componente estrutural de crescimento da produtividade.
Resumo:
Uma ferramenta importante na avaliação de políticas econômicas é a estimação do efeito médio de um programa ou tratamento sobre uma variável de interesse. Em geral, a atribuição do tratamento aos potenciais participantes não é aleatória, o que pode causar viés de seleção quando desconsiderada. Uma maneira de resolver esse problema é supor que o econometrista observa um conjunto de características determinantes, a menos de um componente estritamente aleatório, da participação. Sob esta hipótese, existem na literatura estimadores semiparamétricos do efeito médio do tratamento que são consistentes e capazes de atingir, assintoticamente, o limite de e ciência semiparamétrico. Entretanto, nas amostras freqüentemente disponíveis, o desempenho desses métodos nem sempre é satisfatório. O objetivo deste trabalho é estudar como a combinação das duas estratégias pode produzir estimadores com melhores propriedades em amostras pequenas. Para isto, consideramos duas formas de integrar essas abordagens, tendo como referencial teórico a literatura de estimação duplamente robusta desenvolvida por James Robins e co-autores. Analisamos suas propriedades e discutimos por que podem superar o uso isolado de cada uma das técnicas que os compõem. Finalmente, comparamos, num exercício de Monte Carlo, o desempenho desses estimadores com os de imputação e reponderação. Os resultados mostram que a combinação de estratégias pode reduzir o viés e a variância, mas isso depende da forma como é implementada. Concluímos que a escolha dos parâmetros de suavização é decisiva para o desempenho da estimação em amostras de tamanho moderado.
Resumo:
Por definição as empresas startups estão expostas a mais riscos e vulnerabilidades que empresas maduras e já estabelecidas no mercado. O objetivo do presente estudo é identificar, aplicar e testar uma possível metodologia para calcular prêmio de risco adicional para startups. Para tanto este trabalho desenvolve um estudo de caso no qual a conhecida metodologia para cálculo de prêmio de risco de tamanho da Morningstar é aplicada a uma startup americana. A aderência da metodologia proposta neste estudo é testada pela metodologia do filtro de Kalman, que calcula o prêmio de risco por tamanho variando ao longo do tempo. Os resultados encontrados são similares em ambas as metodologias. De forma que é possível concluir que a metodologia da Morningstar, quando aplicada para calcular prêmio por tamanho variante ao longo do tempo é robusta.
Resumo:
Este artigo usa dados agregados brasileiros para estimar a demanda domiciliar por telefones fixos. Com relação à literatura prévia sobre o tema, podem ser ressaltados três avanços metodológicos: (i) o caráter não-linear da escolha individual é preservado no modelo agregado; (ii) a agregação é feita de modo a considerar o viés gerado pela heterogeneidade entre os indivíduos dentro das regiões; (iii) é usada uma matriz de covariância robusta à presença de dependência espacial [Driscoll & Kraay (1998)]. Percebe-se que a consideração do viés de agregação altera significativamente os resultados. Além disso, simulações construídas a partir das estimativas encontradas indicam que a redução da assinatura básica em 50% aumentaria em apenas 3,3% os domicílios brasileiros com telefone fixo. Este impacto modesto é provavelmente resultado do comportamento dos domicílios de baixa renda. Em grande parte destes domicílios, existe somente um tipo de telefone, móvel ou fixo. Nesse caso, mesmo com uma redução significativa da assinatura do telefone fixo, boa parte deles ainda deve optar pelo telefone móvel, na medida em que este último, além de garantir mobilidade, tende a comprometer uma parcela menor da renda mensal.
Resumo:
O objetivo deste trabalho é investigar se a relação entre a taxa de câmbio spot e o fluxo de ordens deriva do fato do fl uxo agregar informações a respeito dos fundamentos econômicos dispersos na economia. Para efetuar este teste foi utilizada uma base de dados que engloba todas as transações dos segmentos comercial e fi nanceiro no mercado cambial primário brasileiro entre janeiro de 1999 e maio de 2008. Mostramos que o fl uxo de ordens foi razoavelmente capaz de explicar variações nas expectativas de infl ação, relação que não se manteve robusta para escolha de outros fundamentos, como PIB e Produção Industrial.
Resumo:
A superfamília das fosfolipases A2 (FLA2) é composta por proteínas dotadas de propriedades diferenciadas que as tornam capazes de apresentar distintas atividades biológicas, além de sua atividade catalítica. Esta diversidade funcional é intrigante devido à alta similaridade de seqüência primária e de estrutura entre essas proteínas. O principal objetivo deste trabalho é o desenvolvimento de uma metodologia para a predição de atividades biológicas específicas em FLA2 de peçonha de serpentes a partir da análise de seqüências primárias. A metodologia desenvolvida compreende: a) seleção de seqüências anotadas quanto à função ou atividade biológica que desempenham; b) detecção e validação estatística de motivos de seqüência relacionados à atividade estudada; e c) construção de Modelos Ocultos de Markov (MOMs) representando cada motivo. MOM consiste em uma modelagem estatística que tem sido aplicada com sucesso em diversas áreas onde se faz necessária a detecção e representação de padrões de informação; por sua base matemática robusta e formal, pode ser utilizada na automação deste tipo de processo. A metodologia foi testada para duas atividades de FLA2 de peçonha de serpente: neurotoxicidade e miotoxicidade. Para as FLA2 neurotóxicas, foram detectados seis motivos conservados, dos quais três foram validados estatisticamente como sendo adequados na discriminação de seqüências neurotóxicas de não neurotóxicas. Para as FLA2 miotóxicas, foram detectados seis motivos conservados, dos quais quatro foram validados. Os MOMs dos motivos validados podem ser usados na predição de atividade neurotóxica e miotóxica. As relações entre seqüência, estrutura, função e evolução das FLA2s são discutidas. Os dados obtidos foram coerentes com a hipótese apresentada por Kini (2003), da existência de diferentes sítios farmacológicos na superfície das FLA2, interagindo independente ou cooperativamente com diferentes receptores, para gerar as diversas funções biológicas observadas. Por não haver, até o momento, qualquer ferramenta automatizada para a predição de função biológica de FLA2, os resultados deste trabalho foram a base para a construção de uma ferramenta (disponível em www.cbiot.ufrgs.br/bioinfo/phospholipase) para a identificação de miotoxicidade e neurotoxicidade em FLA2.
Resumo:
Este trabalho faz uma avaliação de impacto do programa de treinamento conduzido pelo Sindicato dos Metalúrgicos de São Paulo. Trata-se de um estudo não experimental que pretende contribuir para o acúmulo de conhecimento sobre os resultados do PLANFOR, sendo um dos primeiros a avaliar um programa conduzido por um conveniado não governamental. Utilizou-se dois grupos de comparação: indivíduos inscritos e não chamados e vizinhos. O estimador utilizado foi o propensity score. A conclusão geral é que o programa de treinamento do Sindicato dos Metalúrgicos de São Paulo não tem sido efetivo para seus participantes. Apesar de não ser resultado de uma estimativa experimental, esta conclusão se mostrou bastante robusta.
Resumo:
Nesta dissertação, mostramos evidências de que a diversificação e o valor das empresas aparentam ser negativamente correlacionados. Esta relação é observada para diferentes métricas de diversificação e se mantém mesmo quando controlamos o efeito de outras variáveis conhecidas por influenciar o valor das empresas. Nossa análise não conseguiu comprovar de forma robusta se o efeito negativo causado pela diversificação diminui na medida em que esta se dá em segmentos mais relacionados. No entanto há indícios de que esta hipótese seja de fato verdadeira Um resultado interessante observado foi que assim como empresas especializadas, as empresas altamente diversificadas também possuem uma alta percepção de valor. Mostramos que a relação entre valor e diversificação possui o perfil de uma curva côncava com um ponto de mínimo justamente no nível de diversificação intermediário. Por fim, observamos que o efeito da diversificação no valor das empresas nos anos de 2008 e 2007 passou a ser positivo. O que nos sugere que em tempos de crise econômica, a percepção do valor de empresas mais diversificadas aumenta de forma significativa.
Resumo:
Esse estudo busca analisar os impactos causados pelo Ciclo Monetário, o Ciclo Econômico, o Nível da Indústria e a Condição do Mercado de Ações nas variáveis do CAPM para portfólios de ações de diferentes setores da indústria no Brasil. O banco de dados utilizado compreende séries temporais mensais, do retorno de ações de 17 setores da economia, no período de Janeiro de 2008 à Dezembro de 2014. Foi observado que existem relações estatisticamente relevantes entre variáveis macroeconômicas e o excesso de retorno dos portfólios de ações analisados. Além disso, foi possível notar que essas relações tem efeitos distintos sobre os riscos sistemáticos e idiossincráticos dos portfólios. A maior parte dos resultados obtidos não se mostraram estatisticamente relevantes, o que sugere que existem outras variáveis explicativas que se relacionam com as variáveis dependentes de forma mais robusta, assim como já apontado pela literatura existente, no caso do Brasil. No entanto, foi possível observar que há efeitos indiretos das variáveis macroeconômicas sobre o retorno dos ativos através do canal de retorno do mercado.
Resumo:
A abordagem da doença alérgica, nomeadamente da alergia respiratória, surge reforçada com o contributo da Aerobiologia no conhecimento, evolução e controlo da doença. Por seu turno, a caracterização bioquímica dos aeroalergénios de uma região pemite avaliar a sua composição e potencial alergénico, com particular interesse para espécies vegetais cuja introdução e/ou proximidade a áreas populacionais, potenciam o aparecimento ou o aumento de sensibilização a aeroalergénios. O trabalho apresentado nesta dissertação incidiu em duas vertentes de investigação distintas, porém complementares e interdependentes: numa primeira parte, no estudo da composição aerobiológica da atmosfera da cidade do Funchal no período 2002-2004 (Capítulo I), e numa segunda parte, na caracterização bioquímica dos alergénios polínicos mais frequentes detectados no referido período (Capítulo II). Assim, numa primeira parte, a monitorização aerobiológica (incluindo pólenes, esporos de fungos e demais partículas de origem biológica), foi realizada com um polinómetro do tipo volumétrico, tipo Hirst (Burkard). Os dados obtidos foram correlacionados com os parâmetros meteorológicos e avaliado o seu significado estatístico, permitindo antever a influência das variáveis ambientais em cada tipo particular de pólen e de fungo. Constataram-se algumas diferenças no conteúdo aerobiológico comparativamente ao restante território nacional. No espectro polínico dominaram as Poaceae e Urticaceae, plantas ornamentais (Asteraceae, Boraginaceae, Cupressaceae) e as representativas da faixa norte da cidade (Ericaceae, Myrtaceae e Pinaceae). Comparativamente a outras regiões do País, o espectro polínico foi no cômputo geral semelhante, embora se destaque para esta região, a expressividade do tipo Corylus no total polínico anual. A Primavera e o início de Verão, corresponderam às épocas de maior diversidade e concentração de pólenes. As diferenças encontradas no espectro polínico da cidade do Funchal são explicadas por variáveis intrínsecas desta região, tais como a composição vegetal, a localização da cidade, condições geo-climáticas inerentes, e a influência dos parâmetros meteorológicos, nomeadamente a temperatura e humidade relativa. Verificou-se a ocorrência de um maior número de pólenes quando a humidade se situa entre os 50 e 60 %, com a precipitação e a velocidade do vento a atingir valores mais baixos. A análise da variação intra-diurna observada revelou que há uma maior representação de pólenes entre as 11 e as 16 horas. Este estudo aerobiológico confere dados para o estabelecimento do primeiro calendário polínico da região e a definição de padrões de sazonalidade. Por seu turno, a fenologia dos principais tipos polínicos observados no Funchal permite definir um padrão anual de ocorrências polínicas. Relativamente à aeromicologia, verifica-se que, durante o período de estudo foram observados esporos de fungos sobretudo na Primavera (particularmente em Abril e Maio), início do Verão e no Outono. Os Deuteromicetes representaram a classe predominante, sendo Cladosporium o fungo mais abundante na atmosfera do Funchal, cujas concentrações mais elevadas ocorrem a humidades relativas de 40 a 70%. Tal como os pólenes, os esporos apresentam um dinâmica de variação intra-diurna particular: ocorreram em maior concentração entre as 13 e as 15 horas, surgindo igualmente nas primeiras horas da madrugada e da noite. O coberto vegetal do Funchal poderá afectar a aeromicologia local, na medida em que constitui um substrato importante para o crescimento de fungos, tal como as gramíneas que proliferam em quantidade e variedade ao longo de todo o ano. Constatou-se a existência de correlação entre a ocorrência de alguns esporos de fungos e taxa polínicos mais frequentes na atmosfera do Funchal. A análise de Spearman sugere a existência de correlação entre a ocorrência de Parietaria com a de Alternaria e Drechslera. Os esporos de fungos, incluindo esporos de fetos constituem uma fracção significativa das partículas na atmosfera do Funchal, sendo cerca de 11 vezes superior à dos pólenes. Na segunda parte do trabalho, o estudo bioquímico dos aeroalergénios polínicos implicou a optimização dos procedimentos de extracção, apurando-se três técnicas para a obtenção dos perfis proteicos de extractos de pólen desde a sua fonte natural. Esta análise permitiu detectar e identificar através das técnicas de SDS-PAGE-Imunoblotting, proteínas IgE específicas do pólen de plantas possivelmente relacionadas com a sensibilização alérgica. Em consonância com a monitorização aerobiológica, foram preparados extractos de pólen de 10 espécies de plantas. Os resultados em SDS-PAGE revelaram um elevado polimorfismo proteico em todos os extractos. Obtiveram-se extractos de pólen de 7 plantas acerca das quais não se conheciam estudos desta natureza: Acacia mearnsii, Avena barbata, Carduus squarrosus, Carlina salicifolia, Datura candida, Echium nervosum e Urtica membranosa. Por imunoblotting detectou-se no soro de dois pacientes IgE específica a proteínas de D. candida, com pesos moleculares entre 150,71 ± 0,05 e 58,92 ± 5,67 KDa. O soro de um deles reagiu igualmente com 5 alergénios de P. pinaster com 42,02 ± 0,05; 38,61 ± 0,46 ; 35,70 ± 7,78 ; 31,82 ± 2,11 e 27,45 ± 0,46 KDa. No soro de outro indivíduo foi detectada IgE específica para uma proteína de A. mearnsii com 66,66 ± 0,13 KDa, e outra de C. squarrosus,de 67,53 ± 0,29 KDa. É de destacar a sensibilidade e fiabilidade da técnica de Imunoblotting, e o interesse em incluila na metodologia de diagnóstico complementar da alergia respiratória. A ampla difusão de espécies como Ricinus communis, Urtica spp. ou A. mearnsii e sua proximidade à presença humana, reforçam, por um lado, a importância da vigilância aerobiológica, e por outro lado, requer uma definição do seu carácter alergénico para a população desta região.
Resumo:
Este trabalho tem por objectivo desenvolver eimplementar metodologias relacionadas com a temática de térmica de edifícos, no sentido dequantificar e optimizar as perdas e ganhos decalor e os consumos de energia associados aosedifícios. Com base na teoria de transferência de calor e massa, foram construídos programas de cálculo numérico para simular, em regime estacionário (permanente) e não estacionário (transiente), os fluxos de calor e a distribuição das temperaturas em diferentes tipos de paredes comummente encontradas em Portugal e em particular na Região Autónoma da Madeira. Estes resultados permitiram analisar a eficácia dos diversos tipos de paredes estudadas bem como o risco de condensação em algumas dessas situações. Para além deste estudo houve a preocupação de desenvolver uma metodologia de análise económica relacionada com a espessura de isolamento a aplicar. Foram igualmente estudadas algumas medições simples de conservação de energia cuja implementação em edifícios será facilmente ustificada atendendo aos baixos períodos de retorno de investimento geralmente associados a estas medidas. Como resultado deste trabalho foi desenvolvida uma ferramenta de cálculo cuja aplicaçãovai permitir não só estimar o risco decondensação mas igualmente o campo de temperaturas no interior das paredes ao longo do período de tempo considerado, visando a optimização de soluções de isolamento térmico versus condições de conforto recomendadas.
Resumo:
A presença de aminas biogénicas em alimentos é um ponto crítico da segurança alimentar dada a sua implicação em fenómenos de intoxicações alimentares. Com a realização deste trabalho pretendeu-se contribuir para um melhor esclarecimento desta temática, actuando-se a dois níveis: numa primeira fase procedeu-se ao desenvolvimento e validação de uma nova metodologia analítica para a determinação simultânea de quatro aminas biogénicas (histamina, cadaverina, tiramina e triptamina) presentes no pescado; numa segunda fase procedeu-se à quantificação dos teores das aminas biogénicas em amostras de tunídeos. O desenvolvimento da metodologia quantitativa baseou-se na utilização da técnica de cromatografia líquida acoplada à espectrometria de massa em tandem (LC-MS/MS), tendo a preparação dos extractos para análise envolvido a extracção das aminas biogénicas do músculo de tunídeos com ácido clorídrico e a purificação dos extractos obtidos por SPE. Como qualquer outro método cromatográfico, a metodologia de LC-MS/MS desenvolvida exigiu a optimização de vários parâmetros como: a concentração do padrão interno, a metodologia de extracção em fase sólida (SPE), composição e fluxo da fase móvel, volume de injecção, determinação dos tempos de retenção, condições de ionização e condições de fragmentação. A validação metodologia foi realizada através da avaliação de alguns parâmetros analíticos, tal como o ajuste do modelo de calibração, precisão (repetibilidade e precisão intermédia), limite de quantificação, limite de detecção e percentagem de recuperação. De modo a potenciar a sensibilidade e selectividade permitida pelo equipamento analítico e com o objectivo de efectuar a quantificação dos compostos em análise, a aquisição de dados foi realizada em modo MRM. Uma vez que se utilizou um padrão interno (heptilamina), a proporcionalidade da intensidade do sinal das aminas biogénicas em relação a uma determinada concentração foi dada em termos de áreas relativas, que corresponde à razão da intensidade do sinal da amina biogénica/intensidade do sinal do padrão interno (analito/P.I.). A metodologia analítica desenvolvida foi aplicada à determinação dos teores de aminas biogénicas nas amostras de músculo de tunídeos recolhidas, com uma regularidade semanal, em diferentes estabelecimentos comerciais no decorrer da época intensiva da sua captura (de Abril a Setembro de 2009). Os teores de aminas biogénicas encontrados, entre 2,63 mg/kg (triptamina) e 132,78 mg/kg (tiramina), não ultrapassaram os limites impostos pela Comunidade Europeia para os teores de histamina e para os teores de aminas totais; sendo que, em cerca de 87% das 59 amostras analisadas não foram encontrados teores quantificáveis para as quatro aminas biogénicas.
Resumo:
A Internet é responsável pelo surgimento de um novo paradigma de televisão – IPTV (Televisão sobre IP). Este serviço distingue-se de outros modelos de televisão, pois permite aos utilizadores um elevado grau de interactividade, com um controlo personalizado sobre os conteúdos a que pretende assistir. Possibilita ainda a oferta de um número ilimitado de canais, bem como o acesso a conteúdos de Vídeo on Demand (VoD). O IPTV apresenta diversas funcionalidades suportadas por uma arquitectura complexa e uma rede convergente que serve de integração a serviços de voz, dados e vídeo. A tecnologia IPTV explora ao máximo as características da Internet, com a utilização de mecanismos de Qualidade de Serviço. Surge ainda como uma revolução dentro do panorama televisivo, abrindo portas a novos investimentos por parte das empresas de telecomunicações. A Internet também permite fazer chamadas telefónicas sobre a rede IP. Este serviço é denominado VoIP (Voz sobre IP) e encontra-se em funcionamento já há algum tempo. Desta forma surge a oportunidade de poder oferecer ao consumidor final, um serviço que inclua os serviços de Internet, de VoIP e de IPTV denominado serviço Triple Play. O serviço Triple Play veio obrigar a revisão de toda a rede de transporte de forma a preparar a mesma para suportar este serviço de uma forma eficiente (QoS), resiliente (recuperação de falhas) e optimizado (Engenharia de tráfego). Em redes de telecomunicações, tanto a quebra de uma ligação como a congestão nas redes pode interferir nos serviços oferecidos aos consumidores finais. Mecanismos de sobrevivência são aplicados de forma a garantir a continuidade do serviço mesmo na ocorrência de uma falha. O objectivo desta dissertação é propor uma solução de uma arquitectura de rede capaz de suportar o serviço Triple Play de uma forma eficiente, resiliente e optimizada através de um encaminhamento óptimo ou quase óptimo. No âmbito deste trabalho, é realizada a análise do impacto das estratégias de encaminhamento que garantem a eficiência, sobrevivência e optimização das redes IP existentes, bem como é determinado o número limite de clientes permitido numa situação de pico de uma dada rede. Neste trabalho foram abordados os conceitos de Serviços Triple Play, Redes de Acesso, Redes Núcleo, Qualidade de Serviço, MPLS (Multi-Protocolo Label Switching), Engenharia de Tráfego e Recuperação de falhas. As conclusões obtidas das simulações efectuadas através do simulador de rede NS-2.33 (Network Simulator versão 2.33) serviram para propor a solução da arquitectura de uma rede capaz de suportar o serviço Triple Play de uma forma eficiente, resiliente e optimizada.
Resumo:
In the last decade mobile wireless communications have witnessed an explosive growth in the user’s penetration rate and their widespread deployment around the globe. It is expected that this tendency will continue to increase with the convergence of fixed Internet wired networks with mobile ones and with the evolution to the full IP architecture paradigm. Therefore mobile wireless communications will be of paramount importance on the development of the information society of the near future. In particular a research topic of particular relevance in telecommunications nowadays is related to the design and implementation of mobile communication systems of 4th generation. 4G networks will be characterized by the support of multiple radio access technologies in a core network fully compliant with the Internet Protocol (all IP paradigm). Such networks will sustain the stringent quality of service (QoS) requirements and the expected high data rates from the type of multimedia applications to be available in the near future. The approach followed in the design and implementation of the mobile wireless networks of current generation (2G and 3G) has been the stratification of the architecture into a communication protocol model composed by a set of layers, in which each one encompasses some set of functionalities. In such protocol layered model, communications is only allowed between adjacent layers and through specific interface service points. This modular concept eases the implementation of new functionalities as the behaviour of each layer in the protocol stack is not affected by the others. However, the fact that lower layers in the protocol stack model do not utilize information available from upper layers, and vice versa, downgrades the performance achieved. This is particularly relevant if multiple antenna systems, in a MIMO (Multiple Input Multiple Output) configuration, are implemented. MIMO schemes introduce another degree of freedom for radio resource allocation: the space domain. Contrary to the time and frequency domains, radio resources mapped into the spatial domain cannot be assumed as completely orthogonal, due to the amount of interference resulting from users transmitting in the same frequency sub-channel and/or time slots but in different spatial beams. Therefore, the availability of information regarding the state of radio resources, from lower to upper layers, is of fundamental importance in the prosecution of the levels of QoS expected from those multimedia applications. In order to match applications requirements and the constraints of the mobile radio channel, in the last few years researches have proposed a new paradigm for the layered architecture for communications: the cross-layer design framework. In a general way, the cross-layer design paradigm refers to a protocol design in which the dependence between protocol layers is actively exploited, by breaking out the stringent rules which restrict the communication only between adjacent layers in the original reference model, and allowing direct interaction among different layers of the stack. An efficient management of the set of available radio resources demand for the implementation of efficient and low complexity packet schedulers which prioritize user’s transmissions according to inputs provided from lower as well as upper layers in the protocol stack, fully compliant with the cross-layer design paradigm. Specifically, efficiently designed packet schedulers for 4G networks should result in the maximization of the capacity available, through the consideration of the limitations imposed by the mobile radio channel and comply with the set of QoS requirements from the application layer. IEEE 802.16e standard, also named as Mobile WiMAX, seems to comply with the specifications of 4G mobile networks. The scalable architecture, low cost implementation and high data throughput, enable efficient data multiplexing and low data latency, which are attributes essential to enable broadband data services. Also, the connection oriented approach of Its medium access layer is fully compliant with the quality of service demands from such applications. Therefore, Mobile WiMAX seems to be a promising 4G mobile wireless networks candidate. In this thesis it is proposed the investigation, design and implementation of packet scheduling algorithms for the efficient management of the set of available radio resources, in time, frequency and spatial domains of the Mobile WiMAX networks. The proposed algorithms combine input metrics from physical layer and QoS requirements from upper layers, according to the crosslayer design paradigm. Proposed schedulers are evaluated by means of system level simulations, conducted in a system level simulation platform implementing the physical and medium access control layers of the IEEE802.16e standard.
Resumo:
O presente estudo insere-se na problemática da Análise da performance táctico – técnica em Andebol, efectuada a partir da observação do jogo e visando a optimização do rendimento desportivo. Tendo como finalidade contribuir para uma alternativa na análise táctico-técnica do rendimento no Andebol, centrou-se a atenção na microanálise de acções táctico-técnicas, integrando-as numa análise mais global das sequências de jogo e das respectivas alterações contextuais. Pretendeu-se questionar a eficácia do ataque e da defesa no Andebol, tendo-se direccionado o estudo para os seguintes objectivos: (1) Analisar padrões de comportamento dos defensores após a recuperação da bola, em relação com o modo e zona de início das sequências ofensivas, tendo em conta as diferentes relações numéricas;(2) Analisar a eficácia do guarda-redes, tendo em conta a interacção guardaredes/defensor; (3) Analisar os meios tácticos que precedem a finalização bem como a sua influência no resultado final da sequência, considerando diferentes relações numéricas; (4) Analisar a interrupção das sequências por faltas sofridas e a respectiva influência no resultado final, tendo em conta diferentes relações numéricas. A amostra do presente estudo foi constituída pelas sequências ofensivas registadas a partir de vinte e cinco jogos das fases finais do Campeonato da Europa de 2002 (onze) e do Campeonato do Mundo de 2003 (catorze), envolvendo, em ambos os casos, apenas as equipas classificadas nos oito primeiros lugares de cada competição. Para a realização do estudo recorreu-se à metodologia observacional, tendo-se efectuado a exploração dos dados através da análise sequencial, tanto prospectiva como retrospectivamente. Usou-se ainda a técnica de análise através das coordenadas polares. Os resultados do estudo permitiram concluir que: (1) É significativa a probabilidade da cooperação guarda-redes/defensor influenciar a eficácia do guarda-redes na defesa da baliza; (2) É significativa a probabilidade do modo de recuperação da bola influenciar o modo de início da sequência ofensiva; (3) É significativa a probabilidade do modo de recuperação da bola influenciar a zona para onde é efectuada a primeira acção com bola da sequência ofensiva; (4) A interrupção da sequência ofensiva por falta sofrida, acompanhada ou não de uma exclusão, tem uma probabilidade significativa de activar o golo de sete metros. A não ocorrência de interrupção da sequência por falta sofrida, evidencia uma probabilidade significativa de activar o golo. No entanto, não é possível concluir que é significativa a probabilidade das interrupções por faltas sofridas influenciarem o resultado da sequência; (5) É significativa a probabilidade da utilização de meios tácticos anteriores à finalização influenciar a eficácia das sequências; (6) É significativa a probabilidade da relação numérica influenciar a eficácia das sequências.