970 resultados para Telecommunication switching
Resumo:
Signal-to-interference ratio (SIR) performance of a multiband orthogonal frequency division multiplexing ultra-wideband system with residual timing offset is investigated. To do so, an exact mathematical derivation of the SIR of this system is derived. It becomes obvious that, unlike a cyclic prefixing based system, a zero padding based system is sensitive to residual timing offset.
Resumo:
The var genes of Plasmodium falciparum code for the antigenically variant erythrocyte membrane proteins 1 (PfEMP1), a major factor for cytoadherence and immune escape of the parasite. Herein, we analyzed the var gene transcript turnover in two ongoing, non-symptomatic infections at sequential time points during two weeks. The number of different circulating genomes was estimated by microsatellite analyses. In both infections, we observed a rapid turnover of plasmodial genotypes and var transcripts. The rapidly changing repertoire of var transcripts could have been caused either by swift elimination of circulating var-transcribing parasites stemming from different or identical genetic backgrounds, or by accelerated switching of var gene transcription itself.
Resumo:
Bipedal gaits have been classified on the basis of the group symmetry of the minimal network of identical differential equations (alias cells) required to model them. Primary bipedal gaits (e.g., walk, run) are characterized by dihedral symmetry, whereas secondary bipedal gaits (e.g., gallop-walk, gallop- run) are characterized by a lower, cyclic symmetry. This fact has been used in tests of human odometry (e.g., Turvey et al. in P Roy Soc Lond B Biol 276:4309–4314, 2009, J Exp Psychol Hum Percept Perform 38:1014–1025, 2012). Results suggest that when distance is measured and reported by gaits from the same symmetry class, primary and secondary gaits are comparable. Switching symmetry classes at report compresses (primary to secondary) or inflates (secondary to primary) measured distance, with the compression and inflation equal in magnitude. The present research (a) extends these findings from overground locomotion to treadmill locomotion and (b) assesses a dynamics of sequentially coupled measure and report phases, with relative velocity as an order parameter, or equilibrium state, and difference in symmetry class as an imperfection parameter, or detuning, of those dynamics. The results suggest that the symmetries and dynamics of distance measurement by the human odometer are the same whether the odometer is in motion relative to a stationary ground or stationary relative to a moving ground.
Resumo:
Wireless body area networks (WBANs) are expected to play a significant role in smart healthcare systems. One of the most important attributes of WBANs is to increase network lifetime by introducing novel and low-power techniques on the energy-constrained sensor nodes. Medium access control (MAC) protocols play a significant role in determining the energy consumption in WBANs. Existing MAC protocols are unable to accommodate communication requirements in WBANs. There is a need to develop novel, scalable and reliable MAC protocols that must be able to address all these requirements in a reliable manner. In this special issue, we attracted high quality research and review papers on the recent advances in MAC protocols for WBANs.
Resumo:
A presente tese pretende fazer uma abordagem ao crescimento dos consumos de energia elétrica, que se tem verificado, nos últimos anos, no setor das telecomunicações e das tecnologias de informação; devido ao constante crescimento das redes, dos equipamentos a ela ligados e do tráfego que nelas transita. Num contexto de globalização da economia, no qual, as redes de telecomunicações e de energia elétrica são dois dos maiores contribuintes, a presente tese procura encontrar enquadramentos e soluções para um dos maiores desafios que a humanidade enfrenta atualmente, e que em parte, é consequente dessa globalização: encontrar novas fontes e formas de utilização da energia, -particularmente da energia elétrica - para que a humanidade continue a usufruir, de uma forma sustentável, dos benefícios que a mesma proporciona. Na primeira parte, procura-se fazer uma abordagem que utiliza fontes de informação e conhecimento, do mercado global, nomeadamente, entidades reguladoras e normalizadoras, operadores, fornecedores de tecnologias e consumidores, que abrangessem os três maiores mercados mundiais – União Europeia, Estados Unidos da América e Ásia-Pacífico. Considerou-se fundamental fazê-lo, por se tratar de uma dissertação no âmbito de um Mestrado com o selo de garantia EUR-ACE. Ao longo da dissertação analisou-se a temática da eficiência energética nas redes de telecomunicações e das tecnologias de informação e comunicação, um tema cada vez mais pertinente, já que o número de pessoas com ligações à Internet, já supera os 3 mil milhões, e as redes passaram a ser o meio por onde são transmitidos, a cada segundo, terabytes de sinais de voz, dados e vídeo. Procurou-se encontrar as linhas de orientação que estão a ser traçadas, para otimizar os consumos energéticos, de um complexo sistema convergente de redes e serviços, formado por entidades reguladoras e normalizadoras, operadores, fornecedores de tecnologias e consumidores, onde nem sempre as fronteiras estão perfeitamente definidas. Perante a constatação da realidade exposta, analisou-se as políticas energéticas desenvolvidas nos últimos anos, pelos vários players do mercado das telecomunicações, das tecnologias de informação e dos sistemas elétricos de energia bem como algumas métricas e objetivos comumente aceites. viii São analisados os contributos das partes interessadas, para o desenvolvimento de políticas energéticas eficazes, por forma a permitirem uma implementação, que considere o funcionamento dos equipamentos como um todo, e não de uma forma isolada como tradicionalmente o assunto era abordado. As especificidades na forma como funcionam as redes de telecomunicações e respetivos equipamentos, são expostas sobre várias óticas, comprovando-se que a temática da eficiência energética é uma das áreas mais difíceis lidar, de todas as consideradas nas políticas energéticas. Demonstrou-se que muitos dos equipamentos não estão otimizados em termos de gestão de energia, procurou-se evidenciar as consequências dessa realidade, uma vez que os equipamentos referidos, têm a necessidade de estar permanentemente a ser alimentados pela rede de energia elétrica, para garantir as funções para que foram projetados. Da pesquisa efetuada e descrita ao longo da dissertação, constatamos o empenho de toda a comunidade científica, operadores e agências de energia e de telecomunicações, em resolver o problema, já que há a consciencialização de que o ritmo de crescimento da rede e equipamentos terminais, é superior ao registado na melhoria da eficiência energética dos vários componentes e equipamentos terminais. Na segunda parte do relatório da tese, procurou-se testar a aplicabilidade das normas e recomendações dos organismos que tutelam a atividade a nível global - algumas publicadas nos últimos 2 anos - a um caso prático. Um edifício hospitalar de média dimensão. Foi elaborada uma aplicação informática, que suportada numa metodologia padronizada, seja capaz de fazer a avaliação da eficiência energética dos equipamentos serviços de telecomunicações de informação e comunicação em funcionamento do hospital. Por dificuldades de disponibilidade dos responsáveis do edifício, os resultados ficaram aquém do esperado. Conseguiu-se desenhar a aplicação, inventariar-se apenas parte dos equipamentos. Demonstrou-se que, a forma como alguns equipamentos estão a ser utilizados, não cumprem regras de utilização racional e eficiente. Procurou-se sensibilizar alguns dos responsáveis, para a necessidade de alterar comportamentos e prosseguir o processo de inventariação, por forma, a que o trabalho iniciado atinja os objetivos propostos.
Resumo:
Dissertation presented to obtain the PhD degree in Electrical and Computer Engineering - Electronics
Resumo:
Background: Tumor necrosis factor alpha (TNFα) antagonists are effective in treating several immune-inflammatory diseases, including psoriasis and inflammatory bowel disease. The paradoxical and unpredictable induction of psoriasis and psoriasiform skin lesions is a recognized adverse event, although of unclear aetiology. However, histological analysis of these eruptions remains insufficient, yet suggesting that some might constitute a new pattern of adverse drug reaction, rather than true psoriasis. Case report: The authors report the case of a 43-year-old woman with severe recalcitrant Crohn disease who started treatment with infliximab. There was also a personal history of mild plaque psoriasis without clinical expression for the past eight years. She developed a heterogeneous cutaneous eruption of psoriasiform morphology with pustules and crusts after the third infliximab infusion. The histopathological diagnosis was of a Sweet-like dermatosis. The patient was successfully treated with cyclosporine in association with both topical corticosteroid and vitamin D3 analogue. Three weeks after switching to adalimumab a new psoriasiform eruption was observed, histologically compatible with a psoriasiform drug eruption. Despite this, and considering the beneficial effect on the inflammatory bowel disease, it was decided to maintain treatment with adalimumab and to treat through with topicals, with progressive control of skin disease. Discussion: Not much is known about the pathogenesis of psoriasiform eruptions induced by biological therapies, but genetic predisposition and Koebner phenomenon may contribute to it. Histopathology can add new facets to the comprehension of psoriasiform reactions. In fact, histopathologic patterns of such skin lesions appear to be varied, in a clear asymmetry with clinical findings. Conclusion: The sequential identification in the same patient of two clinical and histopathologic patterns of drug reaction to TNFα antagonists is rare. Additionally, to the authors’ knowledge, there is only one other description in literature of a TNFα antagonist-induced Sweet-like dermatosis, emphasizing the singularity of this case report.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
A indústria metalomecânica nacional possui uma larga tradição no fabrico de equipamentos de elevada qualidade nas mais diversas vertentes. Seja em moldes, colunas de geradores de energia eólica, torres de telecomunicações, equipamento para a agropecuária, básculas de camiões ou simplesmente em silos, a indústria metalomecânica portuguesa é reconhecida internacionalmente pela sua competitividade e qualidade. Sectores como o da maquinagem, estampagem e soldadura mantêm viva a economia nacional, exportando produtos e serviços de engenharia que são largamente reconhecidos pelas empresas estrangeiras, tanto na Europa como em África e na América. O sector da construção soldada teve sempre uma forte tradição no nosso país, conhecendo um novo impulso com o fabrico de estruturas metálicas para geradores de energia eólica e torres de telecomunicações. Atualmente esta indústria mantém viva a sua atividade devido a um forte ’know-how’ nesta matéria e a uma qualidade invejável. Apesar do forte ‘know-how’ já existente, esta indústria está constantemente a ser solicitada para novos desafios, passando pela necessidade da aplicação de novos materiais os quais trazem sempre requisitos específicos aos processos, necessitando ser estudados com pormenor. Este estudo baseia-se na necessidade de uma empresa industrial portuguesa precisar de realizar equipamentos em construção soldada com base em aço do tipo Cr-Mo, grau 91, cuja soldadura é tradicionalmente bastante complicada. A realização dos adequados tratamentos ao material, quer antes, quer depois da soldadura, são a garantia de que a qualidade final do produto atinge os níveis exigidos pelos clientes. Assim, o presente estudo, com uma forte componente experimental, permitiu determinar com sucesso quais as melhores condições para o ciclo térmico na soldadura que podem ser aplicadas a esta liga, para que os resultados obtidos possam exibir a qualidade desejada.
Resumo:
PURPOSE: The aim of the this study was to determine the effect of intravitreal antivascular endothelial growth factor injections on intraocular pressure (IOP) and identify possible risk factors for the development of increased IOP. MATERIALS AND METHODS: This prospective study included a total of 106 eyes receiving intravitreal injection of bevacizumab as treatment for macular edema or active choroidal neovascularization. IOP was measured by Goldmann applanation tonometry immediately before the intravitreal injection and 5 min, 1 h and 15 days after the procedure. The records of the study patients were reviewed for age, gender, history of glaucoma, diabetes mellitus, phakic status, systemic and topical medication and number of previous injections. Subconjunctival reflux was registered. IOP elevation was defined as IOP ≥21 mm Hg and/or a change from baseline of ≥5 mm Hg recorded at least on two or more measurements on the same visit. RESULTS: Mean preoperative IOP was 15.31 ± 3.90 mm Hg and postoperative IOP values were 27.27 ± 11.87 mm Hg (after 5 min), 17.59 ± 6.24 mm Hg (after 1 h) and 16.86 ± 3.62 mm Hg (after 15 days). The IOP variation was statistically significant between pre- and postoperative measurements (p < 0.05). Subconjunctival reflux was recorded in 11.3%, and in this subgroup the IOP at 5 min and at 1 h was lower than preoperative IOP (p < 0.05). CONCLUSIONS: More than one third of the eyes achieved IOPs >30 mm Hg 5 min after injection. Subconjunctival reflux contributed to a lower mean postoperative IOP (p < 0.05). Considerations for the management include prophylactic IOP lowering with medical therapy and/or preinjection ocular decompression for patients with a history of glaucoma or ocular hypertension and switching to an as-needed injection protocol in patients suffering a marked IOP rise in previous injections. © 2015 S. Karger AG, Basel.
Resumo:
A Work Project, presented as part of the requirements for the Award of a Masters Degree in Economics from the NOVA – School of Business and Economics
Resumo:
ABSTRACT - It is the purpose of the present thesis to emphasize, through a series of examples, the need and value of appropriate pre-analysis of the impact of health care regulation. Specifically, the thesis presents three papers on the theme of regulation in different aspects of health care provision and financing. The first two consist of economic analyses of the impact of health care regulation and the third comprises the creation of an instrument for supporting economic analysis of health care regulation, namely in the field of evaluation of health care programs. The first paper develops a model of health plan competition and pricing in order to understand the dynamics of health plan entry and exit in the presence of switching costs and alternative health premium payment systems. We build an explicit model of death spirals, in which profitmaximizing competing health plans find it optimal to adopt a pattern of increasing relative prices culminating in health plan exit. We find the steady-state numerical solution for the price sequence and the plan’s optimal length of life through simulation and do some comparative statics. This allows us to show that using risk adjusted premiums and imposing price floors are effective at reducing death spirals and switching costs, while having employees pay a fixed share of the premium enhances death spirals and increases switching costs. Price regulation of pharmaceuticals is one of the cost control measures adopted by the Portuguese government, as in many European countries. When such regulation decreases the products’ real price over time, it may create an incentive for product turnover. Using panel data for the period of 1997 through 2003 on drug packages sold in Portuguese pharmacies, the second paper addresses the question of whether price control policies create an incentive for product withdrawal. Our work builds the product survival literature by accounting for unobservable product characteristics and heterogeneity among consumers when constructing quality, price control and competition indexes. These indexes are then used as covariates in a Cox proportional hazard model. We find that, indeed, price control measures increase the probability of exit, and that such effect is not verified in OTC market where no such price regulation measures exist. We also find quality to have a significant positive impact on product survival. In the third paper, we develop a microsimulation discrete events model (MSDEM) for costeffectiveness analysis of Human Immunodeficiency Virus treatment, simulating individual paths from antiretroviral therapy (ART) initiation to death. Four driving forces determine the course of events: CD4+ cell count, viral load resistance and adherence. A novel feature of the model with respect to the previous MSDEMs is that distributions of time to event depend on individuals’ characteristics and past history. Time to event was modeled using parametric survival analysis. Events modeled include: viral suppression, regimen switch due virological failure, regimen switch due to other reasons, resistance development, hospitalization, AIDS events, and death. Disease progression is structured according to therapy lines and the model is parameterized with cohort Portuguese observational data. An application of the model is presented comparing the cost-effectiveness ART initiation with two nucleoside analogue reverse transcriptase inhibitors (NRTI) plus one non-nucleoside reverse transcriptase inhibitor(NNRTI) to two NRTI plus boosted protease inhibitor (PI/r) in HIV- 1 infected individuals. We find 2NRTI+NNRTI to be a dominant strategy. Results predicted by the model reproduce those of the data used for parameterization and are in line with those published in the literature.
Resumo:
A Work Project, presented as part of the requirements for the Award of a Masters Degree in Management from the NOVA – School of Business and Economics
Resumo:
Dissertação para obtenção do grau de Mestre em Microbiologia Médica
Resumo:
This paper develops a model of a forest owner operating in an open-city environment, where the rent for developed land is increasing concave in nearby preserved open space and is rising over time reflecting an upward trend in households’ income. Thus, our model creates the possibility of switching from forestry to residential use at some point in the future. In addition it allows the optimal harvest length to vary over time even if stumpage prices and regeneration costs remain constant. Within this framework we examine how adjacent preserved open space and alternative development constraints affect the private landowner´s decisions. We find that in the presence of rising income, preserved open space hastens regeneration and conversion cuts but leads to lower density development of nearby unzoned parcels due to indirect dynamic effects. We also find that both a binding development moratorium and a binding minimum-lot-size policy can postpone regeneration and conversion cut dates and thus help to protect open space even if only temporarily. However, the policies do not have the same effects on development density of converted forestland. While the former leads to high-density development, the latter encourages low-density development.