947 resultados para Specifications


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work investigates new channel estimation schemes for the forthcoming and future generation of cellular systems for which cooperative techniques are regarded. The studied cooperative systems are designed to re-transmit the received information to the user terminal via the relay nodes, in order to make use of benefits such as high throughput, fairness in access and extra coverage. The cooperative scenarios rely on OFDM-based systems employing classical and pilot-based channel estimators, which were originally designed to pointto-point links. The analytical studies consider two relaying protocols, namely, the Amplifyand-Forward and the Equalise-and-Forward, both for the downlink case. The relaying channels statistics show that such channels entail specific characteristics that comply to a proper filter and equalisation designs. Therefore, adjustments in the estimation process are needed in order to obtain the relay channel estimates, refine these initial estimates via iterative processing and obtain others system parameters that are required in the equalisation. The system performance is evaluated considering standardised specifications and the International Telecommunication Union multipath channel models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper discusses the sustainable performance of geosynthetic clay liners (GCLs) which are popularly specified as “leachate retaining” or as “water proofing” membranes in the geo-environmental construction industry. Geosynthetic clay liners (GCLs) are composite matting comprising of bentonite clay with two covering geosynthetics. These are innovative labour saving construction material, developed over the last three decades. The paper outlines the variety of Geosynthetic Clay Liners (GCLs) can be classified essentially into two distinctly different forms viz; (a) air dry (< 8% m/c) with granular or powdered bentonite or (b) bentonite cake factory prehydrated to a moisture content (~40% m/c) beyond its shrinkage limit and vacuum extruded as a clay cake to enhance its sustainable performance. The dominant mineral in bentonite clay is the three-layered (2:1) clay mineral montmorillonite. High quality bentonites need to be used in the GCL manufacture. Sodium montmorillonite has the desired characteristic of high swelling capacity, high cation exchange capacity and the consequently very low hydraulic conductivity, providing the basis for the hydraulic sealing medium in GCLs. These encapsulate the active montmorillonite clay minerals which depend on the water and chemical balance between the sealing element and the surrounding geo environment. Quantitative mineralogical analyses and an assessment of the adsorbed cation regime, diffusion coefficients and clay leachate compatibility must necessarily be an integral part of the site appraisal to ensure acceptable long term sustainability and performance. Factors influencing the desired performance of bentonite in the GCLs placed in difficult construction and hostile chemical environments are discussed in this paper. Accordingly, the performance specifications for GCLs are identified and the appropriateness of enhancing the cation exchange capacity with polymer treatment and the need for factory prehydration of the untreated sodium bentonite is emphasised. The advantage of factory prehydrating the polymer treated bentonite to fluid content beyond its shrinkage limit and subsequently factory processing it to develop laminated clay is to develop a GCL that has enviable sealing characteristics with a greater resistance to geochemical attack and cracking. Since clay liners are buried in the ground as base liners, capping layer or as structural water proofing membrane, they can easily avoid strict quality and performance monitoring being “out of sight, out of mind!”. It is very necessary that barrier design for leachate containment must necessarily be in accordance with legislative requirement Assessment of long term hydraulic conductivities and clay-leachate compatibility assessment is deemed necessary. The derogatory factors affecting the sustainable performance of the bentonite in GCLs placed in difficult construction and hostile chemical environments are discussed. Sustainability concepts incorporated in waste management practice must aim to achieve 100% recycling and fully implement the handling of solid waste in developing countries with relatively lower labour costs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The introduction of parallel processing architectures allowed the real time impelemtation of more sophisticated control algorithms with tighter specifications in terms of sampling time. However, to take advantage of the processing power of these architectures the control engeneer, due to the lack of appropriate tools, must spend a considerable amount of time in the parallelizaton of the control algorithm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Auswahl geeigneter Bewerber/Innen nimmt aufgrund der demographischen Entwicklung und der damit verbundenen Verknappung der Ressource Personal einen immer höheren Stellenwert ein. Der Einsatz von Anforderungsprofilen soll dabei helfen das Risiko einer fehlerhaften Auswahlentscheidung zu verringern und somit den geeignetsten Bewerber auszuwählen. Ein Trend hin zu den Soft-Skills, wie beispielsweise Teamfähigkeit und Kommunikationsbereitschaft, ist klar zu erkennen. Gegenstand der nachfolgenden Diplomarbeit ist daher die Entwicklung eines Anforderungsprofils, welches sich auf diese Soft-Skills konzentriert. Die Erstel-lung des Anforderungsprofils erfolgt dabei auf Grundlage der von John C. Flanagan entwickelten „Critical Incident Technique“, die im deutschen Sprachgebrauch auch als Methode der kritischen Ereignisse bezeichnet wird. Infolgedessen werden zunächst die theoretischen Grundlagen eines Anforderungsprofils sowie die der „Critical Incident Technique“ detailliert erläutert. Im Anschluss daran erfolgt eine ausführliche Beschreibung der methodischen Vorgehensweise, die den kompletten Ablauf der praktischen Durchführung widerspiegelt. In diesem Zusammenhang werden getroffene Entscheidungen, die zu einer Anpassung der Vorgehensweise führten, näher erläutert und begründet. Die aus den Mitarbeiterbefragungen gewonnenen „Critical Incidents“ werden nachfolgend kategorisiert und zu Anforderungsbereichen zusammengefasst, die abschließend zum Anforderungsprofil verdichtet werden. Ferner wird die Möglichkeit einer praktischen Anwendung der Ergebnisse anhand von drei vom Autor begleiteten Projekten dargestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de doutoramento, Informática (Engenharia Informática), Universidade de Lisboa, Faculdade de Ciências, 2014

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de doutoramento, Engenharia Biomédica e Biofísica, Universidade de Lisboa, Faculdade de Ciências, 2015

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study investigates the re-employment hazard of displaced German workers using the first fourteen sweeps of the German Socio-Economic Panel (GSOEP) data. As well as parametric and non-parametric discrete-time specifications for the baseline hazard, the study employs alternative mixing distributions to account for unobserved heterogeneity. Findings of the study suggest negative duration dependence, even after accounting for unobserved heterogeneity. In terms of covariate effects, those at the lower end of the skills ladder, those who had been working in manufacturing and those with previous experience of non-employment are found to have lower hazard of exit via reemployment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de doutoramento, Farmácia (Tecnologia Farmacêutica), Universidade de Lisboa, Faculdade de Farmácia, 2016

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Previous research on the prediction of fiscal aggregates has shown evidence that simple autoregressive models often provide better forecasts of fiscal variables than multivariate specifications. We argue that the multivariate models considered by previous studies are small-scale, probably burdened by overparameterization, and not robust to structural changes. Bayesian Vector Autoregressions (BVARs), on the other hand, allow the information contained in a large data set to be summarized efficiently, and can also allow for time variation in both the coefficients and the volatilities. In this paper we explore the performance of BVARs with constant and drifting coefficients for forecasting key fiscal variables such as government revenues, expenditures, and interest payments on the outstanding debt. We focus on both point and density forecasting, as assessments of a country’s fiscal stability and overall credit risk should typically be based on the specification of a whole probability distribution for the future state of the economy. Using data from the US and the largest European countries, we show that both the adoption of a large system and the introduction of time variation help in forecasting, with the former playing a relatively more important role in point forecasting, and the latter being more important for density forecasting.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present paper shows preliminary results of an ongoing project which one of the goals is to investigate the viability of using waste FCC catalyst (wFCC), originated from Portuguese oil refinery, to produce low carbon blended cements. For this purpose, four blended cements were produced by substituting cement CEM I 42.5R up to 20% (w/w) by waste FCC catalyst. Initial and final setting times, consistency of standard paste, soundness and compressive strengths after 2, 7 and 28 days were measured. It was observed that the wFCC blended cements developed similar strength, at 28 days, compared to the reference cement, CEM I 42.5R. Moreover, cements with waste FCC catalyst incorporation up to 15% w/w meet European Standard EN 197-1 specifications for CEM II/A type cement, in the 42.5R strength class.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na indústria farmacêutica, a limpeza dos equipamentos e superfícies é muito importante no processo de fabrico/embalagem dos produtos farmacêuticos. Possíveis resíduos contaminantes devem ser removidos dos equipamentos e das superfícies envolvidas no processo. De acordo com as Boas Práticas de Fabrico (GMP), os procedimentos de limpeza e os métodos analíticos usados para determinar as quantidades de resíduos devem ser validados. O método analítico combinado com o método de amostragem utilizado na colheita de amostras deve ser sujeito a um ensaio de “recovery”. Neste trabalho apresenta-se uma estratégia inovadora para a validação de limpeza de formas farmacêuticas semi-sólidas. Propõe-se o uso de um método de amostragem que consiste na colheita direta de amostra após o seu fabrico, sendo a análise de resíduos feita directamente nesta amostra. Os produtos escolhidos para a avaliação da estratégia foram dois medicamentos dermatológicos, apresentados na forma de pomada e produzidos numa unidade de fabrico de vários produtos, pela Schering Plough Farma/ Merck Sharp & Dohme (Cacém, Portugal). Como métodos analíticos para a quantificação dos resíduos, utilizaram-se métodos validados por via espectrofotométrica (HPLC), usados na análise do produto acabado. A validação de limpeza foi avaliada através da análise de uma quantidade conhecida de pomada (produto B (*)), usando o método de análise da pomada fabricada anteriormente (produto A (*)), de modo a verificar-se a existência ou não de agente de limpeza e substâncias ativas deixadas após a limpeza do produto A, e vice-versa. As concentrações residuais das substâncias ativas e do agente de limpeza encontradas após a limpeza foram nulas, ou seja, inferiores ao limite de deteção (LOD), sendo que o critério de aceitação da limpeza utilizado foi de 6,4 x 10-4 mg/g para a substância ativa 1 (*); 1,0 x 10-2 mg/g para a substância ativa 2 (*); 1,0 x 10-3 mg/g para a substância ativa 3 (*) e de 10 ppm para o agente de limpeza. No ensaio de “recovery”, obtiveram-se resultados acima de 70% para todas as substâncias ativas e para o agente de limpeza nas duas pomadas. Antes de se proceder a este ensaio de “recovery”, houve a necessidade de ajustar as condições cromatográficas dos métodos analíticos de ambos os produtos e do agente de limpeza, por forma a obter-se valores da conformidade do sistema (fator de tailling e de resolução) de acordo com as especificações. A precisão dos resultados, reportada como desvio padrão relativo (RSD), deu abaixo de 2,0%, excepto nos ensaios que envolvem a substância ativa 3, cuja especificação é inferior a 10,0%. Os resultados obtidos demonstraram que os procedimentos de limpeza usados na unidade de fabrico em causa são eficazes, eliminando assim a existência de contaminação cruzada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cloud computing is increasingly being adopted in different scenarios, like social networking, business applications, scientific experiments, etc. Relying in virtualization technology, the construction of these computing environments targets improvements in the infrastructure, such as power-efficiency and fulfillment of users’ SLA specifications. The methodology usually applied is packing all the virtual machines on the proper physical servers. However, failure occurrences in these networked computing systems can induce substantial negative impact on system performance, deviating the system from ours initial objectives. In this work, we propose adapted algorithms to dynamically map virtual machines to physical hosts, in order to improve cloud infrastructure power-efficiency, with low impact on users’ required performance. Our decision making algorithms leverage proactive fault-tolerance techniques to deal with systems failures, allied with virtual machine technology to share nodes resources in an accurately and controlled manner. The results indicate that our algorithms perform better targeting power-efficiency and SLA fulfillment, in face of cloud infrastructure failures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de mestre em Engenharia Civil na Área de Especialização em Estruturas