936 resultados para Returns


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado, Gestão e Conservação da Natureza, 12 de Junho de 2014, Universidade dos Açores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em Gestão/MBA

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para a obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Energia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem como principal objectivo o estudo da possibilidade de recuperação de calor de um efluente proveniente do tratamento primário da fábrica do grupo Portucel Soporcel (fábrica produtora de pasta de papel), para o aquecimento da corrente de lamas do digestor anaeróbio da SimRia S.A. – ETAR Norte, (ambas localizadas em Cacia, distrito de Aveiro). A solução consiste na implementação de um sistema de permuta térmica entre estas duas correntes, constituído fundamentalmente por dois permutadores de placas em espiral, montados em paralelo que operam em contra-corrente. Segundo este novo sistema de aquecimento, as lamas abandonam o digestor anaeróbio da mesma ETAR a um caudal de 110 m3/h, que se dividirá em duas linhas, sendo admitidas em cada permutador a 55 m3/h e a uma temperatura de 32 ºC regressando ao digestor a uma temperatura de 37 ºC (temperatura óptima a que ocorre a digestão anaeróbia das lamas). O efluente disponível, abandona o tratamento primário da Portucel, a 45 ºC e é encaminhado até aos permutadores da SimRia S.A., onde vai trocar calor com as lamas e regressa à Portucel a 40ºC, sendo admitido nas torres de arrefecimento da fábrica de papel. A nova instalação proposta pretende substituir a actual existente na ETAR em causa, em que a corrente de água que aquece as lamas, circula num circuito fechado entre um único permutador e uma caldeira, alimentada com o biogás que se produz no digestor anaeróbio, e que é responsável pelo controlo da temperatura da corrente de água. Pretende-se que a implementação deste novo método de aquecimento de lamas seja uma alternativa económica relativamente ao actual sistema, uma vez que vai substituir a corrente de biogás alimentada à caldeira podendo este recurso ser transformado em energia eléctrica e posteriormente comercializada. A análise financeira realizada ao projecto demonstrou que o projecto é rentável, uma vez que, a diferença entre todos ganhos e custos ao fim dos 10 anos de vida útil estimados é de cerca de 150 000,0 €. O período de retorno do investimento é alcançado no final dos primeiros 6 anos e a taxa interna de rentabilidade obtida foi de 36 %. Posteriormente incluiu-se neste estudo a possibilidade de tratamento das lamas geradas na fábrica da Portucel na ETAR da SimRia recorrendo a um terceiro digestor. Conclui-se que se trata duma opção vantajosa, uma vez que permite obter um caudal de biogás 44 m3/h, que convertido em potência permite obter 150 kW que poderá ser aproveitado para produção de energia ou comercializado gerando uma receita adicional de 130 000,0 €/ano para as entidades envolvidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Controlo de Gestão dos Negócios

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A massificação da utilização das tecnologias de informação e da Internet para os mais variados fins, e nas mais diversas áreas, criou problemas de gestão das infra-estruturas de informática, ímpares até ao momento. A gestão de redes informáticas converteu-se num factor vital para uma rede a operar de forma eficiente, produtiva e lucrativa. No entanto, a maioria dos sistemas são baseados no Simple Network Management Protocol (SNMP), assente no modelo cliente-servidor e com um paradigma centralizado. Desta forma subsiste sempre um servidor central que colecta e analisa dados provenientes dos diferentes elementos dispersos pela rede. Sendo que os dados de gestão estão armazenados em bases de dados de gestão ou Management Information Bases (MIB’s) localizadas nos diversos elementos da rede. O actual modelo de gestão baseado no SNMP não tem conseguido dar a resposta exigida. Pelo que, existe a necessidade de se estudar e utilizar novos paradigmas de maneira a que se possa encontrar uma nova abordagem capaz de aumentar a fiabilidade e a performance da gestão de redes. Neste trabalho pretende-se discutir os problemas existentes na abordagem tradicional de gestão de redes, procurando demonstrar a utilidade e as vantagens da utilização de uma abordagem baseada em Agentes móveis. Paralelamente, propõe-se uma arquitectura baseada em Agentes móveis para um sistema de gestão a utilizar num caso real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Contabilidade e Análise Financeira

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Controlo de Gestão e dos Negócios

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Contabilidade e Análise Financeira

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Radio Link Quality Estimation (LQE) is a fundamental building block for Wireless Sensor Networks, namely for a reliable deployment, resource management and routing. Existing LQEs (e.g. PRR, ETX, Fourbit, and LQI ) are based on a single link property, thus leading to inaccurate estimation. In this paper, we propose F-LQE, that estimates link quality on the basis of four link quality properties: packet delivery, asymmetry, stability, and channel quality. Each of these properties is defined in linguistic terms, the natural language of Fuzzy Logic. The overall quality of the link is specified as a fuzzy rule whose evaluation returns the membership of the link in the fuzzy subset of good links. Values of the membership function are smoothed using EWMA filter to improve stability. An extensive experimental analysis shows that F-LQE outperforms existing estimators.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The activity of growing living bacteria was investigated using real-time and in situ rheology-in stationary and oscillatory shear. Two different strains of the human pathogen Staphylococcus aureus-strain COL and its isogenic cell wall autolysis mutant, RUSAL9-were considered in this work. For low bacteria density, strain COL forms small clusters, while the mutant, presenting deficient cell separation, forms irregular larger aggregates. In the early stages of growth, when subjected to a stationary shear, the viscosity of the cultures of both strains increases with the population of cells. As the bacteria reach the exponential phase of growth, the viscosity of the cultures of the two strains follows different and rich behaviors, with no counterpart in the optical density or in the population's colony-forming units measurements. While the viscosity of strain COL culture keeps increasing during the exponential phase and returns close to its initial value for the late phase of growth, where the population stabilizes, the viscosity of the mutant strain culture decreases steeply, still in the exponential phase, remains constant for some time, and increases again, reaching a constant plateau at a maximum value for the late phase of growth. These complex viscoelastic behaviors, which were observed to be shear-stress-dependent, are a consequence of two coupled effects: the cell density continuous increase and its changing interacting properties. The viscous and elastic moduli of strain COL culture, obtained with oscillatory shear, exhibit power-law behaviors whose exponents are dependent on the bacteria growth stage. The viscous and elastic moduli of the mutant culture have complex behaviors, emerging from the different relaxation times that are associated with the large molecules of the medium and the self-organized structures of bacteria. Nevertheless, these behaviors reflect the bacteria growth stage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The trajectory planning of redundant robots is an important area of research and efficient optimization algorithms are needed. The pseudoinverse control is not repeatable, causing drift in joint space which is undesirable for physical control. This paper presents a new technique that combines the closed-loop pseudoinverse method with genetic algorithms, leading to an optimization criterion for repeatable control of redundant manipulators, and avoiding the joint angle drift problem. Computer simulations performed based on redundant and hyper-redundant planar manipulators show that, when the end-effector traces a closed path in the workspace, the robot returns to its initial configuration. The solution is repeatable for a workspace with and without obstacles in the sense that, after executing several cycles, the initial and final states of the manipulator are very close.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT OBJECTIVE To develop an assessment tool to evaluate the efficiency of federal university general hospitals. METHODS Data envelopment analysis, a linear programming technique, creates a best practice frontier by comparing observed production given the amount of resources used. The model is output-oriented and considers variable returns to scale. Network data envelopment analysis considers link variables belonging to more than one dimension (in the model, medical residents, adjusted admissions, and research projects). Dynamic network data envelopment analysis uses carry-over variables (in the model, financing budget) to analyze frontier shift in subsequent years. Data were gathered from the information system of the Brazilian Ministry of Education (MEC), 2010-2013. RESULTS The mean scores for health care, teaching and research over the period were 58.0%, 86.0%, and 61.0%, respectively. In 2012, the best performance year, for all units to reach the frontier it would be necessary to have a mean increase of 65.0% in outpatient visits; 34.0% in admissions; 12.0% in undergraduate students; 13.0% in multi-professional residents; 48.0% in graduate students; 7.0% in research projects; besides a decrease of 9.0% in medical residents. In the same year, an increase of 0.9% in financing budget would be necessary to improve the care output frontier. In the dynamic evaluation, there was progress in teaching efficiency, oscillation in medical care and no variation in research. CONCLUSIONS The proposed model generates public health planning and programming parameters by estimating efficiency scores and making projections to reach the best practice frontier.