998 resultados para Análise de sobrevivência. Modelos de longa duração. Método deLaplace. MCMC


Relevância:

40.00% 40.00%

Publicador:

Resumo:

OBJETIVO: Existem vários critérios para a escolha do número de componentes a serem mantidos na análise de componentes principais. Esta escolha pode dar-se por critérios arbitrários (critério de Kaiser p.ex.) ou subjetivos (fatores interpretáveis). Apresenta-se o critério de simulação de Lébart e Dreyfus. MÉTODO: É gerada uma matriz de números aleatórios, sendo realizada a análise de componentes principais a partir dessa matriz. Os componentes extraídos de um conjunto de dados como este representam um limite inferior que deve ser ultrapassado para que um componente possa ser selecionado. Utiliza-se como exemplo a análise de componentes principais da escala de Hamilton para a depressão (17 itens) numa amostra de 130 pacientes. RESULTADOS E CONCLUSÕES: O método de simulação é comparado com o método de Kaiser. É mostrado que o método de simulação mantém apenas os componentes clinicamente significativos ao contrário do método de Kaiser.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nesta dissertação desenvolveu-se um programa de cálculo automático que efectua a análise estrutural de placas, sujeitas a acções estáticas e considerando um comportamento isotrópico elástico linear dos materiais. Este programa foi elaborado em linguagem Fortran. O método que se utilizou para o cálculo das estruturas é baseado na teoria dos elementos finitos, tendo sido adoptados elementos finitos com dois graus de liberdade por nó (duas translações), associados ao método dos deslocamentos para a sua resolução. Para permitir a representação dos resultados obtidos pelo programa, utilizou-se um módulo gráfico comercial: GiD. A validação do programa desenvolvido foi feita a partir da comparação dos resultados calculados de alguns exemplos com os obtidos através de um programa de cálculo estrutural de referência: SAP2000. Esta dissertação contempla ainda um manual, que tem como finalidade o fornecimento de indicações para a correcta utilização do software desenvolvido, o qual inclui orientações para a introdução de dados e respectiva interpretação de resultados.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Superior de Contabilidade para a obtenção do Grau deMestre em Auditoria Orientada por Alcina Augusta de Sena Portugal Dias

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Pretende-se, utilizando o Modelo da Elasticidade Linear em freeFEM++, determinar os esforços e deslocamentos de um edifício alto submetido apenas à acção do peso próprio da estrutura e, efectuar estudos comparativos dos resultados obtidos com o SAP2000. O trabalho inicia-se com a introdução da teoria da elasticidade linear, onde são feitas as deduções das Equações de Compatibilidade, Equilíbrio e as Leis Constitutivas, de modo a resolver numericamente o problema de Elasticidade Linear mencionado. O método de elementos finitos será implementado em freeFEM++ com auxílio do GMSH que é uma poderosa ferramenta com capacidade de gerar automaticamente malhas tridimensionais de elementos finitos e com relativa facilidade de pré e pós-processamento.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A presente dissertação analisa o conceito da acessibilidade e como ela pode ser implementada no planeamento de transporte. O principal objectivo deste trabalho é o estudo das acessibilidades rodoviárias regionais em Moçambique, através da utilização de um Sistema de Informação Geográfica (SIG). Acessibilidade refere-se à capacidade para alcançar bens e serviços, bem como actividades. Existem muitos factores que afectam a acessibilidade, incluindo a mobilidade (movimento físico), a qualidade da acessibilidade, as opções de transporte, a conectividade do sistema de transporte e os padrões de uso dos solos e de localização das próprias actividades. A acessibilidade pode ser avaliada sob várias perspectivas, como por exemplo tendo em conta o modo, a localização ou a actividade; hoje em dia, muitas vezes o planeamento convencional tende a esquecer e a depreciar alguns desses factores e perspectivas. Deste modo, uma análise mais abrangente da acessibilidade no planeamento alarga o âmbito das possíveis soluções para os problemas de transporte. Moçambique é um país com grande potencial de desenvolvimento a nível socioeconómico, nos anos vindouros. Para salvaguardar esse potencial de desenvolvimento necessita de garantir acessibilidades adequadas, com níveis de qualidade ajustados a esse desenvolvimento futuro. Para a realização das Análises de Acessibilidades, construiu – se um Modelo da Rede Rodoviária de Moçambique, que passou por muitas fases desde acertos na Topologia da Rede bem como a sua correcta calibração. As análises de acessibilidade efectuadas e as respectivas apresentações de resultados foram desenvolvidas com base num Sistema de Informação Geográfica (SIG). Para a elaboração das análises utilizou – se a população e o PIB. Com base nisto, foi possível determinar alguns Indicadores de Acessibilidade tais como: a Velocidade Equivalente Recta (VER), Indicador de Sinuosidade, Indicador de Gutierrez, e entre outros. Nos dias em que vivemos, ter uma acessibilidade geográfica aos serviços é importante. Por exemplo, ter uma escola ou um mercado próximos é um indício de uma adequada qualidade de vida, a qual pode ter sido baseada num adequado planeamento, de modo a proporcionar uma boa acessibilidade aos vários serviços. O modelo de Rede criado poderá eventualmente ser muito útil a longo prazo, pois contribuirá como uma base de apoio à decisão para a análise de alternativas de investimento rodoviário em função de objectivos associados a melhoria de acessibilidade. No entanto, este foi um dos valores cruciais do modelo criado, que infelizmente não foi possível desenvolver e explorar.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Introdução PARTE 1 - Noções gerais e metodologias de medição baseadas nos diferenciais 1.1. Noção de risco 1.2. Principais riscos na actividade bancária 1.3. Modelos de quantificação do risco da taxa de juro 1.4. Modelos para quantificar o risco de reinvestimento 1.5. O modelo de diferencial de duração (DD) 1.6. Modelos para quantificar o risco de preço 1.7. Diferencial de duração da situação líquida 1.8. Vantagens/desvantagens dos modelos de duração (resultado e situação líquida) 1.9. Perspectivas e conclusão sobre os Modelos de Diferencial de Fundos e Duração PARTE II - Conceito de VAR 2.1 A noção de VAR (Valor em Risco) 2.2 Conceitos-chave dos modelos VAR 2.3 Fórmula de cálculo da duração modificada 2.4 A importância da duração para determinar a sensibilidade da taxa de juro 2.5 A problemática da convexidade 2.6 O conceitos de volatilidade 2.7 A agregação dos riscos 2.8 O tratamento do VAR com a matriz de correlação do andamento das taxas de juro 2.9 Esquemas sequenciais de cálculo da volatilidade preço - taxa de juro e VAR PARTE III - Casos práticos de VAR 3.1 As relações entre as taxas a prazo (forward) e as taxas à vista (spot) 3.2 Desenvolvimento de um caso prático 3.3 Cálculo do diferencial de duração e do VAR aplicado à situação líquida 3.4 Admissão de pressupostos 3.5 Os diferentes VAR´s 3.6 A importância do VAR no contexto de gestão de risco numa instituição 3.7 Os modelos de simulação estática e dinâmica PARTE IV - Situações especiais 4.1 O tratamento dos FRA´s e futuros 4.2 O tratamento das opções 4.3 O tratamento dos swap´s taxa de juro 4.4 A aplicação do modelo VAR aos riscos taxa de juro e cambial 4.5 A utilização dos modelos VAR na afectação do capital (RAROC) 4.6 A análise da instruçaõ nº 19/2005 ANEXOS Anexo 1 - Instrução nº 19/2005: risco de taxa de juro da carteira bancária Anexo 2 - Instrução nº 72/96: Princípios orientadores para ocontrolo do risco da taxa de juro Anexo 3 - Anexo V do Aviso nº 7/96 Conclusão Índice dos Quadros Bibliografia

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Com o passar dos anos tem-se verificado uma reforma ao nível do sector eléctrico em muitas economias do mundo, o que aparenta apontar para um estabelecimento de mercados de energia eléctrica que favorecem o funcionamento competitivo das actividades de produção e comercialização. Foi seguindo esta tendência que surgiu o Mercado Ibérico de Electricidade. O presente trabalho de dissertação tem como propósito realizar uma análise estrutural do preço da energia eléctrica e desenvolver um modelo que permita realizar uma previsão diária, de esse mesmo preço. Numa fase inicial, através de um conjunto de métodos de análise quantitativos, pretende-se estudar o preço da energia eléctrica no Mercado Ibérico de Electricidade. Os métodos usados consistem na análise da correlação, análise de causalidade e análise em componentes principais. Com estes métodos, procura-se identificar quais as variáveis que provocam um maior impacto na definição do preço de mercado de energia eléctrica no Mercado Ibérico de Electricidade e identificar possíveis alterações de carácter estrutural. Numa fase posterior, tem-se como objectivo desenvolver um modelo que permita a previsão diária do preço da energia eléctrica. Existindo diversas técnicas para realizar a previsão do preço, optou-se, no presente trabalho, por usar os modelos função de transferência. Este é um método bastante abordado na realização de previsões do preço da energia eléctrica, a partir do qual se tem alcançado bons resultados (Conejo et al, 2004 e Nogales e Conejo, 2005). Verificou-se que, efectivamente, existiram alterações estruturais no preço da energia eléctrica. Numa fase inicial, este apresentava-se mais dependente com os preços dos combustíveis relacionados com a produção de energia eléctrica e, posteriormente, com os valores de produção de energia eléctrica. Relativamente à previsão, através do método utilizado para a realização da mesma, obtiveram-se bons resultados utilizando os valores de produção em regime especial e os valores de consumo de energia.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma abordagem sobre a conceção e execução de túneis que incide na metodologia de execução de galerias a céu aberto (mais conhecida pela designação utilizada na língua inglesa – cut and cover). Na primeira parte do trabalho é enquadrado o tema, introduzindo-se uma perspetiva sobre a sua evolução histórica, descrevem-se as principais metodologias adotadas na construção de túneis, afloram-se as vantagens e desvantagens de cada metodologia, abordam-se de forma sumária assuntos como a instrumentação utilizada no controlo da segurança na construção destas obras e empreendimentos envolventes assim como os benefícios obtidos com a construção deste tipo de obra. Numa segunda fase do trabalho abordam-se as principais práticas, critérios e normativas utilizadas no desenvolvimento de modelos estruturais que suportam as verificações de segurança na fase de projeto. Finalmente recorre-se a um estudo de caso para mostrar e discutir a aplicação prática de alguns dos critérios e normas antes referidos, bem como para verificar e discutir o estado de tensão de algumas das secções de referência da obra em análise, assim como correlacionar esse estado de tensão e de deformação com as diferentes soluções estruturais adotadas para a sua construção, nomeadamente a execução de cortinas de estacas ou taludes e banquetas na escavação.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Sumário da lição da unidade disciplinar de Gestão da Empresa Agrícola, apresentado no âmbito das provas públicas requeridas para a obtenção do título de agregado, 7 de Fevereiro de 2014.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Water covers over 70% of the Earth's surface, and is vital for all known forms of life. But only 3% of the Earth's water is fresh water, and less than 0.3% of all freshwater is in rivers, lakes, reservoirs and the atmosphere. However, rivers and lakes are an important part of fresh surface water, amounting to about 89%. In this Master Thesis dissertation, the focus is on three types of water bodies – rivers, lakes and reservoirs, and their water quality issues in Asian countries. The surface water quality in a region is largely determined both by the natural processes such as climate or geographic conditions, and the anthropogenic influences such as industrial and agricultural activities or land use conversion. The quality of the water can be affected by pollutants discharge from a specific point through a sewer pipe and also by extensive drainage from agriculture/urban areas and within basin. Hence, water pollutant sources can be divided into two categories: Point source pollution and Non-point source (NPS) pollution. Seasonal variations in precipitation and surface run-off have a strong effect on river discharge and the concentration of pollutants in water bodies. For example, in the rainy season, heavy and persistent rain wash off the ground, the runoff flow increases and may contain various kinds of pollutants and, eventually, enters the water bodies. In some cases, especially in confined water bodies, the quality may be positive related with rainfall in the wet season, because this confined type of fresh water systems allows high dilution of pollutants, decreasing their possible impacts. During the dry season, the quality of water is largely related to industrialization and urbanization pollution. The aim of this study is to identify the most common water quality problems in Asian countries and to enumerate and analyze the methodologies used for assessment of water quality conditions of both rivers and confined water bodies (lakes and reservoirs). Based on the evaluation of a sample of 57 papers, dated between 2000 and 2012, it was found that over the past decade, the water quality of rivers, lakes, and reservoirs in developing countries is being degraded. Water pollution and destruction of aquatic ecosystems have caused massive damage to the functions and integrity of water resources. The most widespread NPS in Asian countries and those which have the greatest spatial impacts are urban runoff and agriculture. Locally, mine waste runoff and rice paddy are serious NPS problems. The most relevant point pollution sources are the effluents from factories, sewage treatment plant, and public or household facilities. It was found that the most used methodology was unquestionably the monitoring activity, used in 49 of analyzed studies, accounting for 86%. Sometimes, data from historical databases were used as well. It can be seen that taking samples from the water body and then carry on laboratory work (chemical analyses) is important because it can give an understanding of the water quality. 6 papers (11%) used a method that combined monitoring data and modeling. 6 papers (11%) just applied a model to estimate the quality of water. Modeling is a useful resource when there is limited budget since some models are of free download and use. In particular, several of used models come from the U.S.A, but they have their own purposes and features, meaning that a careful application of the models to other countries and a critical discussion of the results are crucial. 5 papers (9%) focus on a method combining monitoring data and statistical analysis. When there is a huge data matrix, the researchers need an efficient way of interpretation of the information which is provided by statistics. 3 papers (5%) used a method combining monitoring data, statistical analysis and modeling. These different methods are all valuable to evaluate the water quality. It was also found that the evaluation of water quality was made as well by using other types of sampling different than water itself, and they also provide useful information to understand the condition of the water body. These additional monitoring activities are: Air sampling, sediment sampling, phytoplankton sampling and aquatic animal tissues sampling. Despite considerable progress in developing and applying control regulations to point and NPS pollution, the pollution status of rivers, lakes, and reservoirs in Asian countries is not improving. In fact, this reflects the slow pace of investment in new infrastructure for pollution control and growing population pressures. Water laws or regulations and public involvement in enforcement can play a constructive and indispensable role in environmental protection. In the near future, in order to protect water from further contamination, rapid action is highly needed to control the various kinds of effluents in one region. Environmental remediation and treatment of industrial effluent and municipal wastewaters is essential. It is also important to prevent the direct input of agricultural and mine site runoff. Finally, stricter environmental regulation for water quality is required to support protection and management strategies. It would have been possible to get further information based in the 57 sample of papers. For instance, it would have been interesting to compare the level of concentrations of some pollutants in the diferente Asian countries. However the limit of three months duration for this study prevented further work to take place. In spite of this, the study objectives were achieved: the work provided an overview of the most relevant water quality problems in rivers, lakes and reservoirs in Asian countries, and also listed and analyzed the most common methodologies.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A teoria da carteira de Harry Markowitz, originalmente publicada em 1952 no Journal of Finance, "Portfolio Selection", desenvolveu um método de solução geral do problema da estrutura das carteiras, que engloba o tratamento quantificado do risco. Propõe a determinação de um conjunto de carteiras eficientes empregando unicamente os conceitos de média para a rentabilidade que se espera obter e de variância (ou desvio padrão) para a incerteza associada a essa rentabilidade, e daí a denominação de média-variância à análise de Markowitz. Chamou também a atenção para a diversificação das carteiras, mostrando como um investidor pode reduzir o desvio padrão da rendibilidade da carteira através da escolha de acções cujas variações não sejam exactamente paralelas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dissertação de Mestrado em Ciências Económicas e Empresariais.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica na Área de Manutenção e Produção

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cada vez mais começa a notar-se, na indústria vitivinícola, uma grande preocupação com a qualidade dos seus produtos, motivada pela maior sensibilização e exigência dos consumidores. Deste modo, a presença de defeitos organoléticos no vinho representa uma fonte de perda financeira nesta indústria, pelo que o seu controlo se torna indispensável para que se obtenha um produto de elevada qualidade. Neste sentido, torna-se interessante desenvolver um método de análise que seja rápido de forma a permitir a quantificação simultânea das moléculas identificadas como principais responsáveis pelos distúrbios olfativos dos vinhos. Assim, este trabalho surge com o objetivo de implementar e validar um método para a determinação de contaminantes em vinho por microextração em fase sólida (SPME) e cromatografia gasosa acoplada à espetrometria de massa tandem (GC-MS/MS) e a sua correlação com a análise sensorial. A técnica de microextração em fase sólida é simples e rápida na medida em que não requer um pré-tratamento da amostra. Por sua vez, a análise por GC-MS permite identificar de forma clara os compostos em estudo, nomeadamente, 4-Etilfenol (4-EP), 4-Etilguaiacol (4-EG), 2,4,6-Tricloroanisol (TCA), 2,3,4,6-Tetracloroanisol (TeCA) e 2,4,6-Tribromoanisol (TBA). Foram realizados estudos de otimização das condições de extração, comparando as fibras 100 μm PDMS e 50/30 μm DVB/CAR/PDMS. Obtiveram-se resultados mais satisfatórios, em termos de resposta e da relação sinal/ruído, com a fibra 50/30 μm DVB/CAR/PDMS e estabeleceram-se como condições de extração 55ºC para a temperatura de incubação/extração, uma velocidade de agitação de 250 rpm e 60 minutos de tempo de extração. Ao longo deste trabalho, analisaram-se 50 amostras de vinho, das quais 48 eram amostras de Vinho Tinto do Douro e 2 de Vinho do Porto. Para validar a metodologia foram realizados estudos de linearidade, limiares analíticos, repetibilidade, precisão intermédia e recuperação. De um modo geral, obtiveram-se bons resultados ao nível da linearidade para as gamas de concentração escolhidas. Quanto aos limites de deteção e de quantificação, o 4-EP é o contaminante que apresenta uma gama de concentrações mais alta, notando-se limiares analíticos mais elevados, com valores próximos dos últimos níveis de concentração, oscilando entre 65 e 583 μg/L. No caso dos Anisóis, o TBA apresenta limites de deteção mais baixos, entre 0,4 e 17,0 ng/L. Os limiares analíticos foram validados com recurso a estudos de precisão intermédia e repetibilidade, cujos resultados se encontram dentro das especificações descritas no documento SANCO/10684/2009 (%RSD ≤ 30% para os Anisóis e %RSD ≤ 20% para os Fenóis Voláteis). Foram, ainda, realizados estudos de exatidão recorrendo a ensaios de recuperação e a ensaios interlaboratoriais. Muitas vezes conseguem-se boas recuperações, no entanto notam-se maiores dificuldades para o TBA e para o TeCA. Relativamente aos ensaios interlaboratoriais, verificam-se maiores discrepâncias para o 4-EP. Já os restantes contaminantes apresentam resultados, geralmente, satisfatórios (|z-score| ≤ 2).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização de Vias de Comunicação e Transportes