885 resultados para Combinação Linear Ponderada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

We study the optimal “inflation tax” in an environment with heterogeneous agents and non-linear income taxes. We first derive the general conditions needed for the optimality of the Friedman rule in this setup. These general conditions are distinct in nature and more easily interpretable than those obtained in the literature with a representative agent and linear taxation. We then study two standard monetary specifications and derive their implications for the optimality of the Friedman rule. For the shopping-time model the Friedman rule is optimal with essentially no restrictions on preferences or transaction technologies. For the cash-credit model the Friedman rule is optimal if preferences are separable between the consumption goods and leisure, or if leisure shifts consumption towards the credit good. We also study a generalized model which nests both models as special cases.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We evaluate the forecasting performance of a number of systems models of US shortand long-term interest rates. Non-linearities, induding asymmetries in the adjustment to equilibrium, are shown to result in more accurate short horizon forecasts. We find that both long and short rates respond to disequilibria in the spread in certain circumstances, which would not be evident from linear representations or from single-equation analyses of the short-term interest rate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The literature has emphasized that absorptive capacity (AC) leads to performance, but in projects its influences still unclear. Additionally, the project success is not well understood by the literature, and AC can be an important mechanism to explain it. Therefore, the purpose of this study is to investigate the effect of absorptive capacity on project performance in the construction industry of São Paulo State. We study this influence through potential and realized absorptive capacity proposed by Zahra and George (2002). For achieving this goal, we use a combination of qualitative and quantitative research. The qualitative research is based on 15 interviews with project managers in different sectors to understand the main constructs and support the next quantitative phase. The content analysis was the technique used to analyze those interviews. In quantitative phase through a survey questionnaire, we collected 157 responses in the construction sector with project managers. The confirmatory factor analysis and hierarchical linear regression were the techniques used to assess the data. Our findings suggest that the realized absorptive capacity has a positive influence on performance, but potential absorptive capacity and the interactions effect have no influence on performance. Moreover, the planning and monitoring have a positive impact on budget and schedule, and customer satisfaction while risk coping capacity has a positive impact on business success. In academics terms, this research enables a better understanding of the importance of absorptive capacity in the construction industry and it confirms that knowledge application in processes and routines enhances performance. For management, the absorptive capacity enables the improvements of internal capabilities reflected in the increased project management efficiency. Indeed, when a company manages project practices efficiently it enhances business and project performance; however, it needs initially to improve its internal abilities to enrich processes and routines through relevant knowledge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We consider multistage stochastic linear optimization problems combining joint dynamic probabilistic constraints with hard constraints. We develop a method for projecting decision rules onto hard constraints of wait-and-see type. We establish the relation between the original (in nite dimensional) problem and approximating problems working with projections from di erent subclasses of decision policies. Considering the subclass of linear decision rules and a generalized linear model for the underlying stochastic process with noises that are Gaussian or truncated Gaussian, we show that the value and gradient of the objective and constraint functions of the approximating problems can be computed analytically.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A composição de equipes é um tema recorrente em diferentes áreas do conhecimento. O interesse pela definição das etapas e variáveis relevantes desse processo, considerado complexo, é manifestado por pesquisadores, profissionais e desenvolvedores de Sistemas de Informação (SI). Todavia, enquanto linhas teóricas, oriundas dos estudos organizacionais, buscam a consolidação de modelos matemáticos que reflitam a relação entre variáveis de composição de equipes e o seu desempenho, teorias emergentes, como a de Combinação Social, acrescentam novos elementos à discussão. Adicionalmente, variáveis específicas de cada contexto, que no caso dessa pesquisa é a educação executiva brasileira, também são mencionadas como tendo relevância para estruturação de grupos. Dado o interesse e a variedade de vertentes teóricas que abordam esse fenômeno, essa pesquisa foi proposta para descrever como ocorre a construção de equipes docentes e identificar as variáveis consideradas relevantes neste processo. Um modelo teórico inicial foi desenvolvido e aplicado. Dada a característica da questão de pesquisa, foi utilizada uma abordagem metodológica exploratório-descritiva, baseada em estudos de casos múltiplos, realizados em quatro instituições de ensino superior brasileiras, que oferecem cursos de educação executiva. A coleta e a análise de dados foi norteada pelos métodos propostos por Huberman e Miles (1983) e Yin (2010), compreendendo a utilização de um protocolo de estudo de caso, bem como o uso de tabelas e quadros, padronizados à luz do modelo teórico inicial. Os resultados desse trabalho indicam, majoritariamente, que: as teorias de Combinação Social e as teorias de Educação adicionam elementos que são relevantes ao entendimento do processo de composição de equipes; há variáveis não estruturadas que deixam de ser consideradas em documentos utilizados na avaliação e seleção de profissionais para equipes docentes; e há variáveis de composição que só são consideradas após o fim do primeiro ciclo de atividades das equipes. Com base nos achados empíricos, a aplicação do modelo teórico foi ajustada e apresentada. As contribuições adicionais, as reflexões, as limitações e as propostas de estudos futuros são apresentadas no capítulo de conclusões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quando a matriz de um sistema linear se encontra na forma escalonada reduzida por linhas é fácil escrever sua solução nesse sistema. Assim, esta videoaula explica como obter a solução geral apresentando as metodologias que serão usadas dependendo de cada caso e as maneiras distintas de achar uma solução geral de um sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho analisa soluções de controlo não-linear baseadas em Redes Neuronais e apresenta a sua aplicação a um caso prático, desde o algoritmo de treino até à implementação física em hardware. O estudo inicial do estado da arte da utilização das Redes Neuronais para o controlo leva à proposta de soluções iterativas para a definição da arquitectura das mesmas e para o estudo das técnicas de Regularização e Paragem de Treino Antecipada, através dos Algoritmos Genéticos e à proposta de uma forma de validação dos modelos obtidos. Ao longo da tese são utilizadas quatro malhas para o controlo baseado em modelos, uma das quais uma contribuição original, e é implementado um processo de identificação on-line, tendo por base o algoritmo de treino Levenberg-Marquardt e a técnica de Paragem de Treino Antecipada que permite o controlo de um sistema, sem necessidade de recorrer ao conhecimento prévio das suas características. O trabalho é finalizado com um estudo do hardware comercial disponível para a implementação de Redes Neuronais e com o desenvolvimento de uma solução de hardware utilizando uma FPGA. De referir que o trabalho prático de teste das soluções apresentadas é realizado com dados reais provenientes de um forno eléctrico de escala reduzida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como principal objectivo comparar os métodos propostos pelo Eurocódigo 2, através de uma análise paramétrica dos efeitos de segunda ordem em pilares de betão armado. Os métodos estudados foram o método simplificado baseado na Curvatura Nominal e o Método Geral. Através da comparação destes dois métodos verificou-se se o dimensionamento efectuado para o primeiro método é correcto e se encontra do lado da segurança. Para este efeito são analisado noventa e seis pórticos, onde setenta e dois são pórticos simples e vinte e quatro são pórticos parede. Todos os pórticos apresentam uma estrutura simples, constituída por dois elementos verticais, pilar ou parede, e um elemento horizontal, viga. Os noventa e seis pórticos são divididos em dois grupos. Um grupo em que a ligação entre pilar viga é rotulada e o outro grupo onde a ligação é rígida. Dentro de cada grupo é definido oito conjuntos de pórticos cuja diferença reside na percentagem de carga que cada um dos elementos verticais recebe, sendo estas características iguais para os dois grupos. Cada conjunto é constituído por seis pórticos em que é variada a esbelteza. Em todos os modelos analisados manteve-se as mesmas características de materiais e acções. Efectuou-se um primeiro dimensionamento através do método baseado na curvatura nominal, onde obteve-se os esforços e armaduras, que serão utilizados para a modelação no método geral. Este método geral, consiste numa análise não linear, e é efectuado num programa de análise não linear de elementos finitos, Atena. A modelação efectuou-se da seguinte forma: aplicou-se numa primeira fase a totalidade da carga vertical aplicada à estrutura de forma incremental, e quando esta atingiu a carga de dimensionamento, aplicou-se a carga horizontal também de forma incremental até ao colapso da estrutura. De acordo com os resultados obtidos, pode concluir-se que o dimensionamento efectuado pelo método simplificado está do lado da segurança, sendo em alguns casos em que possui pilares esbeltos demasiado conservativo, onde obteve-se mais 200% de carga horizontal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise do galgamento de estruturas portuárias não só é importante para a avaliação da segurança de bens, pessoas e equipamentos e das atividades junto a elas desenvolvidas, como também a nível económico e financeiro. A finalidade deste trabalho é a aplicação da metodologia desenvolvida pelo Laboratório Nacional de Engenharia Civil (LNEC) para a avaliação do risco de galgamento de estruturas portuárias ao Porto de Ponta Delgada, Açores, num período de dois anos (2011 e 2012), para cinco secções nele enquadradas. A metodologia desenvolvida ao longo desde trabalho apresenta como componentes essenciais a caraterização da agitação marítima a que estão sujeitas as secções em estudo e o cálculo do caudal médio de galgamento por metro linear de estrutura. Estas duas variáveis, inicialmente estudadas e indispensáveis neste trabalho, são obtidas com base em dados de agitação marítima em águas profundas fornecidas pelo modelo regional de previsão de agitação WAVEWATCH III, que, acoplado ao modelo espetral SWAN e ao modelo de declive suave DREAMS, permite a obtenção da agitação marítima incidente na entrada do porto e no seu interior, respetivamente. Os resultados do modelo SWAN são validados mediante uma comparação com dados medidos in situ pela boia ondógrafo localizada ao largo da zona em estudo. Os parâmetros de agitação marítima obtidos para as cinco secções em análise permitem determinar o caudal médio de galgamento, com recurso à ferramenta NN_OVERTOPPING, baseada em redes neuronais.Em seguida, como resultado da combinação entre os valores de probabilidades e de consequências associadas, quando ultrapassado um determinado caudal médio de galgamento admissível anteriormente estabelecido para cada zona em estudo, é obtido um grau de risco de galgamento para cada zona analisada, o que permite criar um mapa de risco que servirá de informação para o planeamento de operações e de futuras intervenções nessa envolvente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The consumption of energy on the planet is currently based on fossil fuels. They are responsible for adverse effects on the environment. Renewables propose solutions for this scenario, but must face issues related to the capacity of the power supply. Wind energy offshore emerging as a promising alternative. The speed and stability are greater winds over oceans, but the variability of these may cause inconvenience to the generation of electric power fluctuations. To reduce this, a combination of wind farms geographically distributed was proposed. The greater the distance between them, the lower the correlation between the wind velocity, increasing the likelihood that together achieve more stable power system with less fluctuations in power generation. The efficient use of production capacity of the wind park however, depends on their distribution in marine environments. The objective of this research was to analyze the optimal allocation of wind farms offshore on the east coast of the U.S. by Modern Portfolio Theory. The Modern Portfolio Theory was used so that the process of building portfolios of wind energy offshore contemplate the particularity of intermittency of wind, through calculations of return and risk of the production of wind farms. The research was conducted with 25.934 observations of energy produced by wind farms 11 hypothetical offshore, from the installation of 01 simulated ocean turbine with a capacity of 5 MW. The data show hourly time resolution and covers the period between January 1, 1998 until December 31, 2002. Through the Matlab R software, six were calculated minimum variance portfolios, each for a period of time distinct. Given the inequality of the variability of wind over time, set up four strategies rebalancing to evaluate the performance of the related portfolios, which enabled us to identify the most beneficial to the stability of the wind energy production offshore. The results showed that the production of wind energy for 1998, 1999, 2000 and 2001 should be considered by the portfolio weights calculated for the same periods, respectively. Energy data for 2002 should use the weights derived from the portfolio calculated in the previous time period. Finally, the production of wind energy in the period 1998-2002 should also be weighted by 1/11. It follows therefore that the portfolios found failed to show reduced levels of variability when compared to the individual production of wind farms hypothetical offshore

Relevância:

20.00% 20.00%

Publicador:

Resumo:

One of the main activities in the petroleum engineering is to estimate the oil production in the existing oil reserves. The calculation of these reserves is crucial to determine the economical feasibility of your explotation. Currently, the petroleum industry is facing problems to analyze production due to the exponentially increasing amount of data provided by the production facilities. Conventional reservoir modeling techniques like numerical reservoir simulation and visualization were well developed and are available. This work proposes intelligent methods, like artificial neural networks, to predict the oil production and compare the results with the ones obtained by the numerical simulation, method quite a lot used in the practice to realization of the oil production prediction behavior. The artificial neural networks will be used due your learning, adaptation and interpolation capabilities

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

An important unsolved problem in medical science concerns the physical origin of the sigmoidal shape of pressure volume curves of healthy (and some unhealthy) lungs. Such difficulties are expected because the lung, which is the most important structure in the respiratory system, is extremely complex. Its rheological properties are unknown and seem to depend on phenomena occurring from the alveolar scale up to the thoracic scale. Conventional wisdom holds that linear response, i.e., Hooke s law, together with alveolar overdistention, play a dominant role in respiration, but such assumptions cannot explainthe crucial empirical sigmoidal shape of the curves. In this doctorate thesis, we propose an alternative theory to solve this problem, based on the alveolar recruitment together with the nonlinear elasticity of the alveoli. This theory suggests that recruitment may be the predominant factor shaping these curves in the entire range of pressures normally employed in experiments. The proposed model correctly predicts the observed sigmoidal pressure volume curves, allowing us to discuss adequately the importance of this result, as well as its implications for medical practice

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The effects of the Linear Alkylbenzene Sulphonate (LAS) were evaluated on the mussel Perna perna (Linnaeus, 1758), using a cellular level biomarker. The Neutral Red Retention Time (NRRT) assay was used to estimate effects at cellular levels. Significant effects were observed for the NRRT assay, even in low concentrations. The effects at cellular level were progressive, suggesting that the organisms are not capable to recover of such increasing effects. Additionally, the results show that the levels of LAS observed for Brazilian coastal waters may chronically affect the biota.