1000 resultados para Incerteza paramétrica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas,o interesse pelo gerenciamento do valor tem aumentado no setor da construção. Neste contexto,a geração de valor pode ser compreendida como o atendimento dos requisitos do cliente final.Tal atendimento, por sua vez, depende de como os requisitos são priorizados e comunicados para a equipe de projeto ao longo do processo de desenvolvimento do produto. O objetivo desta dissertação consiste em propor um conjunto de diretrizes para o gerenciamento dos requisitos do cliente no processo de desenvolvimento do produto edificio, de forma a estabelecer meios para capturar requisitos e controlar seu fluxo,em empreendimentos da construção. O método de pesquisa foi dividido em três etapas. Inicialmente foi realizada uma revisão bibliográfica. Em seguida, foi desenvolvido um estudo de caso em uma empresa que realiza empreendimentos habitacionais, o qual resultou em uma proposta inicial de diretrizes para a gestão dos requisitos do cliente, enfatizando contexto deste tipo de empreendimento. A terceira etapa envolveu a realização de um segundo estudo de caso em um empreendimento industrial realizado por uma empresa que atua com obras complexas, de curto prazo e com elevado grau de incerteza. Este estudo possibilitou um segundo ciclo de aprendizagem, resultando no conjunto final de diretrizes para a gestão dos requisitos do cliente, considerando também empreendimentos de obras industriais de execução rápida Ambos os estudos de caso envolveram otrabalho de equipes multidisciplinares durante o processo de desenvolvimentodo produto. Estas equipes incluíram ambas profissionais das construtoras envolvidas,bem como, projetistas, consultores, empreiteiros e representantes do cliente. As respectivas equipes realizaram diversas tarefas ao longo do empreendimento, tais como identificar o objetivo do empreendimento, planejar e controlar o processo de desenvolvimento do produto, formular um programa de necessidades tão completo quanto possível e considerar os requisitos do sistema de produção nas fases iniciais do processo de desenvolvimento do produto. As principais conclusões desta pesquisa estão relacionadas à introdução de uma sistemática para gerenciamento dos requisitos do cliente no desenvolvimento do produto e à aplicação de ferramentas para coletar dados e apoiar a tomada de decisão. Constatou-se que o uso de ferramentas relativamente simples para realizar a captura e controle do fluxo de requisitos do cliente teve um efeito positivo no processo de desenvolvimento do produto. O estudo também indicou a necessidadede realizar a gestão dos requisitos do cliente desde as fases iniciais de concepção dos empreendimentos da construção. Além disso, o estudo resultou em contribuições conceituais para a consolidação do conhecimento da natureza do processo de projeto, no que se refere à geração de valor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na protensão não aderente, a armadura permanece livre para se movimentar ao longo de seu perfil em todas as seções com exceção das de ancoragem. Não há aderência entre concreto e armadura, e a hipótese da compatibilidade de deformações entre o aço e concreto não é aplicável, tornando inviável o desenvolvimento de uma solução analítica. Visando colaborar para a maior compreensão do comportamento à flexão das estruturas com protensão não aderente e para o desenvolvimento de critérios nacionais de projeto, um modelo numérico foi implementado utilizando o elemento finito do tipo híbrido para pórticos planos. Nesta formulação, a equação para as solicitações ao longo do elemento é a função de interpolação, e as forças as variáveis interpoladas. Como esta função resulta das condições de equilíbrio, sem hipóteses arbitrárias, o método é considerado exato para forças e curvaturas. Elementos longos são possíveis, de maneira que um único elemento finito pode ser utilizado para um vão de viga ou pilar, reduzindo o esforço computacional. O caráter exato da formulação contribui para a boa modelagem dos cabos não aderentes, já que a tensão nestas armaduras depende das curvaturas de todas as seções do elemento. O modelo numérico proposto prevê a não linearidade geométrica, carregamentos cíclicos e a construção composta. Relações constitutivas já consolidadas na literatura são empregadas para os materiais. A cadeia de Maxwell é utilizada para representar o comportamento reológico do concreto e do aço de protensão, respeitando as características de envelhecimento de cada material. Inúmeros exemplos são apresentados, permitindo a comparação entre resultados numéricos e experimentais Uma análise paramétrica foi realizada, caracterizando o desempenho do modelo numérico frente a variações nos parâmetros de entrada. Discutem-se, ainda, dois critérios de ruptura para a utilização do modelo numérico no estudo do comportamento à flexão das estruturas com protensão não aderente. Os resultados indicam o bom desempenho do modelo numérico e a sua adequação para a realização de pesquisas sobre o assunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo produtivo das organizações hospitalares necessita acompanhar as exigências estabelecidas pelos novos paradigmas da sociedade. Frente a esse desafio e considerando a complexidade dessas organizações, torna-se fundamental o uso de sistemas de informações que consigam reduzir o nível de incerteza dos processos decisórios. Este trabalho tem como objetivo aperfeiçoar a função de controle da gestão hospitalar, através da aplicação do método de custeio baseado em atividades, ou ABC (Activity-Based Costing), que busca melhor compreender o processo produtivo, para avaliar e custear, dando subsídios para a melhoria da eficiência econômica. Foram acompanhados pacientes internados com câncer de esôfago da especialidade de Cirurgia Geral de um hospital universitário. O desenvolvimento contou com a análise dos processos, identificação dos recursos envolvidos, direcionadores primários e secundários, que permitiram a apuração do custo por paciente e a análise de valor agregado (AVA). Do processo de internação, o estudo identificou 9 subprocessos (Admissão, Anamnese e Exame Físico, Prescrição pré-cirúrgica, Prescrição pós-cirúrgica, Diagnóstico, Reavaliação médica, Operação Cirúrgica, Prescrição de alta e Suporte ao 18 leito). Para cada subprocesso, avaliaram-se quais recursos da estrutura do hospital foram empregados, de forma a quantificar a participação de cada um nos respectivos subprocessos, através dos direcionadores primários. Definidos os recursos e sua participação, a fase seguinte foi verificar em que medida os recursos foram empregados pelas atividades durante o atendimento ao paciente. A partir da análise de processos, as atividades foram identificadas, sendo estabelecido um indicador que mensurasse o uso da atividade pelo paciente, os direcionadores secundários. Os resultados indicam que o ABC oferece níveis de detalhamento do processo de prestação de serviço hospitalar mais elevados do que nos sistemas tradicionais de custos e consegue perceber melhor o uso dos recursos durante o atendimento, em conseqüência, auferindo o custo de cada paciente com maior precisão. Além disso, permite a análise de valor agregado de todo o processo produtivo, auxiliando a organização a atingir os objetivos e permitindo enfrentar em melhores condições as alterações no ambiente interno e externo. Na medicina é dito que cada paciente é um caso, porque, ainda que a ciência tenha avançado muito nos últimos anos, as características pessoais e as reações a cada ação médica encontram uma variabilidade muito grande. No ABC, cada paciente passa a ser um objeto de custo, que absorverá os recursos necessários à conduta a ser seguida, permitindo melhor avaliar e controlar o desempenho do processo produtivo e auxiliando no processo decisório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foi estudado o comportamento de fundações superficiais apoiadas em sistema de dupla camada, quando a superior é cimentada. O estudo consistiu-se de três etapas, chamadas de Etapa de Laboratório, Etapa Numérica e Etapa de Campo. Na Etapa de Laboratório foi verificada a viabilidade técnica de utilizar os resíduos industriais cinza pesada e cal de carbureto na estabilização de um solo residual de arenito botucatu. Estudou-se a reatividade da cinza pesada com a cal de carbureto, a influência da temperatura e do tempo de cura no desenvolvimento das reações pozolânicas, a influência de diferentes teores de resíduos na resistência à compressão simples, compressão diametral e durabilidade, objetivando definir uma mistura ótima e, ainda, o impacto ambiental da utilização da mistura ótima, através de ensaios de lixiviação e solubilização. Na Etapa Numérica foi estudado, através do Método dos Elementos Finitos, o comportamento de fundações superficiais apoiadas em dupla camada. O modelo utilizado para representar o comportamento do material cimentado e não-cimentado foi o elástico-plástico com critério de ruptura de Drucker-Prager e fluxo não-associado. Verificou-se, através de análise paramétrica, a influência da espessura da camada cimentada e do diâmetro da fundação, bem como a influência dos parâmetros dos materiais cimentado e não-cimentado na resposta carga x recalque de fundações superficiais. Na Etapa de Campo foram construídos aterros experimentais utilizando a mistura ótima determinada na Etapa de Laboratório e, sobre estes aterros, foram executados provas de carga de placas. A análise dos resultados obtidos nas três etapas levou às seguintes conclusões: é possível utilizar cinza pesada e cal de carbureto para estabilizar o solo residual de botucatu; o comportamento de fundações superficiais sobre solos cimentados é controlado pela relação espessura da camada cimentada diâmetro da fundação; os parâmetros ângulo de atrito e módulo de elasticidade da camada cimentada não influenciam os resultados de prova de carga; a ruptura da fundação é função de dois mecanismos progressivos, os quais são função das tensões de tração geradas na parte inferior da camada cimentada e das tensões cisalhantes existentes logo abaixo das bordas da fundação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Novas centrais térmicas utilizam carvão ROM (Run of mine) na sua alimentação. Sem o processamento do minério as flutuações de qualidade do carvão serão transferidas da mina para o consumidor final. Freqüentemente, contratos entre produtor-consumidor estabelecem limites pré-estabelecidos de parâmetros geológicos e tecnológicos como enxofre, cinzas e poder calorífico. Lotes de minério com qualidade fora dos limites estabelecidos podem ser rejeitados ou penalizados. O custo elevado dessas penalizações recomenda a homogeneização do minério ROM. As principais estratégias de homogeneização são as baseadas em técnicas geoestatísticas, as pilhas de homogeneização e as usinas de beneficiamento ou metalúrgicas. A estratégia de homogeneização baseada em técnicas geoestatísticas apresenta os menores custos de implementação, no entanto o conhecimento do depósito deverá ser fundamental. Tradicionalmente, essa estratégia de homogeneização utiliza um modelo de blocos gerado por um estimador tradicional, geralmente krigagem ordinária. A estimativa dos blocos por krigagem não considera a incerteza associada ao modelo geológico, não sendo adequada para prever flutuações locais Diferente da krigagem, os métodos de simulação geoestatística têm como objetivo reproduzir a variabilidade in situ e a continuidade espacial dos dados originais. Uma vez que os teores e sua variabilidade são estimados, flutuações da qualidade do minério podem ser previstas para determinada rota de lavra e certo tamanho de lote entregue ao consumidor. Diferentes tamanhos de lote são testados a fim de obter-se o controle das flutuações da qualidade do minério. Este trabalho apresenta um procedimento para acessar a variabilidade dos teores e predizer a sua flutuabilidade para diferentes tamanhos de lote em um estudo de mineração subterrânea de carvão no sul do Brasil. Simulação geoestatística e planejamento de lavra apropriado proporcionam uma solução para o problema de homogeneização de minérios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os mercados internacionais de capital cresceram dramaticamente desde meados da década de 60. Embora reflitam parcialmente as economias em expansão, o aumento do comércio mundial e a globalização da produção, os movimentos internacionais de capital envolvem também fatores puramente financeiros que se propagam com velocidade perceptivelmente maior. Assim, ainda que tenham permitido o alívio das restrições financeiras impostas pela crise da dívida dos anos 80, e melhorado os índices de eficiência e alocação de capital para o conjunto das economias da América Latina, os volumosos influxos financeiros também suscitaram preocupação em razão de seus efeitos sobre a estabilidade macroeconômica, a competitividade do setor exportador e as políticas de crescimento e desenvolvimento sustentado dessas economias. Neste contexto, aos policymakers, através do adequado gerenciamento das políticas micro e macroeconômicas, recai, em última instância, a responsabilidade em minimizar eventuais condições de desajuste estrutural e conseqüente incerteza, visto que ingressos elevados e repentinos de capital podem causar instabilidade mediante crescimento rápido do consumo, inflação crescente, valorização da taxa de câmbio real e déficits cada vez maiores de conta corrente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em planejamento de lavra, freqüentemente as campanhas de sondagem são complementadas por falta de segurança nas estimativas. Na maioria dos casos, essas sondagens adicionais são locadas sem o uso de qualquer procedimento matemático que indique os locais mais carentes de informação. Essa dissertação propõe uma metodologia fundamentada em simulação estocástica para tratar esse problema. Com a utilização desse método, é possível que seja considerada a variabilidade entre as informações, além da configuração espacial apresentada. Essa metodologia permite gerar várias estimativas equiprováveis do atributo em questão, reproduzindo o histograma e o variograma das informações originais. A variabilidade apresentada pelos conjuntos de n valores equiprováveis, em cada bloco discretizado da jazida, é medida por meio do cálculo de índices de incerteza. Esses índices são calculados após o processo de simulação estocástica por meio da compilação das n estimativas realizadas para cada bloco. Os índices de incerteza considerados nessa dissertação são: (i) variância condicional; (ii) coeficiente de variação condicional e (iii) intervalo entre quartis. A partir da classificação desses índices de incerteza, são identificados os setores que apresentam as maiores variabilidades em suas estimativas. Com essa classificação é possível a confecção de mapas de incerteza que auxiliam na visualização dos setores/blocos mais variáveis da jazida Nesses setores, são adicionadas informações oriundas da escolha aleatória de um dos n valores equiprováveis disponíveis para cada bloco simulado. Por meio dos índices de incerteza e de acordo com a metodologia, são propostas informações adicionais na área considerada, que contribuem na diminuição das incertezas globais e locais. Essa metodologia usa técnicas extremamente robustas, com embasamento teórico muito consistente, atacando diretamente os setores/blocos que apresentam as maiores flutuabilidades nas estimativas. Um estudo de caso em uma jazida de carvão verifica a aplicabilidade do método. Esse estudo, considera a variabilidade nas estimativas de espessura de uma camada carvão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A divisão do processo de planejamento e controle da produção (PCP) em diferentes níveis hierárquicos é um dos mecanismos básicos para lidar com a incerteza. Por outro lado, a falta de integração entre estes níveis é apontada como uma dos obstáculos mais importantes à eficácia deste processo, uma vez que dificulta que as decisões tomadas nos diferentes níveis gerenciais sejam consistentes entre si. Este problema é particularmente importante em empreendimentos de construção, os quais, em função de sua complexidade e da incerteza envolvida, em geral requerem freqüentes modificações nos planos, podendo estas ser consideravelmente trabalhosas. O objetivo geral do presente trabalho consiste em propor diretrizes para a interligação do processo de planejamento e controle nos níveis de longo, médio e curto prazo, através da utilização de pacotes computacionais tradicionais, assim como contribuir para a consolidação e refinamento do modelo de PCP proposto por Formoso et al. (1999). O trabalho realizado foi dividido em três grandes etapas. A primeira delas compreendeu a realização de uma pesquisa bibliográfica. A segunda etapa consistiu no desenvolvimento de dois estudos de caso, realizados em empresas de construção do Estado da Bahia, uma delas atuante nos mercados de obras públicas e a outra em incorporações imobiliárias para a classe média-alta. Por fim, na terceira etapa foram analisados os resultados e propostas as diretrizes para a interligação dos diferentes níveis do PCP Entre as conclusões, pode-se destacar que a eficácia dos planos produzidos em pacotes computacionais depende fortemente da existência de um plano de ataque da obra, o qual deve ser discutido com a gerência da produção e explicitado graficamente, de forma a aumentar a transparência de processos. Quando o plano de longo prazo não é elaborado adequadamente, levando em conta as reais necessidades da gerência de produção, o esforço despendido na realização de alterações tende a ser muito grande, dificultando a utilização deste plano para controle em tempo real. O estudo também sugere um conjunto de indicadores que permitem avaliar o cumprimento de prazo e a aderência entre planos de diferentes níveis gerenciais. Estes indicadores são obtidos com relativa facilidade, a partir da utilização do pacote computacional MSProject. Finalmente, o estudo oferece algumas contribuições relativas a critérios para a definição de pacotes de trabalho, à medida que os planos necessitam serem detalhados nos níveis de médio e curto prazo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo principal demonstrar uma nova metodologia que utilizará um motor automotivo adaptado a um módulo experimental onde será possível realizar-se medições da intensidade de detonação, e a partir desses valores determinar a octanagem dos combustíveis ensaiados, sendo este um método que oferece uma nova alternativa de baixo custo se comparado aos métodos tradicionais que utilizam motores CFR (Co-operative Fuel Research) fabricados pela Waukesha para determinação da octanagem dos combustíveis. O módulo experimental é composto por um motor automotivo acoplado a um freio eletromagnético e por sensores instalados em pontos estratégicos do motor que informam, em tempo real, os valores dos parâmetros de funcionamento do mesmo. A octanagem, para ser medida, a exemplo do que ocorre nos motores CFR, depende da ocorrência de detonação que é provocada durante a realização dos ensaios para que o valor de sua intensidade e o valor dos demais parâmetros de funcionamento do motor neste instante possam ser registrados. Para que pudesse ocorrer detonação em baixa rotação fez-se necessário à alteração do volume da câmera de combustão do motor utilizado, a fim de aumentar sua taxa de compressão e favorecer o aparecimento do fenômeno Durante a realização dos ensaios, no módulo experimental, utilizaram-se dois computadores para monitorar os parâmetros de funcionamento do motor e armazenar as informações adquiridas a partir da placa de aquisição de dados que transforma os sinais analógicos dos sensores em informações digitais, as quais serão utilizadas nos cálculos e na construção de gráficos para análise dos resultados do experimento. Após realizar-se os ensaios utilizando-se combustíveis de referência com diferentes valores de octanagem, foi possível determinar a exatidão dos resultados obtidos pelo método proposto comparando-os com os valores obtidos no motor CFR, sendo que o módulo experimental permitiu medir os valores de octanagens com uma incerteza de ± 1,66 octanas em um intervalo de confiança de 95,45%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tradicionalmente, pesquisa na área de metodologia da Ciência Econômica consiste em estudar as implicações de teorias epistemológicas para Economia, sem se preocupar muito com que os economistas realmente fazem. Uma abordagem mais moderna procura lançar um olhar mais reflexivo sobre atividade dos economistas. Isto é, parte-se do que os economistas realmente fazem e, depois, empreende-se uma análise filosófica. Neste contexto, formação filosófica conhecimento teórico possuem mesma importância para produção científica em Metodologia. Adicionalmente, cumpre notar que são poucos os trabalhos que procuram analisar as contribuições mais recentes Teoria Econômica, lançando olhar da Metodologia para fronteira da ciência. Assim, novas correntes novas áreas da Economia carecem de uma avaliação epistemológica, ainda que vaga preliminar. escolha de temas já consagrados pode ser explicada pela segurança de explorar, sob um ponto de vista metodológico, um corpo de conhecimento científico coeso pouco mutável. Desse modo, análise não corre grande risco de se tornar anacrônica ou de ser parcial. Por outro lado, esquecimento da fronteira do conhecimento desvia atenção da relação entre processo de construção da teoria e a comunidade científica. risco da escolha de um tema mais de vanguarda é a superação da análise rapidamente pelo tempo, superfícialidade por falta de elementos mais sedimentados os erros de julgamento a respeito do que relevante. Apesar disso, os frutos de uma aventura no terreno movediço do saber econômico parecem mais que compensar eventuais pecados na análise metodológica dos temas considerados. Um outro ponto importante forma com que os temas vinculados tradição Neoclássica são tratados, no Brasil, pelos metodologistas da ciência econômica. Com efeito, existem trabalhos sobre Equilíbrio Geral Arrow-Debreu, todavia muito poucos procuram incorporar elementos tais como incerteza, dinâmica, formação de expectativas, os quais robustecem aproximam Modelo tradicional Arrow-Debreu da realidade. Assim, ao considerar apenas Teoria de Equilíbrio Geral Estática já consagrada, muitas críticas metodológicas perdem sua força quando observação feita um nível mais abrangente, considerando as contribuições mais modernas. presente trabalho uma contribuição Metodologia, todavia procura responder às críticas esboçadas nos parágrafos precedentes. De fato, trata-se de uma análise metodológica que toma como ponto de partida contribuições próximas fronteira do conhecimento, que estão vinculadas tradição Neoclássica, sem contudo constituir uma Teoria de Equilíbrio de Mercados. De resto, trabalho faz um pouco de História do Pensamento recente ao escolher Ronald Coase como fio condutor da exposição, além de conter algumas resenhas dos temas considerados. trabalho toma forma de três ensaios. primeiro se concentra na obra de Ronald Coase,e usa arcabouço da Indeterminação de Sênior para avaliar contribuição deste pensador para Economia. segundo consiste numa resenha seletiva das modernas contribuições Teoria da Firma, qual usada como elemento para construção de uma análise metodológica, que busca estabelecer as conexões entre trabalho pioneiro de Coase sobre natureza da firma, e as contribuições posteriores esse tema. questão saber qual influência das concepções de Ronald Coase sobre trabalhos posteriores que buscam explicar que firma. possível estabelecer uma relação de continuidade entre as idéias originais de Coase esses desdobramentos posteriores? Quais os limites dessa relação? Até que ponto as contribuições mais novas sobre teoria da firma descendem de Coase terceiro ensaio realiza uma exposição sumária de três Modelos na área da Economia das Instituições Jurídicas ("Law and Economics"), onde Coase também foi um pioneiro, em seguida, usando os modelos como exemplos estilizados, procura discutir forma como as instituições estão sendo incorporadas Teoria Econômica, suas implicações para relação entre Economia outras Ciências Sociais. guisa de conclusão, vale enfatizar convicção de que pesquisa em Metodologia da Ciência um terreno rico, desde que foco de análise fique mais abrangente procure avaliar não só os fundamentos as Teorias já consagradas como também novas áreas, novas abordagens contribuições de ponta, as quais, efetivamente movimentam Pesquisa em Economia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos problemas de Dinâmica em Economia se encaixam dentro de uma estrutura de modelos de decisão seqüencial, sendo resolvidos recursivamente. Programação Dinâmica uma técnica de otimização condicionada que se encarrega de solucionar problemas desse tipo. Esse trabalho tem como objetivo apresentar uma resenha dos principais resultados teóricos em Programação Dinâmica. Os métodos da Programação Dinâmica são válidos tanto para problemas determinísticos como para os que incorporam variável incerteza. esperada objetividade de uma dissertação de Mestrado, no entanto, nos impediu de extender análise, deixando assim de considerar explicitamente neste trabalho modelos estocásticos, que teria enriquecido bastante parte destinada aplicações Teor ia Econômica. No capítulo desenvolvemos instrumental matemático, introduzindo uma série de conceitos resultados sobre os quais se constrói análise nos capítulos subsequentes. Ilustramos tais conceitos com exemplos que seguem um certo encadeamento. Nas seções 1.1 1.2 apresentamos as idéias propriedades de espaços métricos espaços vetoriais. Na seção 1.3, prosseguimos com tópicos em análise funcional, introduzindo noção de norma de um vetor de espaços de Banach. seção 1.4 entra com idéia de contração, Teor ema do Ponto Fixo de Banach e o teor ema de Blackwell. O Teorema de Hahn-Banach, tanto na sua forma de extensão quanto na sua forma geométrica, preocupação na seção 1.5. Em particular, forma geométrica desse teorema seus corolários são importantes para análise conduzida no terceiro capítulo. Por fim, na seção 6, apresentamos Teorema do Máximo. Ao final deste capítulo, como também dos demais, procuramos sempre citar as fontes consultadas bem como extensões ou tratamentos alternativos ao contido no texto. No capítulo II apresentamos os resultados métodos da Programação Dinâmica em si seção 2.1 cuida da base da teoria, com Princípio da Otimal idade de Eellman e a derivação de um algoritmo de Programação Dinâmica. Na seção 2.2 mostramos que esse algoritmo converge para função valor ótima de um problema de horizonte infinito, sendo que esta última satisfaz chamada Equação de Bellman. seção seguinte se preocupa em fornecer caracterizaçBes para função valor mencionada acima, mostrando-se propriedades acerca de sua monotonicidade concavidade. seção 2.4 trata da questão da diferenciabi idade da função valor, que permite se obter alguns resultados de estática Cou dinâmica} comparativa partir da Equação de Bellman. Finalmente, na seção 2.5 apresentamos uma primeira aplicação Teoria Econômica, através de um modelo de crescimento econômico ótimo. No capítulo III introduzimos uma outra técnica de otimização Programação Convexa- mostramos dificuldade em se tentar estabelecer alguma relação de dominância entre Programação Dinâmica Programação Convexa. Na seção 3.2 "apresentamos os Teoremas de Separação, dos quais nos utilizamos na seção seguinte para demonstrar existência de Multiplicadores de Lagrange no problema geral da Programação Convexa. No final desta seção dizemos porque não podemos inferir que em espaços de dimensão infinita Programação Convexa não pode ser aplicada, ao contrário da Programação Dinâmica, que evidenciaria uma dominancia dessa última técnica nesses espaços. Finalmente, capítulo IV destinado uma aplicação imediata das técnicas desenvolvidas principalmente no segundo capítulo. Com auxílio dessas técnicas resolve-se um problema de maximização intertemporal, faz-se uma comparação dos resultados obtidos através de uma solução cooperativa de uma solução não-cooperativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho apresentar uma visão de valoração do investimento alternativa tradicional de Net Present Value -Valor Presente Liquido. Esta visão alternativa inclui irreversibilidade, incerteza custo de oportunidade de se esperar para realizar investimento. Desta forma pode existir uma situação onde se tenha um projeto de investimento com NPV positivo mas que seja mais interessante esperar mais um período de tempo para realizar investimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A proposta deste trabalho é modelar o apreçamento de projetos de investimento na área da bioprospecção. Para isto, utilizamos a técnica de opções reais aplicada a um contrato sujeito a três tipos de incerteza: custos, Fluxos de caixa e a própria descoberta do ativo subjacente, no caso, o princípio ou composto biotecnológico. Dentro deste arcabouço, obtivemos expressões matemáticas para o valor instantâneo de um projeto em caso de sucesso e para o pay-o¤ de uma opção real de abandono. Através de simulações e análises de sensibilidade, mostramos que existe um período ótimo de concessão e que o valor da mesma, em conjunto com outros parâmetros do modelo, pode inibir o investimento sob o ponto de vista de um investidor privado.