867 resultados para MODELOS MATEMÁTICOS
Resumo:
Trata de uma proposta de mensuração de mercado de bens duráveis em nível municipal. O processo de modelagem assume que: a função deve ser determinada a partir do análise do estágio do produto em seu processo de difusão n o mercado, cada município é uma unidade representada p o r variáveis obtidas através d e dados secundários e os dados secundários a serem coletados podem determinados através d o conhecimento d o comportamento de compra do produto. No modelo, os resíduos sã o tratados como ferramenta estratégica mercadológica. É apresentada uma aplicação do modelo para condicionadores de ar
Resumo:
Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.
Resumo:
A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).
Resumo:
O presente trabalho tem como objetivos explicar os retornos do índice da Bolsa de valores de São Paulo, o IBOVESPA, no período após a implantação do Plano Real, iniciando-se por janeiro de 1995 e tínanzando-se em agosto de 1998, através de variáveis macroeconômicas, utilizando-se do ferramental proposto pelo "Arbitrage Pricing Theory", considerando trabalhos realizados no mundo, bem como as especificidades do mercado brasileiro e divulgar a teoria, suas premissas e vantagens à comunidade e ao mercado, a fim de estimular sua utilização, através do uso de variáveis de fácil acesso aos analistas.
Resumo:
Apresenta a Teoria de Opções como a melhor abordagem para integrar estratégia e finanças, pois esta considera as flexibilidades gerenciais (opção de postergar investimento, aumentar e contrair escala de produção, abandonar temporária ou definitivamente um projeto, etc.) e opções de crescimento existentes no projeto, assim como estabelece uma política ótima de investimento. Contém uma introdução da Teoria de Opções aplicada a ativos financeiros, mostrando porque é possível se trabalhar com o ambiente neutro ao risco. Realiza uma analogia entre Opções Reais e Opções Financeiras, mostrando algumas limitações para se empregar a Teoria de Opções a projetos de investimento. Apresenta, compara e exemplifica diferentes abordagens numéricas (modelo binomial, integrações numéricas e esquemas de diferenças finitas, etc.) para se quantificar opções reais. Analisa a avaliação de empresas sob a ótica de opções, e cita exemplos onde a aplicação da Teoria de Opções foi fundamental. Realiza considerações e apresenta modelos para lidar com opções múltiplas e estrutura de mercado da indústria.
Resumo:
As teorias sobre risco sistemático iniciadas em 1932 com Knight sempre buscaram determinar variáveis que pudessem explicar e determinar o nível de risco sistemático de um sistema financeiro. Neste sentido, este estudo propôs-se a investigar as variáveis que possam determinar o nível de risco sistemático de um país, utilizando um modelo de mercado para estimação de betas e regressões com dados em painel sobre uma base de dados de janeiro de 1997 a setembro de 2008 para 40 países. Utilizou-se como variáveis, o PIB, inflação, câmbio, taxa real de juros e concentração de mercado. Verificou-se que o modelo apresenta indícios que as variáveis utilizadas podem ser consideradas como determinantes do risco sistemático e ainda, que o nível de concentração de um mercado acionário pode determinar o nível de risco sistemático de um país.
Resumo:
Estima uma taxa de retorno dos investimentos corporativos e verifica a criação de valor aos acionistas para o período de 1988 a 1999. Avalia as fontes de recursos utilizadas pelas empresas, verificando a influência das mudanças ocorridas no cenário brasileiro referente ao maior acesso das empresas ao mercado internacional de capitais e à estabilização inflacionária. Dadas as imperfeições de mercado, foi testado o modelo "pecking order" contra o "tradeoff", de modo a obter melhor entendimento sobre as decisões de busca de recursos por parte das empresas do setor não financeiro, no Brasil
Resumo:
Analisa e compara, sob as óticas de acurácia e custo, os principais métodos numéricos (simulação de Monte carlo, métodos de diferenças finitas, e modelos baseados em lattice para precificação de opções financeiras, exóticas e reais. Aponta as situações onde cada método deve ser empregado, e apresenta os algoritmos necessários para implementação dos métodos numéricos na prática.
Resumo:
Pesquisas que integram as teorias de estratégia e opções reais sugerem que firmas podem ser vistas sob a perspectiva de um portfolio de oportunidades a serem capturadas no futuro, de forma que recursos, capacitações e processos organizacionais devem ser combinados visando a sua otimização. Firmas diferem entre si quanto a esta capacidade de otimização e esta heterogeneidade, adicionada aos efeitos de outros fatores, estão refletidos na variabilidade e no comportamento dinâmico do valor das opções de crescimento (vgo), tema central desta dissertação. A análise de decomposição de variâncias confirma um efeito firma preponderante, consistente com resultados obtidos em pesquisas prévias, e os resultados gerados pelos modelos de curvas latentes sob o enfoque de equações estruturais levam à conclusão de que tamanho importa, tem impacto estatisticamente significante sobre o intercepto e explica as diferenças cross section entre firmas do valor dos vgo’s observados no início do período de análise, enquanto que os efeitos do dinamismo da indústria são positivos e significantes e variam com o tempo de forma não linear. Entretanto, remanescem parcelas relevantes de variâncias não explicadas nos três parâmetros latentes que determinam as trajetórias de vgo ao longo do tempo, provavelmente devido aos impactos de fatores não observáveis e idiossincráticos às organizações.
Resumo:
Este trabalho revisa os principais métodos numencos utilizados para reproduzir o comportamento de um índice, implementa quatro desses modelos ao caso brasileiro (Índice Bovespa) e discute a aplicação e os pontos favoráveis e desfavoráveis de cada modelo. Em uma primeira etapa, a vantagem da. administração passiva e a potencialidade de uso de uma carteira espelho são descritas. Em seguida, os modelos de replicação existentes na literatura no tocante a suas respectivas hipóteses, suas derivações matemáticas e suas propriedades teóricas são apresentados. Após essa revisão, os modelos de replicação plena, de carteira de rrururna vanancia global, de Black e de minimização quadrática sem venda a descoberto são implementados. Os resultados são verificados sob os parâmetros de tracking errar, beta, R-quadrado e semelhança de série em relação à média e à variância. A conclusão é de que existem diferentes objetivos ao se replicar um índice e que, para cada um destes objetivos, diferentes abordagens ou ferramentas são adotadas. Por exemplo, o administrador que busca o retorno de um índice de mercado, deve conseguir os melhores resultados utilizando o modelo de replicação plena. Já para aquele que visa arbitragem de índice, através de ativos do mercado à vista, a recomendação é aplicar os modelos que utilizam a otimização quadrática para montar a carteira espelho.
Resumo:
O presente trabalho, além de pretender apresentar uma contribuição para o debate em torno do papel do Estado na economia, analisa algumas alternativas de organização e de eficiência econômica para o setor petróleo no Brasil, na hipótese de flexibilização do monopólio estatal.
Resumo:
A dissertação procura investigar a existência de uma transição Pareto-ótima PAYGO-FF. Inicialmente são apresentadas as questões mais importantes a serem tratadas. São apresentados os trabalhos da linha de teoria aplicada e os principais trabalhos empíricos sobre o tema. Finalizando, apresentam-se as conclusões com base na pesquisa efetuada
Resumo:
Nas últimas décadas, sistemas de suprimento de energia que utilizam recursos renováveis têm sido estudados e empregados como opção para o fornecimento de energia elétrica em comunidades isoladas em áreas remotas. Devido aos avanços da tecnologia fotovoltaica associada à diminuição de custos e maior conhecimento de seu desempenho, os sistemas fotovoltaicos apresentam-se como uma opção promissora. Neste trabalho apresenta-se o desenvolvimento de um programa computacional de dimensionamento e simulação de sistemas fotovoltaicos autônomos na linguagem de programação Visual Basic 5.0, chamado PVSize, capaz de propor, para uma certa configuração de sistema, o número de baterias e módulos com seu risco de déficit de energia. Este programa tem como finalidade facilitar a interação com o usuário, e poderá ser utilizado como uma ferramenta auxiliar no processo de escolha dos elementos do sistema e estabelecer a melhor configuração através de um acompanhamento anual com base horária dos parâmetros envolvidos. Estes elementos são caracterizados através da implementação de modelos matemáticos propostos por diferentes autores que descrevem o seu desempenho individual. A integração destes modelos através de uma metodologia apropriada levou ao desenvolvimento de um programa completo de dimensionamento e simulação de sistemas fotovoltaicos autônomos. O potencial energético solar é obtido a partir de informações das características climatológicas locais, utilizadas para gerar séries de dados de radiação a partir de modelos estatísticos O programa permite projetar sistemas de suprimento de energia elétrica que atenderão cargas comunitárias (iluminação pública e de escolas, bombeamento de água, refrigeração em centros de saúde, irrigação, telecomunicações, e mais) e cargas residenciais (iluminação, refrigeração, lazer, etc.) tornando-se uma ferramenta importante para o projeto de sistemas fotovoltaicos autônomos. A comparação dos valores obtidos através de PVSize e outros programas computacionais desenvolvidos por estabelecimentos conceituados na área apresentou uma ótima concordância. Desta forma fica demonstrada a adequação do PVSize para o dimensionamento e simulação de sistemas fotovoltaicos autônomos.
Resumo:
Há vários argumentos a favor da uniformidade das alíquotas. Um dos principais é associado com a complexidade administrativa que se caracteriza a imposição de inúmeras alíquotas com a complexidadeadministrativa que se caracteriza a imposição de inúmeras alíquotas. Um outro argumento a favor da implantação de uma alíquota uniforme está relacionado com considerações de eficiência. Neste caso, argumenta-se que a tributação seletiva de um imposto valor adicionado geraria uma discriminação dos diferentes tipos de bens e serviços ocasionando distorção no comportamento dos consumidores. No que tange ao princípio de equidade da teoria de finanças públicas, o argumento para uniformidade das alíquotas é de que todos os agentes pagariam o mesmo encargo do imposto, não havendo discriminação com os indivíduos que tenha uma preferência especial por bens que são fortemente tributados. Neste caso, o princípio de equidade está relacionado com o fato de que agentes com a mesma capacidade de pagamento pagam impostos de igual valor equidade horizontal
Resumo:
O trabalho aborda a relação entre a distribuição de riqueza (renda) e o crescimentoeconômico gerado por modelos teóricos consolidados. Atenção especial é dada a mecanismos endógenos de escolha consumo-poupança e a formalização explícita da evolução da distribuição de riqueza