962 resultados para Método de linha detransmissão transversa
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
A reforma do Poder Judiciário revela um cenário de insatisfação com o serviço de prestação da tutela jurisdicional. Dentre várias possíveis incursões busca-se com a presente dissertação sustentar que a aplicação de método organizacional de registro das rotinas de trabalho em fluxograma tem potencial elevado para gerar relevante melhoria no tempo de duração do processo. Procedeu-se a explicação de como funciona a técnica de construção de fluxograma, bem como suas vantagens como método organizacional do processo de trabalho a fim de que o leitor tenha condições de bem compreender os trechos de fluxograma construídos. A fim de justificar o potencial do método com fluxogramas também foi realizada exploração de conhecimentos científicos sobre o funcionamento do cérebro humano, fazendo-se demonstração de que a linguagem simbólica do fluxograma melhor atende ao sistema de processamento de informações do cérebro e demonstrando quanto do atual sistema de comunicação tem limitado a evolução do trabalho nas atividades judiciárias e quanta melhoria pode o sistema proposto gerar. Em virtude do alto nível de detalhamento do fluxograma não é possível consolidá-lo numa página de livro, razão pela qual o fluxograma foi desmembrado em pequenos trechos para ser apresentado e explicado. O método desenvolvido foi aplicado na realidade diária de um Juizado Especial Cível durante quatro anos, desde a análise do sistema até as execuções e revisões finais das rotinas de trabalho criadas e registradas em fluxograma. Os resultados confirmaram a hipótese construída, vez que houve redução do tempo de trâmite processual, diminuição do número de processos, multiplicação da força de trabalho, dispensa de grandes esforços no treinamento de servidores e aumento de qualidade na realização de cada rotina de trabalho, sem que houvesse necessidade de investimentos financeiros com contratação de mão de obra ou aquisição de equipamentos. Fica evidente que o uso de fluxograma na gestão de uma unidade judiciária será tão importante para o planejamento quanto para uma execução eficiente e eficaz do serviço de prestação jurisdicional.
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.
Resumo:
Um dos debates dentro a temática ambiental concentra-se sobre o desenvolvimento de indicadores de sustentabilidade para monitorar, mensurar e avaliar a sustentabilidade do desenvolvimento. Neste contexto, o presente trabalho objetivou desenvolver um método de modelagem de um sistema de indicadores para avaliar a sustentabilidade do sistema dos recursos hídricos, propiciando a participação dos atores sociais e visando ter maior conhecimento do problema e legitimidade do processo da gestão dos recursos hídricos numa bacia hidrográfica. Para tal, adotou-se o paradigma construtivista e foram abordados três temas: gestão ambiental, sistemas de apoio à decisão e indicadores de sustentabilidade. Esta metodologia foi aplicada, através de um estudo de caso, na bacia hidrográfica do Rio dos Sinos. A proposta do sistema de indicadores congrega duas áreas de interesse: a primeira, na perspectiva dos objetivos privados - a sustentabilidade como fluxo de bens e serviços, que contempla 8 Clusters: abastecimento público, abastecimento industrial, irrigação, criação de animais, geração de energia elétrica, navegação, aquicultura, turismo e recreação; a segunda, na perspectiva dos interesses públicos - a sustentabilidade como estoque dos recursos hídricos, que contempla 4 Clusters: regime hidrológico, qualidade da água, estrutura "habitat", resíduos sólidos. Em suma, foram definidos um total de 238 indicadores básicos, alguns deles (88 indicadores) são partilhados entre os Clusters, mostrando a interação dos indicadores e dependência entre os Clusters setoriais do sistema de recursos hídricos. Em termos gerais, recomenda-se empregar esse método se o interesse for, além do resultado, sendo a proposta de um sistema de indicadores de sustentabilidade, também do processo de participação dos atores envolvidos para compreender a problemática dos recursos hídricos. Assim, a modelagem de um sistema de indicadores será feita sob as inter-relações da ciência, política e os valores e objetivos dos atores sociais.
Resumo:
Esta dissertação aborda a redução da variabilidade e a reduçaõ de perdas da má qualidade em um processo de corrugação de chapas de corpo de silos de grãos, através da utilização de Controle Estatístico do Processo (CEP). Foram analisadas e monitoradas as principais características e variáveis que influenciam o processo produtivo. Também foi proposto o uso de um item de controle igualmente chamado indicador de desempenho para permitir acompanhamento das perdas da má qualidade no mesmo processo, no Departamento de Produção, Setor Estamparia, da empresa GSI Group - Agromarau Indústria e Comércio Ltda. A dissertação apresenta uma revisão da literatura abordando assunto qualidade, custos da qualidade, indicadores de desempenho e Controle Estatístico do Processo. As ações de, monitoramento do processo, evolução de sistemas de inspeção de produto para sistemas de aprendizagem com o processo, medição das perdas da qulaidade, ação imediata sobre causas especiais e treinamento de operadores, analistas da qualidade e chefias, proporcionaram a redução da variabilidade e a redução das perdas da má qulaidade, através da implantação do CEP.
Resumo:
Este trabalho desenvolve um método numérico para a solução de escoamentos bidimensionais em torno de geometrias automobilísticas utilizando o método de diferenças finitas. O código computacional resolve as equações de Navier-Stokes e de Euler para uma distribuição adequada dos pontos discretos na malha. O método de integração empregado baseia-se no esquema explícito de Runge-Kutta de 3 estágios para as equações da quantidade de movimento e no de sub-relaxações sucessivas para a pressão na base Gauss-Seidel. Utilizou-se a técnica dos contornos virtuais em coordenadas cartesianas para resolver o escoamento sobre uma geometria simplificada, com a superfície coincidente com a malha computacional, e uma geometria automobilística mais complexa (BMW). Para a certificação da técnica empregada, optou-se pela utilização da teoria do escoamento potencial e pela comparação com dados experimentais encontrados na literatura e outros coletados em túnel de vento em escala reduzida. Houve dificuldade nesta comparação devido à falta de artigos relativos às simulações numéricas de escoamentos sobre automóveis e na aplicação da técnica dos contornos virtuais em geometrias complexas. Os resultados foram satisfatórios, com boas perspectivas para trabalhos futuros, contribuindo assim para o desenvolvimento da área.
Resumo:
Aduelas protendidas externamente utilizadas em pontes contrastam com as clássicas construções monolíticas, consistindo de “pequenos” segmentos pré-moldados protendidos por cordoalhas externas. Há muitas vantagens na utilização deste tipo de composição, como rapidez e versatilidade na construção, alto controle de qualidade e economia. No presente trabalho, discute-se uma formulação, baseada no método dos elementos finitos, para simular o comportamento de estruturas compostas por aduelas externamente protendidas. Esta formulação permite tanto a análise de situações de serviço, onde as seções permanecem completamente comprimidas, como também de situações últimas, onde se considera a abertura das juntas e a transferência de esforços através das mesmas. O modelo computacional utiliza dois procedimentos distintos, baseados em um modelo elasto-viscoplástico. No primeiro, determina-se a resposta da estrutura ao longo do tempo, considerando-se, nesta etapa, que o material possui comportamento viscoelástico. No segundo, busca-se a resposta da estrutura para um carregamento instantâneo, considerando-se o material com um comportamento elastoplástico. As juntas entre as aduelas são representadas através de elementos de contato unidimensionais. Os nós de cada elemento de contato coincidem com os nós do elemento de concreto que a ele foi associado.Um modelo de camadas superpostas é utilizado para representar o comportamento viscoelástico do concreto e da armadura protendida Para representar o concreto fissurado, utiliza-se um modelo de fissuras distribuídas, que leva em conta a contribuição do concreto entre fissuras. A armadura passiva é introduzida na análise através de um modelo incorporado e a armadura de protensão não aderente é disposta em elementos fictícios, paralelos aos elementos reais da estrutura. Para verificar a adequação do modelo computacional, compararam-se resultados numéricos com valores experimentais disponíveis na literatura.
Resumo:
Resumo não disponível.
Resumo:
Avaliar uma empresa nos dias de hoje é algo corriqueiro e relativamente fácil de ser feito, na maioria dos casos, quando a empresa se adequa as metodologias disponíveis. Este trabalho se propõe a avaliar uma empresa que possui características impares, dificultando o uso dos métodos mais tradicionais hoje em uso. A empresa Dreamworks Animation SKG, estúdio norte-americano especializado me produções áudio visuais em computação gráfica para o cinema, possui é caracterizada por possuir em sua maioria ativos intangíveis, tanto como matéria prima quanto produto final, são historias que se convertem em filmes animados por computador. Este cenário propicia algumas peculiaridades, como por exemplo, a dificuldade de previsão dados financeiros futuros, devido às receitas da empresa estarem fortemente ligadas ao sucesso e/ou fracasso das produções lançadas. Como se trata de conteúdo muito subjetivo, como tudo que é relativo à arte. O trabalho apontou a proposta de uma solução que permite certa confiabilidade na previsão de receitas geradas pelo lançamento de uma produção. Há uma forte relação entre a receptividade do lançamento em seus dias de estréia e o alto retorno gerado pelo mesmo, o que não acontece com a relação entre o custo da produção e seu sucesso nas bilheterias.
Resumo:
Este trabalho apresenta o estudo e projetação de uma sala de controle de uma central de geração de energia de uma mineradora do norte do Brasil. Foi utilizada a ferramenta participativa Design Macroergonômico (DM) para a identificação da demanda ergonômica de usuários, além da análise da representação mental que os usuários tem do seu ambiente de trabalho. Foi feita a comparação das demandas dos usuários, da gerência, da chefia e do especialista, o que mostrou que o usuário é quem melhor define as suas necessidades. A etapa de projeto foi embasada na revisão biliográfica sobre o trabalho de controle e no conhecimento da equipe multidisciplinar. Para avaliação e visualização das propostas elaboradas pelos participantes da pesquisa, foi utilizado uma maquete eletrônica que permitiu a visualização do ambiente futuro o mais próximo do real. A participação é um fator de sucesso na aprovação de mudanças pois o projeto está em vias de implantação.
Resumo:
A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.
Resumo:
Após a profunda crise financeira de 2008, houve um aumento do questionamento sobre os objetivos da Firma e a sua relação com os mercados financeiros. Existe um paradoxo entre a prática corrente de maximização da performance financeira de curto-prazo da organização, demandada pelos agentes financeiros aos executivos das empresas, e o próprio conceito financeiro de valoração da Firma., que considera como valor da Firma o valor presente dos fluxos de caixa futuros descontados. Portanto, segundo a proposição de maximização de valor, o objetivo da Firma é aumentar o seu valor total de longo prazo (JENSEN, 2000). É função primordial das estratégias de marketing, aí incluídos os investimentos em inovação (P&D), o objetivo de gerar crescimento e consistência de longo prazo do negócio, isto é, a ampliação dos ativos intangíveis para gerar ativos tangíveis. Norteado pela estrutura conceitual de Ativos base Mercado (SRIVASTAVA; SHERVANI; FAHEY, 1998), o presente trabalho busca contribuir para o tema, com uma proposição de métricas simples, adaptadas de índices de desempenho do setor varejo, o Ticket Médio Cliente (TMC) e o Lucro Ticket Médio Cliente (LTMC), que possam relacionar os investimentos em marketing e o valor da Firma através da variação da qualidade da base de clientes da empresa, que é a fonte de geração de receitas e parte dos ativos intangíveis. O estudo utilizou para os testes empíricos dados das seguintes empresas, com ações negociadas na Bovespa: Sadia e Perdigão, pertencentes ao setor de alimentos processados, de 1999 a 2010, e também as companhias aéreas TAM e Gol no período de 2004 a 2010. Os testes não foram conclusivos, devido a determinadas limitações dos dados, não permitindo provar ou descartar as hipóteses testadas. Porém a linha lógica e a simplicidade do método deveriam ser exploradas por estudos futuros, pois se confirmado e provado, forneceria uma ferramenta simples e objetiva de análise e comunicação por parte de todos os agentes envolvidos (executivos de marketing, diretores financeiros e presidentes, analistas de mercado e investidores), com relação à criação de valor de Ativos base Mercado (ativos intangíveis) que impactam o valor da Firma.
Resumo:
Este trabalho se propõe a testar a validade da hipótese da paridade câmbio-juro para o caso brasileiro e, posteriormente, a investigar a principal explicação apontada pela literatura para a falência da UIP, qual seja: a existência de um prêmio de risco cambial variante ao longo do tempo. A clássica abordagem das regressões de Fama, aplicadas para o período de livre flutuação cambial, sugere falência da hipótese em questão quando considerados contratos de NDF de doze meses sobre o real, identificando viés nos contratos futuros como estimadores da taxa de câmbio – não foi possível obter a mesma conclusão ao se trabalhar com contratos futuros de dólar de um mês negociados na BM&F. Feitas as regressões de Fama, replica-se ao caso brasileiro metodologia implementada por Clarida et. al. (2009) para os países desenvolvidos, na tentativa de capturar eventual relação entre a volatilidade e o excesso de retorno de uma estratégia de carry trade com o real. Em linha com os resultados obtidos pela experiência internacional, detecta-se correlação negativa entre a volatilidade e o excesso de retorno de tal estratégia. A partir de tal conclusão, revisitam-se as regressões de Fama para subperíodos, conforme a volatilidade. Períodos de maior volatilidade foram caracterizados por um incremento do coeficiente da regressão de Fama, novamente em um resultado alinhado àquele obtido por Clarida et. al. (2009). Esgotado o assunto circunscrito às regressões de Fama, passa-se à estimativa da série de prêmio de risco cambial propriamente dita, por meio da metodologia de Filtro de Kalman imposta à série de NDF de doze meses, a qual detectou um prêmio de risco cambial com média positiva na amostra considerada – em linha com a intuição -, mas com medidas de dispersão bastante elevadas. O estudo segue numa tentativa de modelar o prêmio de risco cambial através de um instrumental da família GARCH-M, sendo, entretanto, incapaz de prover boas estimativas para o comportamento da variável sob interesse. Inicia-se um novo capítulo com o intuito de introduzir microfundamentação ao prêmio de risco cambial, trazendo ao caso brasileiro método desenvolvido por Frankel (1982). A aderência da modelagem também foi baixa. Para terminar, apresenta-se investigação preliminar sobre a relação entre o prêmio de risco cambial e a presença de eventos considerados raros na série de PTAX, seguindo intuição levantada por Rietz (1988) e expandida por Barro (2005). A moeda brasileira carrega caráter leptocúrtico superior às demais componentes da amostra, indicando que, de fato, o prêmio de risco cambial exigido para se estar na moeda doméstica pode estar relacionado à recorrência de eventos supostamente raros.
Resumo:
Trade Credit (TC) é o crédito de curto prazo vinculado a venda de produtos cedido pelo fornecedor ao seu cliente sem a figura do agente financeiro. O objetivo deste estudo é testar se as empresas da América Latina (argentinas, brasileiras e mexicanas) substituem o crédito bancário pelo TC nos períodos de crise analisando por setores da economia e por tamanho de empresa. Foi utilizada uma amostra entre os anos 1994 até 2009 dos balanços de empresas listadas na bolsa de valores contendo ao todo 265 empresas com um total de 2.992 observações. Os dados em painel foram regredidos utilizando o método dos Efeitos Fixos. Evidências de que o TC é um substituto do crédito bancário foram encontradas para todas as pequenas empresas e para as pequenas empresas do setor de manufatura dos três países. Estes resultados estão em linha com a literatura internacional (Blasio, 2005). No entanto, não foram encontradas evidências do efeito de substituição para as grandes empresas mexicanas e brasileiras uma vez que estas empresas se utilizam de outras fontes de financiamento como o mercado de capitais, por exemplo. As empresas brasileiras concedem mais Trade Credit que recebem enquanto que as argentinas e mexicanas praticamente empatam em conceder e receber Trade Credit.