958 resultados para Equação de onda


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ambiente de negócios vem passando por rápidas e intensas mudanças provocadas pelo fortalecimento da economia global, pela transformação de economias e sociedades industriais em economias de serviço, e pelo aparecimento da empresa digital. Estas alterações provocaram um aumento significativo da competição em todos os setores do mercado onde, fatalmente, nem todas as empresas conseguirão sobreviver. É em meio a este complexo cenário que as organizações vem, incessantemente, buscando alternativas para fazer frente a estes desafios. Um dos focos de maior atenção, neste contexto, é a gestão da cadeia de suprimentos. Afinal, a probabilidade de que uma organização seja bem-sucedida está diretamente relacionada com a sua competência e habilidade de administrar, ou participar ativamente da gestão, da rede produtiva na qual ela está inserida. Este fato faz com que o desempenho da empresa, quando observada sob a perspectiva da sua atuação como elo de uma cadeia, passe a ter valor estratégico. Por outro lado, ainda existe uma acentuada carência de modelos analíticos robustos que possam auxiliar tanto na avaliação do desempenho da cadeia de suprimentos e de seus elos, como também nas tomadas de decisões referentes à priorização de iniciativas que objetivem melhorias sistêmicas. O resultado, na prática, é que muitas decisões são tomadas com base na experiência, intuição ou fé, sem que as questões tenham sido objetivamente estruturadas e equacionadas. Este trabalho tem como objetivo principal identificar quais são os aspectos, tecnológicos e os relacionados à integração de processos interempresariais, que impactam no desempenho de uma empresa atuando como elo de uma cadeia de suprimentos. Utiliza-se, para tanto, a indústria brasileira de autopeças como campo de investigação para este estudo, dado que este setor está entre os que maior retorno poderia auferir de uma gestão eficiente de seus elos e da sua cadeia de suprimentos. São duas as principais contribuições desta pesquisa. A primeira é a proposição de um modelo teórico, a partir do qual se pode construir uma equação explicativa-preditiva que mensure o desempenho de uma empresa atuando como elo de uma cadeia de suprimentos. Já a segunda contribuição é a elaboração de um panorama sobre a atual situação da cadeia da indústria de autopeças, observada sob a perspectiva do desempenho de seus elos. Por fim, estudos futuros podem ser conduzidos em outras indústrias, incluindo o setor de serviços, usando o desenvolvimento teórico proposto nesta tese.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar do aumento recente de publicações sobre o tema, a área de gestão da cadeia de suprimentos (supply chain management - SCM) ainda carece de desenvolvimento teórico e de comprovação empírica de seus benefícios. A ausência de consenso sobre a definição de gestão da cadeia de suprimentos e de construtos claramente definidos e a falta de fundamentação teórica para os estudos publicados representam uma dificuldade para que a efetividade da estratégia sobre o desempenho das empresas possa ser comprovada por praticantes e acadêmicos. Os resultados dos poucos estudos empíricos também não são conclusivos em função de diferenças significativas nos desenhos de pesquisa. Fundamentado na teoria dos custos de transação, visão baseada em recursos e na visão relacional e na revisão dos estudos empíricos recentes, este estudo apresenta um modelo conceitual integrativo dos antecedentes e conseqüências de SCM. Usando modelo de equação estrutural, a partir de uma amostra de 103 empresas no Brasil, são testados empiricamente modelos alternativos de mensuração para os aspectos precursores de supply chain management e para o desempenho operacional. Os resultados não permitem afirmar que existe um construto multidimensional que antecede SCM, mas sugerem a existência de aspectos independentes e correlacionados, como benevolência, credibilidade, apoio da alta gerência e relacionamentos internos. A comparação dos modelos de desempenho operacional fornece evidências de que esse construto pode ser tratado como uma variável latente de segunda ordem, mas também pode ser analisado em suas dimensões de custo, qualidade, flexibilidade e tempo. A mesma técnica permite a análise das relações entre os antecedentes e as conseqüências da gestão da cadeia de suprimentos. Os resultados não forneceram suporte para identificar os fatores motivadores de SCM, mas evidenciaram o impacto dessa estratégia no desempenho operacional e em suas diferentes dimensões

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente pesquisa resultou na definição de um modelo de mensuração do Capital Intelectual, a partir do método proposto pelo Skandia Navigator (Edvinsson e Malone, 1998), da empresa sueca homônima do ramo de seguros e serviços financeiros, que de forma pioneira publicou seu Relatório de Capital Intelectual em 1995. Apresentado sob a forma de estudo de caso, o trabalho foi efetuado a partir dos dados da Converge - Tecnologias de Gestão, empresa de prestação de serviços de consultoria e treinamento. As informações utilizadas no modelo estudado foram estrategicamente selecionadas do Balanced Scorecard implementado na empresa, sendo consideradas como os elementos e fatores geradores de seu Capital Intelectual. No caso estudado, a equação de mensuração do Capital Intelectual foi adaptada com a introdução de pesos para os indicadores de desempenho, evidenciando a importância de cada um deles para a consecução das estratégias do negócio, segundo a prioridade definida pela alta direção, na busca de satisfazer as expectativas e necessidades de todas as partes interessadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação avalia o impacto da educação sobre a renda dos jovens no Brasil, seguindo a tradição de equações de determinação de salários. O trabalho difere dos trabalhos na área realizados no Brasil em quatro aspectos. Em primeiro lugar, Em primeiro lugar, o universo de análise está focado na população jovem brasileira, a qual ingressou recentemente no mercado de trabalho e nele permanecerá por muitos anos, o que traz informações sobre as características desse mercado para os próximos 25 a 35 anos. Além disso, ele difere porque introduz a qualidade do ensino como determinante dos rendimentos. Depois, porque adota um protocolo de imputação da qualidade da educação dos jovens para os quais não se tem informação sobre a qualidade da educação, de sorte a evitar viés de seleção. E, por fim, a dissertação contrasta com os estudos correntes no tema porque explora diferentes métodos de estimação dos retornos da educação e da qualidade do ensino. Além do método tradicional dos estimadores de OLS, este trabalho considera o uso de fronteiras estocásticas de salários. As estimativas foram feitas a partir de um modelo cross-section em dois estágios. No primeiro estágio, estimou-se a equação de determinação da probabilidade de um jovem entre 11 e 21 anos de idade estudar na rede pública ou na rede privada, escolas com diferenças qualitativas grandes no país. No segundo estágio, imputou-se um indicador de qualidade da educação dos jovens num modelo econométrico de determinação da renda dos jovens entre 16 e 25 anos de idade. O procedimento com imputação foi necessário simplesmente pelo fato de nas estatísticas brasileiras não haver informações sobre a qualidade do ensino adquirido pelos indivíduos. A análise permitiu mostrar que a qualidade da educação interfere de forma significativa na renda dos jovens, com grande impacto sobre os índices de desigualdade da distribuição de renda nessa faixa de idade. Também permitiu mostrar que existe um trade-off entre o retorno da e

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta discussão sobre análise do custo físico do trabalho em professoras de ginásticas sistematizadas em academias. Seus objetivos se determinaram em relatar o custo físico do trabalho de professoras de ginástica, sua percepção subjetiva de esforço durante a aula e mensurar o nível de dor sentido em vários segmentos com o uso da escala de Corlett. A fim de atingir esses objetivos, determinou-se estudo de literatura abrangendo os conceitos de carga de trabalho, custo físico, fadiga muscular e mental e rotas energéticas. As aulas de ginástica analisadas para facilidade de estudo foram divididas em três momentos: 0 ao 21 minuto, do 22 minuto ao 40 e do 41 ao 60 minuto, obedecendo a metodologia empregada na maioria das aulas, aquecimento, parte principal e relaxamento. Para determinar o custo físico de trabalho foi utilizada a classificação proposta por Apud (1987), a carga de trabalho foi estabelecido com o auxílio de equação específica, utilizando-se os valores de freqüência cardíaca de repouso, freqüência cardíaca de trabalho e idade, a escala subjetiva de esforço foi medida pela escala de Borg. A escala de Corlett, que se constitui em uma escala contínua para cada segmento do corpo com duas ancoras, foi utilizada para medir o nível de dor. A análise dos resultados apresentou um elevado custo físico do trabalho, nas três partes da aula e uma elevada carga de trabalho, esse resultado foi encontrado em todos os professores, classificando seu trabalho como extremamente pesado. O maior nível de dor apontado pelos professores esta nos membros inferiores (joelho, coxa, perna e tornozelo) seguidos por queixas de desconforto das regiões de ombros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral do presente trabalho foi a concepção e o desenvolvimento de um sistema compacto de floculação em linha, em escala semipiloto, com o aproveitamento da energia cinética do fluxo hidráulico para promover a agitação necessária à dispersão de um polímero floculante e a geração dos flocos ao longo de um reator tubular helicoidal. O sistema denominado de Reator Gerador de Flocos (RGF), foi desenvolvido para a geração de flocos aerados ou não (com o uso de um colóide de Fe(OH)3, como modelo) e uma poliacrilamida catiônica de alto peso molecular (Mafloc 490C). Foram testados 5 modelos diferentes de RGFs (variação no comprimento/volume) para a geração dos flocos em diferentes vazões de alimentação e foi selecionado o reator mais eficiente em termos de separação sólido/líquido. Os estudos de avaliação da eficiência de floculação do RGF foram realizados comparativamente através da caracterização dos flocos formados e do comportamento dos flocos numa etapa posterior de separação sólido/líquido. Nos ensaios de geração de flocos não aerados foram medidos o tempo de sedimentação, a turbidez do sobrenadante e o volume sedimentado em cone Imhoff. Ainda, análise fotográfica possibilitou a medição do tamanho dos flocos não aerados e através da correlação logarítmica com a massa dos mesmos, foi possível determinar a dimensão fractal (dF) destes flocos de Fe(OH)3. A eficiência na geração de flocos aerados no RGF com o emprego de microbolhas (diâmetros inferiores a 70 mm) foi avaliada através da velocidade de ascensão dos flocos em uma célula cilíndrica fixa à uma coluna de flotação posterior ao RGF. Estudos de caracterização do regime hidráulico do reator com o emprego de traçadores (azul de metileno) e a determinação do gradiente de velocidade (G) e do número de Reynolds (Re) foram realizados. A curva de resposta do traçador apresentou um pico intenso e estreito, no perfil de velocidade investigado (3L.min-1), caracterizando um fluxo do tipo pistão para o RGF. Ainda, um regime turbulento (Re > 5000) e um G de 1420 s-1 foram determinados. O RGF 3 (modelo 3, com 12m/1,2 L) apresentou a melhor eficiência na geração dos flocos, com e sem o emprego de microbolhas. Nos ensaios de sedimentação, os melhores resultados em termos de velocidade de separação foram obtidos nas seguintes condições experimentais: 4 L.min-1 de vazão de alimentação, 5 mg.L-1 de Mafloc 490C, atingindo velocidade da ordem de 19 m.h-1, turbidez residual de 1 NTU, e volume de sólidos sedimentáveis de 7 mL.L-1. As análises fotográficas permitiram estimar flocos com diâmetros num intervalo entre 400 e 2000 mm. A partir do emprego da equação de sedimentação para fluxo laminar de Stokes, foi constatado o decréscimo da densidade flocos de Fe(OH)3 com o aumento do tamanho dos mesmos, atingindo um valor médio de 1019 kg.m-3. Um dF de 2,98 foi obtido, caracterizando um floco esférico, de baixa porosidade e com estrutura densa. Os melhores resultados na velocidade de ascensão dos flocos aerados foram obtidos com os seguintes parâmetros: vazão de alimentação de 2 L.min-1, concentração de 5 mg.L-1 de Mafloc 490C, sendo obtidas velocidades na ordem de 112 m.h-1. Esses flocos aerados ascendem com velocidades equivalentes à bolhas com diâmetros entre 185 e 240 mm (D50 entre 30-70 mm para as microbolhas individuais e isoladas). A alta velocidade de separação sólido/líquido obtida nos estudos com flocos aerados comparativamente com os flocos não aerados mostram claramente a viabilidade de emprego das microbolhas na separação por floculação- flotação (flutuação). Os resultados obtidos permitem prever um elevado potencial de aplicação em nível industrial do RGF, principalmente por apresentar um baixo tempo de residência, ausência de partes móveis (agitadores), pequena área ocupada, uma mistura do tipo pistão (ideal para floculação), ausência de curto-circuitos ou zonas mortas e um crescimento uniforme com elevada cinética na geração dos flocos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação analisa o desempenho de longo prazo (36 meses após o evento)das fusões e aquisições em países latino-americanos. O estudo abrange um total de 429 eventos de fusão e aquisição anunciados entre os anos de 1994 a 2005, em sete países da América Latina (Brasil, México, Chile, Argentina, Peru, Colômbia e Venezuela), onde os mercados de capitais estão relativamente mais desenvolvidos. É utilizada uma abordagem em tempo calendário baseada no modelo de mercado CAPM, através do qual se calcula o alfa de Jensen, para estimar os retornos anormais de longo prazo. Há evidências claras de retornos anormais de longo prazo negativos e significativos para México e Argentina, enquanto para Chile observam-se retornos anormais de longo prazo positivos e significativos. Os demais países da região (Brasil, Peru, Colômbia e Venezuela) não apresentam retornos anormais de longo prazo significativamente diferentes de zero. Procura-se também analisar as amostras de eventos a partir de diferentes pontos de vista com o intuito de entender quais os possíveis determinantes do desempenho de longo prazo: forma de pagamento, atitude do comprador, transações locais versus internacionais, especialização versus diversificação, e ocorrência da transação dentro ou fora de uma onda de fusões e aquisições. Observam-se evidências de retornos anormais de longo prazo para as subamostras, mas não se registra um comportamento uniforme na amostra de países.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os investimentos são unanimemente considerados pelos economistas como o coração da economia. Entre as diversas variáveis que afetam os investimentos privados as mais estudadas são as formas de financiamento do déficit público que afetam o ambiente macroeconômico: colocação de dívida ou emissão monetária. Menos atenção tem sido dada às formas de gasto público que afetam o ambiente microeconômico das empresas: aumentos dos salários no setor público podem afetar os salários do setor privado com impactos negativos sobre a lucratividade das empresas e de seus investimentos; por outro lado aumentos dos investimentos públicos, principalmente em infra estrutura tendem a ter impacto oposto. Esta dissertação estimou o impacto destas diferentes formas de gasto público para os investimentos privados Brasil nos últimos 50 anos, utilizando um modelo de correção de erros. No longo prazo se confirmam as previsões microeconômicas: enquanto os investimentos públicos afetam positivamente o investimento privado, os salários do setor público afetam negativamente esta variável. Já no curto prazo apenas o investimento público e privado defasado permaneceram significantes, cujos coeficientes apresentam os mesmos sinas da equação de longo prazo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe a modelagem da paridade hedgeada de juros (HIP, hedged interest parity) – uma alternativa ao uso da paridade descoberta de juros (UIP, uncovered interest parity) que faz uso de opções sobre a taxa de câmbio e pode ser usada no estudo de um dos puzzles ainda não resolvidos na teoria econômica: a não ausência de viés no mercado futuro de câmbio como indicador das expectativas dos agentes. Através das pistas encontradas na revisão da vasta literatura disponível sobre o assunto e considerando a disponibilidade atual de dados sobre o mercado de opções – uma novidade recente - a HIP é proposta. A forma com que a modelagem usando opções se encaixa no framework tradicional é animadora do ponto de vista teórico: a HIP pode ser vista como uma forma genérica que, dependendo dos parâmetros escolhidos, converge para a CIP (covered interest parity) ou para a UIP (uncovered interest parity). Além disso, ela mitiga efeitos de duas das principais explicações tradicionais para as falhas dos testes da UIP, i.e. learning e peso problem, o que a torna potencialmente melhor do que esta como modelo para o estudo das paridades de juros. Mais importante do que isso, ela sugere uma forma funcional para o prêmio pelo risco cambial (PRC) que pode ser testada econométricamente. O ensaio também propõe e implementa um teste comparativo da HIP com a UIP com resultados animadores. Além do coeficiente do forward premium mudar para mais próximo do previsto pela teoria quando se troca a UIP pela HIP, o prêmio pelo risco cambial gerado pela modelagem da HIP apresenta resultados próximos aos previstos por Fama(1984). Isso permite concluir que a investigação do prêmio pelo risco cambial usando os dados do mercado de opções é um caminho fértil para pesquisa futura. O trabalho traz ainda conclusões importantes para a implementação de política monetária, uma vez que propõe a inclusão da volatilidade implícita do câmbio (via custos das opções) na equação de paridade de juros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação visa-se estudar e propor alternativas de solução para a proteção de estruturas e sistemas elétricos contra fogo numa unidade de craqueamento catalítico de uma refinaria de petróleo, por meio de proteção passiva. A proteção passiva tem por finalidade garantir a integridade das estruturas sujeitas a incêndio, durante um determinado período de tempo, para possibilitar, no caso da refinaria, a realização de procedimentos de parada da unidade de forma segura e controlar o incêndio a fim de diminuir a possibilidade de propagação do fogo para outras áreas. Com base em técnicas de análise de riscos fez-se a identificação de zonas potencialmente sujeitas a cenários de acidente envolvendo jato de fogo e/ou incêndio em poça. A delimitação das áreas onde haveria necessidade de proteção passiva foi realizada com base em modelos para jatos de fogo e incêndio em poça já estabelecidos na literatura. O dimensionamento da proteção passiva de estruturas e sistemas elétricos com o uso de diversos materiais usados comercialmente para este fim foi estimado com base em equações empíricas desenvolvidas por Jeanes, 1980, Stanzak, 1973 e PABCO, 1984, e, para alguns casos particulares foi feita uma verificação por solução numérica da equação da condução do calor em meio sólido.Assim, foram determinados quais os materiais mais adequados em cada caso de aplicação e qual a espessura em que deve ser aplicado para que a temperatura no elemento estrutural ou no sistema elétrico não atinja a sua determinada temperatura crítica em um período de tempo pré-determinado. Para os casos de elementos estruturais como colunas de sustentação da unidade de seção cilíndrica, o principal material para proteção passiva é a argamassa projetada e para perfil I, é o emprego de placas de gesso. Já para o caso de sistemas elétricos, podem ser utilizadas tanto tintas intumescentes quanto as mantas reforçadas com fibras minerais, esta escolha depende da geometria do sistema em que será empregado. Da comparação entre estes dois métodos pode-se concluir que o dimensionamento da proteção passiva fazendo o uso das correlações empíricas é menos conservativo que para o caso do uso da equação da difusão do calor resolvida por método numérico. Porém, os resultados diferem dentro de um limite considerado aceitável (em torno de 15%) levando-se em consideração os erros embutidos em cada método de cálculo. É importante mencionar que as correlações empíricas são de mais simples aplicação por possuir apenas operações matemáticas básicas. Usando as correlações empíricas para os perfis cilíndricos de aço (diâmetro de 0,1524 m e espessura de parede de 0,0254 m), a espessura de revestimento estimada com o uso das correlações empíricas necessária para garantir que a temperatura na interface entre os dois materiais não atinja 550°C em duas horas seria de 13,5 mm para argamassa projetada, 19,7 mm para vermiculita com silicato de sódio e 34,5 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Cabe ressaltar que com a realização desta dissertação busca-se uma integração entre o mestrado acadêmico e o meio empresarial com o desenvolvimento de trabalhos de natureza acadêmica que tenham aplicação direta na prática. Espera-se assim permitir que Universidade dê retorno à sociedade que a mantém e propiciar que setores da sociedade possam usufruir da capacidade disponível na academia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a montagem de uma instalação fotovoltaica de 4,8 kWp conectada à rede elétrica e uma análise experimental do seu comportamento, com o propósito de otimizar o fator de dimensionamento. Para fins de análise comparativa a instalação foi dividida em três subsistemas com arranjos de potências diferentes, os quais possuem fatores de dimensionamentos de 0,65, 0,73 e 0,86 (razão entre a potência nominal do inversor e a potência do gerador fotovoltaico), respectivamente para os subsistemas 1, 2 e 3. Cada subsistema possui um arranjo formado por dois painéis que utilizam módulos de 100 Wp/24 V, com células de silício monocristalino. Estes arranjos alimentam, de forma independente, três inversores senoidais monofásicos comutados pela própria rede e com potência máxima na saída de 1100 W cada um, caracterizando desta forma uma planta modular. O sistema de aquisição de dados monitora sistematicamente a instalação a uma varredura por minuto, a fim de se obter um acompanhamento ao longo do tempo e poder caracterizá-la. São monitoradas as tensões elétricas de cada painel de módulos e as suas correspondentes correntes, as tensões elétricas e as correntes alternadas, as potências elétricas contínuas e alternadas, a irradiância no plano do gerador, as temperaturas do ar ambiente, de um módulo do gerador e dos inversores. A metodologia de análise desta instalação consiste no monitoramento, na caracterização e na quantificação das medidas adquiridas, com a finalidade de determinar correlações que possam predizer a potência injetada na rede bem como a determinação da performance energética para dias típicos ensolarados, parcialmente nublados e encobertos. A divisão da instalação em três subsistemas permitiu caracterizá-los quanto aos seus comportamentos energéticos, além de possibilitar a análise de arranjos superdimensionados, os quais fornecem uma potência superior a máxima na entrada dos inversores, originando desperdício de energia nos momentos de elevada irradiância. O método desenvolvido para determinar a energia perdida na entrada dos inversores possibilitou avaliar o quanto se perde mensalmente nos subsistemas 1 e 2, uma vez que as perdas de captura e de sistema aumentam quando o arranjo está superdimensionado e isto significa uma redução na produtividade. Com as correlações encontradas para cada subsistema e com a equação geral foi possível predizer o quanto de energia pode ser injetada na rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo da história da humanidade, vários esforços foram feitos na tentativa de prever o futuro. Isto ocorreu como uma forma de antever possíveis situações e também de estabelecer mudanças de objetivos devido às alternativas apresentadas. Inúmeros questionamentos surgiram diante deste processo e inegavelmente estavam centrados no quesito “incerteza” dos eventos. E é exatamente neste contexto que surge a técnica prospectiva, que tem o propósito de analisar as incertezas e refletir sobre as suas alternativas de ação no presente e trata de aprimorar o entendimento de como o futuro pode acontecer. As opções de futuro se materializam através da sua descrição ordenada e consistente, ou seja, através de um cenário que é a delimitação de uma situação futura e da seqüência dos acontecimentos que permitem passar da situação de origem a essa situação futura. Assim, o objetivo desse trabalho é realizar um estudo prospectivo e longo prazo sobre a demanda de aços planos no Brasil, tendo em vista a importância da indústria siderúrgica brasileira e às incertezas a ela relacionadas e utiliza a análise prospectiva na elaboração de cenários passíveis de ocorrência. Portanto, trata, inicialmente, de aspectos conceituais da visão prospectiva e sua evolução histórica, abordando e focalizando a técnica proposta por Michel Godet, porém utilizando o método PROSPEX de Eduardo Marques para a elaboração de cenários da demanda de aços planos no Brasil. Diante disso, foram identificados dois cenários qualitativos contrastantes e posteriormente submetidos a um modelo macroeconômico de projeção, o Projetar_e, que, devidamente calibrado, indicou quantitativamente o nível de diversas variáveis econômicas e o desempenho futuro do Produto Interno Bruto (PIB). Como resultado, concluímos que há uma forte relação de causalidade entre o PIB e o consumo de aços planos e identificamos uma equação de regressão linear que permite a projeção da referida demanda. As conclusões ainda demonstram que os resultados dos cenários quantitativos identificados neste trabalho apresentam diferenças significativas em relação às estimativas efetuadas pelo Instituto Brasileiro de Siderurgia (IBS), cabendo, portanto uma reflexão sobre a plausibilidade da utilização de cenários de caráter projetivos para estudos de longo vii prazo, baseados em dados históricos que simplesmente extrapolam para o futuro a imagem do passado. Finalmente, recomendamos pesquisas adicionais para a formalização da integração de métodos qualitativos com métodos quantitativos de elaboração de cenários e a utilização de estudos prospectivos nas empresas participantes da cadeia de valor que utilizam o aço plano como matéria-prima essencial nos seus processos produtivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de um método analítico para determinação de Mg, Ti e Cl emcatalisadores suportados Ziegler-Natta (ZN) por espectroscopia de fluorescência de raios Xcom dispersão em comprimento de onda (WDXRF) foi avaliado. Três famílias decatalisadores com distintos teores de Mg, Ti e Cl foram utilizados. Para fins de comparação,os analitos foram também determinados por métodos clássicos, a saber, Mg porcomplexometria com EDTA, Ti por espectrofotometria e Cl por argentimetria. A naturezahigroscópica desses catalisadores impossibilitou a análise direta por WDXRF. Melhoresresultados na preparação da amostra foram obtidos através da calcinação (1000 0C), seguida de mistura com aglomerante (H3BO3), na proporção 1:4, para a determinação da razãoMg/Ti. O estudo do efeito da pressão sobre a intensidade do sinal analítico de Mg e de Ti evidencioua necessidade de prensagem das amostras em pressões superiores a 200 MPa. No caso de Mg e Ti, a determinação por Parâmetros Fundamentais (FP), a partir da medida da linha espectral do Ti, forneceu resultados equivalentes àqueles obtidos porcalibração univariada e por métodos clássicos. No entanto, a utilização de FP a partir damedida da linha espectral do Mg mostrou-se inadequada, provavelmente, devido ao baixo valor do número atômico do Mg. Nas três famílias de catalisadores ZN a razão Mg/Tiobservada foi 0,44 ± 0,01; 1,8 ± 0,05 e 4,9 ± 0,02. A determinação de Cl foi estudada através de extração em meio aquoso, seguida pordeposição de um alíquota da solução sobre diferentes suportes (filmes finos) e posteriorevaporação do solvente. Foram avaliados os suportes papel filtro quantitativo, membranasMillipore FHLC Teflon®, de difluoreto de polivinilideno, celulose, Nylon®, fita Kapton®(poliamida) e Mylar® (poliéster). Devido à natureza do Cl, houve perdas do elemento químicopor volatilização, durante as medidas, possivelmente devido ao vácuo e aquecimento daamostra dentro da câmara de análise do equipamento. A tentativa de fixação do Cl comoAgCl, seguida por deposição sobre a membrana Millipore FHLC foi considerada adequada.No entanto, a média dos resultados obtidos por WDXRF mostrou-se inferior quando comparada ao método argentimétrico utilizado como referência, para um nível de certeza de95%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A integração estocástica é a ferramenta básica para o estudo do apreçamento de ativos derivados1 nos modelos de finanças de tempo contínuo. A fórmula de Black e Scholes é o exemplo mais conhecido. Os movimentos de preços de ações, são frequentemente modelados - tanto teóricamente quanto empÍricamente - como seguindo uma equação diferencial estocástica. O livro texto de D. Duflle, "Dynamic asset pricing theory)) 1 usa livremente conceitos como o teorema de Girsanov e a fórmula de Feynrnan-Kac. U fi conhecimento básico da integração estocástica é cada vez mais necessário para quem quer acompanhar a literatura moderna em finanças. Esta introdução à integração estocástica é dirigida para alunos de doutourado e no final de mestrado. Um conhecimento sólid02 de continuidade, limites e facilidade de operar com a notação de conjuntos é fundamental para a compreensão do texto que se segue. Um conhecimento básico de integral de Lebesgue é recomendável. No entanto incluí no texto as definições básicas e os resultados fundamentais da teoria da integral de Lebesgue usados no texto.