997 resultados para Método da réplica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho de tese tem por objetivo ampliar o alcance e aplicação de mapas SODA, preservando a metodologia originalmente desenvolvida. Inicialmente é realizada uma revisão do método, abordando de forma conjunta os artigos seminais, a teoria psicológica de Kelly e a teoria dos grafos; e ao final propomos uma identidade entre construtos de mapas SODA com os conhecimentos tácitos e explícitos, da gestão do conhecimento (KM). Essa sequencia introdutória é completada com uma visão de como os mapas SODA tem sido aplicado. No estágio seguinte o trabalho passa a analisar de forma crítica alguns pontos do método que dão margens a interpretações equivocadas. Sobre elas passamos a propor a aplicação de teorias, de diversos campos, tais como a teoria de means-end (Marketing), a teoria da atribuição e os conceitos de atitude (Psicologia), permitindo inferências que conduzem à proposição da primeira tese: mapas SODA são descritores de atitudes. O próximo estágio prossegue analisando criticamente o método, e foca no paradigma estabelecido por Eden, que não permite conferir ao método o status de descritor de comportamento. Propomos aqui uma mudança de paradigma, adotando a teoria da ação comunicativa, de Habermas, e sobre ela prescrevemos a teoria da ação e da escada da inferência (Action Science) e uma teoria da emoção (neuro ciência), o que permite novas inferências, que conduzem à proposição da segunda tese: mapas SODA podem descrever comportamentos. Essas teses servem de base para o alargamento de escopos do método SODA. É proposta aqui a utilização da teoria de máquinas de estado finito determinístico, designadas por autômato. Demonstramos um mapeamento entre autômato com mapas SODA, obtendo assim o autômato SODA, e sobre ele realizamos a última contribuição, uma proposta de mapas SODA hierárquicos, o que vem a possibilitar a descrição de sequencias de raciocínio, ordenando de forma determinística atitudes e comportamentos, de forma estruturada. A visão de como ela pode ser aplicada é realizada por meio de estudo de caso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das grandes preocupações da academia na área de Estratégia Empresarial é a evolução das teorias das inovações disruptivas versus inovações incrementais. Dentro destas discussões encaixam-se as teorias que estruturam a linha das inovações tecnológicas versus as inovações que alteram os modelos de negócios. Mais complexo é o estudo das inovações que alteram tanto as tecnologias quanto os modelos de negócios não só de algumas empresas, mas de toda uma cadeia produtiva. Esta dissertação propõe um método de antecipação das consequências que sofrerão todos os agentes de uma cadeia produtiva sob efeito de inovações disruptivas. Para lidar com a complexidade desta antevisão usamos o instrumental de sistemas dinâmicos e o pensamento sistêmico. Como estudo de caso, estamos analisamos a implantação do cinema digital no Brasil, a qual afeta toda a cadeia do áudio visual no país. No nosso referencial teórico sobre inovação utilizamos um encadeamento, não totalmente linear cronologicamente, de teorias composto pelos os conceitos de diversificação, descontinuidades tecnológicas, descontinuidades estratégicas, inovações disruptivas, modelos duais, reações organizacionais, organizações ambidestras, verticalização versus integração das cadeias produtivas e harmonização de modelos mentais. A presente dissertação discorre sobre estes fundamentos teóricos e usa o caso da implantação do Cinema Digital no Brasil como verificação empírica. A exibição digital está apresentando indícios de ser uma inovação disruptiva que altera tanto padrões tecnológicos como os modelos de negócios dos exibidores sendo, portanto, um campo adequado de verificação e extensão da teoria. Através do exame das estratégias possíveis das redes de exibidores de cinema no atual momento da digitalização no Brasil mostramos como elas podem vencer mais facilmente os desafios decorrentes do processo, aperfeiçoar os resultados econômicos e financeiros, minimizando o tempo de sua concretização e se tornarem ambidestras isto é, se prepararem para enfrentar um processo no qual muitas outras inovações ainda vão ocorrer estando, no momento, nas suas fases de gestação. A estrutura da dissertação foi construída com um maior detalhamento no início de sua parte metodológica pela utilização do instrumental sistêmico para facilitar o entendimento do projeto. Muita da literatura sobre inovações, descontinuidades e disrupções já se utilizava de uma forma de pensar sistêmica sem colocá-la sob este formato. Quando isto ocorreu de forma significativa em uma teoria importante para os nossos propósitos fizemos sua “tradução” para a simbologia sistêmica. Dentro deste objetivo, fazemos, já no capítulo 3, uma breve explanação sobre a forma de pensar em Sistemas Dinâmicos, a identificação de “loops” causais, de “delays” (atrasos) e das principais mudanças plausíveis ao longo do tempo. A seguir, no capítulo 4 fazemos uma revisão da teoria das inovações disruptivas, e no capítulo 5 mostramos como a implantação do cinema digital se encaixa nesta teoria e de como a cadeia inteira do audiovisual está sendo afetada de forma sistêmica, cuja complexidade pode ser manejada pela construção do mapa causal que relaciona as estratégias de todos os seus agentes ao longo do tempo. Este mapa causal é usado para antecipar comportamentos estratégicos dos componentes da cadeia audiovisual sob ambiente disruptivo. No capítulo 6, como contribuição teórica, propomos que esta forma de organizar a complexidade seja um processo perene a ser utilizado no mapeamento e previsão de outras mudanças em ambientes de inovações disruptivas aceleradas além de elencar recomendações estratégicas para a transformação das cadeias de exibição brasileiras em organizações ambidestras com capacidade de competir eficientemente com as cadeias internacionais que chegaram e ainda estão chegando ao país e que já são responsáveis hoje por aproximadamente 45% da receita de bilheteria de cinema no país. No capítulo 7 mostramos sugestões de aplicação do método a outras cadeias produtivas que estão no meio de processos disruptivos, as vantagens de sua adoção, limitações e aperfeiçoamentos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O projeto do trem de alta velocidade que fará o transporte de passageiros entre as duas maiores metrópoles do país é um dos principais investimentos do Plano de Aceleração do Crescimento (PAC). Depois do insucesso apresentado no primeiro processo de licitação, devido à falta de proposta de investidores privados, o Governo Federal decidiu alterar a sua participação no plano de investimentos, adicionalmente, nesta segunda tentativa, prevista para ocorrer em setembro de 2013, o Governo informou que reduzirá o valor mínimo da outorga a ser pago pelo concessionário vencedor em 3,2%, o que aumentará o investimento do Estado em cerca de R$ 900 milhões. O setor público busca através das medidas destacadas, aumentar a atratividade do projeto e divulgou que poderá aumentar a sua participação acionária no projeto, de 45% das cotas da SPE que controlará o TAV para cerca de 80%. O presente estudo discute a concessão de uma garantia de demanda mínima de passageiros, os resultados obtidos através da metodologia de opções reais indicam que elas podem gerar um aumento do VPL de 22,2% e um custo para os cofres públicos de apenas 2,86% do total investido no projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, apresenta-se um estudo numérico de um modelo convectivo-difusivo-reativo em combustão baseado no Método de Elementos Finitos. Primeiramente, apresenta-se o desenvolvimento das equações de balanço (quantidade de movimento, massa, espécie e energia) que modelam um processo de mistura molecular e reação química, irreversível, de passo único e exotérmica entre duas espécies químicas F (Combustível) e O (Oxidante). Tais espécies reagem e formam um produto P, conforme vFF +vOO ! vPP + calor, onde vF , vO e vP são os coeficientes estequiométricos molares. No modelo, considera-se que a reação é de primeira ordem com respeito a cada um dos reagentes e que a taxa de reação específica segue a cinética de Arrhenius. Em seguida, o modelo é estudado numericamente considerando-se um domínio retangular e condições de contorno do tipo Neumann. Tanto a Técnica das Diferenças Finitas como a Técnica de Elementos Finitos são utilizadas na discretização espacial das equações do modelo. Para a integração no tempo, utiliza-se a método de Runge-Kutta simplificado de três estágios. Os diferentes códigos computacionais obtidos, tanto pela Técnica de Diferenças Finitas como de Elementos Finitos, são comparados frente ao problema de interesse. Observa-se que ambas as técnicas apresentam resultados equivalentes. Além disso, os códigos desenvolvidos são robustos (capazes de lidar com vários conjuntos de parâmetros), de baixo custo e precisos. Por fim, apresenta-se uma revisão do trabalho de Zavaleta [48], no qual obtem-se uma estimativa local do erro na aproximação do problema estudado pela Técnica de Elementos Finitos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos dez anos, milhares de trabalhos foram publicados somente no desenvolvimento da técnica de eletroforese capilar (CE) e suas aplicações em ciências biológicas, química e em outras áreas. Apesar disto, muitos tópicos de pesquisa básica da CE ainda continuam sendo desenvolvidos. Algumas vantagens da CE sobre as demais técnicas de separação são marcantes, tais como: possibilidade de automação, rapidez na obtenção dos resultados e alto poder de resolução. A pequena quantidade de amostra que é necessária para uma análise é uma característica muito interessante no estudo de sistemas biológicos, sendo que normalmente são injetados no capilar, volumes de 5 a 50 nl de amostra. Por outro lado, esta reduzida quantidade de amostra utilizada, a pequena janela de detecção e as baixas concentrações dos analitos nas amostras biológicas, são fatores que desafiam os pesquisadores nesta área. Para contornar este problema diversos métodos de pré-concentração de amostra foram desenvolvidos. Neste trabalho, foi desenvolvido um método inédito de pré-concentração de amostras através de gradientes térmicos em CE. O princípio do método é concentrar o analito quando ele passa de uma zona de alta temperatura para uma zona de baixa temperatura. Um modelo teórico foi desenvolvido para auxiliar o planejamento experimental no que diz respeito à determinação das condições em que a corrida deve ser realizada (pH, tipo de tampão, temperatura) para aplicar a compressão térmica em um analito. Foi utilizado L-Lisina derivatizada com naftaleno 2,3-dicarboxialdeído (Lys/NDA) como analito modelo. Uma diferença de temperatura de 58 °C entre as duas zonas térmicas foi suficiente para comprimir em 2,5 vezes a banda da Lys/NDA em um tampão de baixo coeficiente térmico com o pH ajustado para 8,7. O método de compressão de banda por gradientes térmicos proposto neste trabalho é uma nova opção para aumentar a sensibilidade e a resolução em CE. Ao contrário dos métodos clássicos de pré-concentração, esse novo método pode ser aplicado em amostras tanto com alta ou baixa condutividade iônica, comprimir bandas de analitos aniônicos ou catiônicos e ser aplicado em corridas em solução livre ou não. Além disso, considerando que o controle de temperatura seja realizado de maneira automatizada, pode apresentar altas taxas de reprodutibilidade, além de ser de simples e de fácil aplicação, podendo ser empregado em análises de rotina. Diferentes LEDs (Light Emitting Diode) foram testado em detector por fluorescência induzida por LED. Além disso, um novo sistema de aquisição de dados e tratamento de sinal utilizando a placa de som de um PC (Personal Computer) e um amplificador Lock-in emulado por software foi montado e comparado com um sistema de aquisição de dados convencional. O equipamento de CE utilizado neste trabalho com esses componentes, apresentou uma elevada sensibilidade, na faixa de 0,5 à 1 fmol para os peptídeos e aminoácidos testados e foi superior ao sistema convencional em vários aspectos como: sensibilidade de detecção, faixa linear de detecção em concentração do analito, facilidade de operação e custo do sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é obter os parâmetros turbulentos para o crescimento da camada limite planetária (CLP), durante a realizaçãoo do experimento Olad (Overland along wind dispersion experiment), conduzido na transição da noite para o dia. Nesta hora a CLP exibe uma altura, geralmente, pequena, disponibilizando pouco volume para a dispersão dos poluentes. Assim, concentrações superficiais elevadas podem ocorrer, atacando materiais, plantas e a saúde da população. Logo, conhecer os parâmetros do crescimneto é de fundamental importância para o correto modelamento da dispersão atmosférica ao amanhecer. A validação dos parâmetros é realizada a partir da solução da equação da difusão-advecção bidimensional, pelo método da GILTT (Generalized Integral Laplace Transform Technique). São empregados coeficientes de difusão turbulenta (problema de fechamento) dependentes da estabilidade atmosférica. As concentrações superficiais tridimensionais são obtidas através do espalhamento lateral da pluma com distribuição gaussiana. Apresentam-se os resultados numéricos e estatísticos, comparando os resultados obtidos com os dados experimentais. O modelo proposto mostrou-se aceitável em relação aos dados do experimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um estudo foi realizado com a finalidade principal de investigar de que maneira a teoria de transferência de calor por radiação em meios participantes pode ser melhor aplicada na resolução de problemas de troca de energia no interior de cavidades que se assemelhem a fornalhas industriais. Verificou-se que as superfícies internas da maioria das fornalhas podem ser consideradas cinzentas e difusoras, o que facilita a aplicação de modelos de soma ponderada de gases cinzas. Sendo assim, as maiores dificuldades aparecem quando a geometria da cavidade é complexa. Com o método de Monte Carlo, é possível resolver problemas com características geométricas bastante complexas, bem como considerar efeitos espectrais e direcionais, quando necessário. Este método foi, então, aplicado, em conjunto com o método da zona, na elaboração de três códigos computacionais, que são capazes de determinar áreas de troca totais em cavidades onde as paredes e o gás são cinzas. Um deles pode ser aplicado a cavidades paralelepipédicas; outro, a cilíndricas. Tanto no primeiro, quanto no segundo, as dimensões podem assumir qualquer valor. Com o terceiro código computacional, é possível obter-se áreas de troca totais entre zonas de cavidades que têm geometria genérica formada a partir de combinações de cubos. Resultados obtidos através dos três códigos computacionais foram comparados com outros disponíveis na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Peumus boldus Molina (Monimiaceae) é uma árvore comum e abundante no Chile, e suas folhas são amplamente empregadas pela medicina tradicional para o tratamento de uma variedade de afecções do sistema digestivo e hepatobiliar. Seus principais constituintes químicos são alcalóides do tipo aporfínicos, sendo a boldina seu maior e mais característico representante, cujas propriedades antioxidantes são extensivamente relatadas na literatura, servindo desta forma como marcador químico para a espécie. Com o objetivo de contribuir com parâmetros de controle de qualidade, um estudo botânico macro e microscópico das folhas e do pó da espécie foi realizado. Características morfológicas, identificadas pela análise macroscópica, como pilosidade, tipologia dos tricomas, proeminência ao redor da base dos tricomas e aparência do bordo, e características microscópicas como estômatos anomocíticos, folha hipoestomática e ocorrência de cristais de oxalato de cálcio denotam valor taxonômico. Parâmetros farmacopéicos como cinzas totais e perda por dessecação foram determinados, e um método de quantificação da boldina foi desenvolvido e validado utilizando a CLAE. O limite mínimo de boldina observado na análise de 10 amostras adquiridas foi de aproximadamente 0,016%. A fim de avaliarse o comportamento de seus constituintes químicos frente a variações de temperatura e umidade, realizou-se estudo de estabilidade acelerada (40ºC ± 2ºC / 75% ± 5% U.R.). A degradação máxima de boldina foi observada após 90 dias em câmara climática chegando a aproximadamente 52%. A reação de degradação sugerida foi de segunda ordem, e o tempo de vida útil e meia-vida calculados foram de aproximadamente 18 dias e 165 dias, respectivamente. Por fim, realizou-se a quantificação de alguns metais pesados nas folhas da espécie, que decresceram na ordem de Fe> Mn> Cu> Ni, sendo que Pb, Cr e Co tiveram níveis abaixo do limite de detecção de 5 μg/g.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho pretende contribuir com questões relacionadas ao planejamento e programação de operações de prestação de serviços. Seu enfoque é nos bastidores das operações de serviços, onde ocorre o fluxo de materiais e são observadas características similares às da manufatura. Ainda assim, algumas características específicas das operações de serviços influenciam o processo a ser planejado. O tema desta dissertação consiste na definição de um método de planejamento e programação das operações dos bastidores de empresas prestadoras de serviço. Este método engloba conceitos utilizados tanto na manufatura quanto nos serviços. Na etapa inicial do trabalho, é apresentada uma revisão bibliográfica sobre planejamento da produção na manufatura, planejamento da prestação de serviços e gerenciamento de projetos. Na etapa seguinte, apresenta-se um método de planejamento e programação para operações dos bastidores de empresas prestadoras de serviço. A etapa final apresenta a validação prática do método proposto em uma empresa do setor elétrico que atua no segmento de distribuição de energia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tal como ressaltado em de Faro e Guerra (2014), tem sido frequente em nossos tribunais, sentenças judiciais determinando que, relativamente ao caso de amortizações de dívidas com prestações constantes, a popular Tabela Price seja substituída por um sistema que, fundamentado em uma particular aplicação do regime de juros simples, vem sendo cognominado de “Método de Gauss” (cf. Antonick e Assunção, 2006 e Nogueira, 2013). E isso, frize-se, mantendo-se o valor numérico da taxa de juros especificada no contrato de financiamento (usualmente, habitacional). A par de ser totalmente inadequado, como discutido em de Faro (2014c), associar o nome do grande matemático alemão Johann Carl Friedrich Gauss (1777-1855) ao procedimento em questão, sucede que ao mesmo, como a qualquer outro que seja baseado no regime de juros simples, associam-se incontornáveis inconsistências. Como já anteriormente, amplamente evidenciado em de Faro (2013b e 2014a). Tomando a Tabela Price como base de comparação, o propósito do presente trabalho é o de aprofundar a análise das deficiências do que tem sido denominado como “Método de Gauss”. Em particular, dado que as sentenças judiciais costumam não alterar os valores numéricos das taxas contratuais de juros, substituindo tão somente o regime de juros compostos, que está implícito na Tabela Price, pela peculiar variante do regime de juros simples que está subjacente ao que se chama de “Método de Gauss”, buscar-se-á considerar a questão do ponto de vista do financiador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresentamos um novo método numérico com passo adaptativo baseado na abordagem de linearização local, para a integração de equações diferenciais estocásticas com ruído aditivo. Propomos, também, um esquema computacional que permite a implementação eficiente deste método, adaptando adequadamente o algorítimo de Padé com a estratégia “scaling-squaring” para o cálculo das exponenciais de matrizes envolvidas. Antes de introduzirmos a construção deste método, apresentaremos de forma breve o que são equações diferenciais estocásticas, a matemática que as fundamenta, a sua relevância para a modelagem dos mais diversos fenômenos, e a importância da utilização de métodos numéricos para avaliar tais equações. Também é feito um breve estudo sobre estabilidade numérica. Com isto, pretendemos introduzir as bases necessárias para a construção do novo método/esquema. Ao final, vários experimentos numéricos são realizados para mostrar, de forma prática, a eficácia do método proposto, e compará-lo com outros métodos usualmente utilizados.