984 resultados para transformada de Laplace
Resumo:
Este trabalho tem o objetivo de realizar uma análise de sensibilidade dos parâmetros operacionais e de projeto de uma usina termelétrica. A análise de sensibilidade serve para indicar qual a importância dessas grandezas no resultado do sistema. A planta modelada é a da Usina Termelétrica Presidente Médici – Fase B, localizada em Candiota, RS, onde cada módulo é capaz de produzir até 160 MW de potência. Para esta planta é apresentado o equacionamento de cada componente do sistema. Destacam-se duas modelagens para a turbina a vapor, usadas para a simulação de seu comportamento em carga parcial, o da Elipse de Stodola e o de Schegliáiev. Ambos os modelos são comparados. Também são apresentados os modos de controle de carga por válvula de estrangulamento, por válvula de bocais e por pressão deslizante. A análise de sensibilidade é feita por meio de três métodos distintos, cujos resultados são comparados. O Método Diferencial utiliza as derivadas parciais para estimar a sensibilidade. O Método de Monte Carlo realiza uma série de avaliações do sistema, com os dados de entrada gerados randomicamente em cada avaliação e análise estatística dos resultados para avaliar a sensibilidade das respostas. É desenvolvido neste trabalho o Método da Transformada de Fourier, que gera os dados de forma senoidal e utiliza a transformada de Fourier para medir as sensibilidades. A medida da sensibilidade é feita através de dois índices. O índice de importância é a derivada parcial de um resultado em relação a um parâmetro, adimensionalizado pelas médias das variáveis, e o índice de sensibilidade é a composição fracional da variância de um resultado. Como conclusão, observa-se que os modelos para operação em carga parcial da turbina de Schegliáiev e de Stodola produzem praticamente os mesmos resultados. Os três métodos de análise de sensibilidade conduzem aos mesmos índices de sensibilidade no caso estudado. A ordenação da importância dos parâmetros estudados é idêntica quando se usa tanto o índice de importância quanto o de sensibilidade, mesmo seus valores sejam diferentes para cada parâmetros.
Resumo:
Resumo não disponível
Resumo:
Uma significativa quantidade de proteínas vegetais apresenta-se compartimentalizada nas diversas estruturas celulares. A sua localização pode conduzir à elucidação do funcionamento dos processos biossintéticos e catabólicos e auxiliar na identificação de genes importantes. A fim de localizar produtos gênicos relacionados à resistência, foi utilizada a fusão de cDNAs de arroz (Oryza sativa L.) ao gene da proteína verde fluorescente (GFP). Os cDNAs foram obtidos a partir de uma biblioteca supressiva subtrativa de genes de arroz durante uma interação incompatível com o fungo Magnaporthe grisea. Estes cDNAs foram fusionados a uma versão intensificada de gfp e usados para transformar 500 plantas de Arabidopsis thaliana. Outras 50 plantas foram transformadas com o mesmo vetor, porém sem a fusão (vetor vazio). Foram obtidas aproximadamente 25.500 sementes oriundas das plantas transformadas com as fusões EGFP::cDNAs e 35.000 sementes das transformadas com o vetor vazio, produzindo, respectivamente, 750 e 800 plantas tolerantes ao herbicida glufosinato de amônio. Após a seleção, segmentos foliares das plantas foram analisados por microscopia de fluorescência, visando o estabelecimento do padrão de localização de EGFP. Foram observadas 18 plantas transformadas com a fusão EGFP::cDNAs e 16 plantas transformadas com o vetor vazio apresentando expressão detectável de GFP. Uma planta transformada com uma fusão EGFP::cDNA apresentou localização diferenciada da fluorescência, notadamente nas células guarda dos estômatos e nos tricomas. Após seqüenciamento do cDNA fusionado, foi verificado que esta planta apresentava uma inserção similar a uma seqüência codificante de uma quinase, uma classe de enzimas envolvidas na transdução de sinais em resposta à infecção por patógenos.
Resumo:
A indústria bancária brasileira foi transformada nas últimas décadas em meio a um fenômeno conhecido como consolidação, que marca uma concentração do mercado em poucas instituições. O objetivo do trabalho é testar empiricamente quais as causas desse processo no Brasil. As duas hipóteses testadas foram formuladas por Berger, Dick et al. (2007): a hipótese da eficiência indica que avanços tecnológicos melhoram a competitividade dos grandes em relação aos pequenos. Deste modo, os resultados dos pequenos são sacrificados por esse fator. Por outro lado, a hipótese da arrogância afirma que os administradores realizam fusões e aquisições pelos maiores bônus dos grandes conglomerados, mas as deseconomias de escala são superiores aos ganhos competitivos da tecnologia e, com o tempo, os pequenos passam a competir em vantagem. Modelos de dados em painel foram utilizados para testar se houve pressões competitivas durante o processo de consolidação. A conclusão foi de que a hipótese da eficiência explica melhor empiricamente o fenômeno brasileiro, assim como o norte-americano. A pressão para diminuição de receitas financeiras foi o fator determinante para que os bancos pequenos sofressem efeitos deletérios com o aumento do peso dos grandes na indústria.
Resumo:
Este trabalho apresenta o estudo, investigação e realização de experimentos práticos, empregados na resolução do problema de reconhecimento de regiões promotoras em organismos da família Mycoplasmataceae. A partir disso, é proposta uma metodologia para a solução deste problema baseada nas Redes Neurais Artificiais. Os promotores são considerados trechos de uma seqüência de DNA que antecedem um gene, podem ser tratados como marcadores de uma seqüência de letras que sinalizam a uma determinada enzima um ponto de ligação. A posição onde se situa o promotor antecede o ponto de início do processo de transcrição, onde uma seqüência de DNA é transformada em um RNA mensageiro e, este potencialmente, em uma proteína. As Redes Neurais Artificiais representam modelos computacionais, inspirados no funcionamento de neurônios biológicos, empregadas com sucesso como classificadores de padrões. O funcionamento básico das Redes Neurais está ligado ao ajuste de parâmetros que descrevem um modelo representacional. Uma revisão bibliográfica de trabalhos relacionados, que empregam a metodologia de Redes Neurais ao problema proposto, demonstrou a sua viabilidade. Entretanto, os dados relativos à família Mycoplasmataceae apresentam determinadas particularidades de difícil compreensão e caracterização, num espaço restrito de amostras comprovadas. Desta forma, esta tese relata vários experimentos desenvolvidos, que buscam estratégias para explorar o conteúdo de seqüências de DNA, relativas à presença de promotores. O texto apresenta a discussão de seis experimentos e a contribuição de cada um para consolidação de um framework que agrega soluções robustas consideradas adequadas à solução do problema em questão.
Resumo:
O objetivo deste trabalho é obter os parâmetros turbulentos para o crescimento da camada limite planetária (CLP), durante a realizaçãoo do experimento Olad (Overland along wind dispersion experiment), conduzido na transição da noite para o dia. Nesta hora a CLP exibe uma altura, geralmente, pequena, disponibilizando pouco volume para a dispersão dos poluentes. Assim, concentrações superficiais elevadas podem ocorrer, atacando materiais, plantas e a saúde da população. Logo, conhecer os parâmetros do crescimneto é de fundamental importância para o correto modelamento da dispersão atmosférica ao amanhecer. A validação dos parâmetros é realizada a partir da solução da equação da difusão-advecção bidimensional, pelo método da GILTT (Generalized Integral Laplace Transform Technique). São empregados coeficientes de difusão turbulenta (problema de fechamento) dependentes da estabilidade atmosférica. As concentrações superficiais tridimensionais são obtidas através do espalhamento lateral da pluma com distribuição gaussiana. Apresentam-se os resultados numéricos e estatísticos, comparando os resultados obtidos com os dados experimentais. O modelo proposto mostrou-se aceitável em relação aos dados do experimento.
Resumo:
Desde o final do período monárquico, e já no nascimento da república, o problema social da pobreza e das favelas já impactava a formação da cidade do Rio de Janeiro. Ao longo dos anos, a questão adotou muitas faces e muitos discursos. A partir do momento em que os governos do Estado e do Município, desde os anos de 1950, tornaram as representações populares das favelas parte de suas representações políticas, o poder de discussão, participação e reivindicação dessa parcela da população foi diminuído e disperso. Tal fato abriu caminho para a manipulação de investimentos e políticas públicas que aumentaram a desigualdade social e, por conseguinte, em locais como o bairro do Caju, promoveram políticas de crescimento empresarial tão intensas e predatórias, que criaram, em concomitância aos problemas sociais, graves quadros de injustiça ambiental. Na busca pelo fortalecimento deste palco de debates, esta pesquisa pretende colaborar com a composição do retrato de uma região, pouco visível no município do Rio de Janeiro, que, desde sua ocupação como área de moradia, vem sendo transformada em território utilitário de exploração ambiental. Nela, as desigualdades afloram e aprisionam uma população cada vez maior nos circuitos de risco social e ambiental. O resultado desta pesquisa é a exposição de uma realidade frágil e a discussão mais profunda sobre a situação social e ambiental do bairro do Caju.
Resumo:
A soma de variáveis aleatórias com número de parcelas é aleatório, para além do evidente interesse conceptual e teórico, tem larga ressonância na investigação do processo de risco e em processos de ramificação. Reformulamos a teoria de Panjer (1981), que permite o cálculo iterativo do risco agregado, com o recurso a valores médios de uniformes, descrevendo uma extensão da classe de Panjer, e estudando em detalhe a equação funcional que a caracteriza. Aplicamos essas ideias na caracterização de aleatoriedade discreta, exemplificando com o comportamento das fêmeas de pássaros que investem na promiscuidade de parceiros para garantir a diversidade genética da progénie, tendo no entanto o cuidado de manter as aparências de fidelidade, para garantir a cooperação do parceiro no sucesso da ninhada. Apresentamos as transformadas de Laplace e funções geradoras numa perspectiva que leva a uma introdção natural de transformadas de Pareto, cuja relevância exemplificamos.
Resumo:
This thesis presents general methods in non-Gaussian analysis in infinite dimensional spaces. As main applications we study Poisson and compound Poisson spaces. Given a probability measure μ on a co-nuclear space, we develop an abstract theory based on the generalized Appell systems which are bi-orthogonal. We study its properties as well as the generated Gelfand triples. As an example we consider the important case of Poisson measures. The product and Wick calculus are developed on this context. We provide formulas for the change of the generalized Appell system under a transformation of the measure. The L² structure for the Poisson measure, compound Poisson and Gamma measures are elaborated. We exhibit the chaos decomposition using the Fock isomorphism. We obtain the representation of the creation, annihilation operators. We construct two types of differential geometry on the configuration space over a differentiable manifold. These two geometries are related through the Dirichlet forms for Poisson measures as well as for its perturbations. Finally, we construct the internal geometry on the compound configurations space. In particular, the intrinsic gradient, the divergence and the Laplace-Beltrami operator. As a result, we may define the Dirichlet forms which are associated to a diffusion process. Consequently, we obtain the representation of the Lie algebra of vector fields with compact support. All these results extends directly for the marked Poisson spaces.
Resumo:
Este trabalho tem como propósito básico procurar compreender, através observação da prática educativa e das concepções dos alunos, professores, encarregados educação e auxiliares da acção educativa, como se processa a aprendizagem avaliação de competências na Escola Moderna, a fim de descobrir factores proporcionem a aquisição de competências de forma autêntica, e tentar contribuir para diminuição da discrepância existente entre as práticas que se idealizam e as práticas existentes. As competências, ao integrarem-se na escola como um processo de inovação, na reorganização curricular consagrada no Decreto-Lei 6/2001 um elemento legislativo central, pressupõem uma concepção de currículo mais aberta e abrangente, dependente de práticas educativas mais autónomas, flexíveis, e adequadas a cada contexto. Conceber o currículo e a prática pedagógica, em termos de competências, implica uma renovação da acção educativa e uma nova postura dos professores, alunos escola, porque o desenvolvimento destas não enfatiza um processo rotineiro memorização da informação, mas, sim, a estimulação de situações de aprendizagem complexas, onde a informação é transformada, processada e mobilizada de forma pelos alunos. Para compreender este desenvolvimento de competências na escola, desenvolvemos, através de uma metodologia qualitativa, um estudo de caso centrado numa turma de 25 alunos, do 4.º ano de escolaridade, numa escola do 1.º ciclo do ensino básico, envolvendo todos os intervenientes educativos do seu quotidiano escolar. Os resultados do nosso estudo apontam para duas evidências relevantes: - alunos participantes e a professora titular tendem a apresentar uma concepção planificação e gestão das situações de aprendizagem com vista ao desenvolvimento competências como saberes em acção, coerente com os princípios e valores referentes Currículo Nacional do Ensino Básico – Competências Essenciais; - a atitude pessoal profissional da professora, bem como o Modelo Pedagógico do MEM, que aplica, potenciam a inovação pedagógica e uma bem sucedida aquisição de competências.
Resumo:
O objectivo desta tese é discutir o uso das distribuições hiperbólicas generalizadas como modelo para os retornos logarítmicos de 4 activos do mercado de capitais Português. Os activos em análise são o índice Português PSI 20 e as 3 maiores empresas pertencentes ao PSI 20: PT, EDP e BCP. Os dados são constituidos pelos valores de fecho diário durante mais de 8 anos. Utilizando o software R procederemos à estimação dos parâmetros das distribuições para ajustamento aos dados empíricos. Para medir o grau de ajustamento das distribuições aos dados empíricos usamos os gráficos QQ-plots e 4 distâncias: Kolmogorov-Smirnov, Kuiper, Anderson-Darling e Fajardo-Farias-Ornelas. Os resultados obtidos permitem concluir que o melhor ajustamento é feito pela hiperbólica generalizada e em seguida a distribuição normal inversa gaussiana. Todas as distribuições desta família ajustam-se muito melhor que a distribuição normal. Por último temos uma aplicação ao cálculo do preço de derivados financeiros, nomeadamente a fórmula de uma opção de compra Europeia no modelo discutido.
Resumo:
Sistemas dinâmicos são todos os sistemas que evoluem no tempo, qualquer que seja a sua natureza, isto é, sistemas fisícos, biológicos, químicos, sociais, económicos, etc.. Esta evoluçãoo pode ser descrita (modelada) por equaçõess de diferenças, uma vez que esse tempo é muitas vezes medido em intervalos discretos. As equações de diferenças aparecem também quando se estuda métodos para a discretização de equações diferenciais. Assim, este trabalho tem por principal objectivo estudar as soluções de alguns tipos de equações de diferenças. Para isso, começa-se por introduzir o conceito de diferença e a sua relação com as equações de diferenças. Em seguida, determina-se a solução geral das todas as equações lineares de primeira ordem, bem como o estudo do seu comportamento assimptótico. Prossegue-se, desenvolvendo as principais técnicas para determinar a soluçãoo de equações de diferenças lineares de qualquer ordem. Em particular, estudam-se as equações com coeficientes constantes. Depois de se desenvolver a teoria básica dos sistemas lineares de equações de diferenças, particulariza-se aos sistemas lineares autónomos,com apenas duas variáveis dependentes, fazendo assim o estudo do comportamento das soluções no plano de fases. Por fim, utiliza-se a transformada Z como uma ferramenta que permite resolver equações de diferenças, em especial as equações de tipo convolução.
Resumo:
PEDROSA, Diogo P. F. ; MEDEIROS, Adelardo A. D. ; ALSINA, Pablo J. . Uma Proposta de SLAM com Determinação de Informações Geométricas do Ambiente. In: CONGRESSO BRASILEIRO DE AUTOMÁTICA, 16, Salvador, BA, 2006. Anais... Salvador: CBA, 2006. v. 1. p. 1704-1709