996 resultados para Filtro ativo de potência


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho investiga, numa perspectiva de risco e retorno, o risco inerente à terra agrícola, em comparação com as ações formadoras do Índice da Bolsa de Valores de São Paulo – IBOVESPA, com vistas a identificar possíveis correlações entre estes ativos, que permitam recomendar a posse do primeiro como elemento redutor do risco do segundo, nos períodos de crise do mercado acionário. Parte do pressuposto que, sendo a terra um bem finito e útil, a sua posse como bem de investimento pode ser, nesta perspectiva, conveniente, independente da forma como se pretenda usá-la, desde que haja a possibilidade de sua comercialização futura. Investiga os elementos determinantes do preço da terra, particularmente as variáveis especulativas que influem na sua comercialização, com vistas a identificar nela, eventuais semelhanças com os demais ativos de risco. Estuda a evolução dos preços da terra de cultura de primeira do Estado de São Paulo, no espaço de vinte anos (1980 a 1999), em comparação com o IBOVESPA, concentrando-se nos períodos de crise do mercado acionário, para determinar a influência que teria a inclusão do ativo terra, em uma carteira diversificada de ações, sobre o grau de risco e a rentabilidade do portfolio como um todo. Analisa o comportamento do mercado acionário brasileiro no mesmo período, quando são identificados seis períodos de crise, durante os quais é simulado o desempenho de duas stimentos, compostas, a primeira, por ações e terra, em diferentes proporções, e a segunda por ações e caderneta de poupança, também com vários graus de composição. Das seis crises estudadas, em quatro delas, a associação de uma parcela terra com as ações representativas do IBOVESPA, contribuiu para a redução do grau de risco ou melhora da rentabilidade da carteira de investimentos como um todo; as duas outras crises, durante as quais a terra não apresentou as mesmas características de segurança e/ou rentabilidade, coincidem com períodos atípicos, quando o seu mercado passava por processos de ajustamento. A conclusão confirma a hipótese alternativa, de que a terra, quando em condições normais de negociação, possui características de segurança e rentabilidade que permitem recomendar a sua posse combinada com carteiras de ações, pelos investidores mais avessos aos riscos do mercado acionário.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho consiste em aplicar o método LTSn em cálculos de parâmetros críticos como Keff, espessura e concentração atômica e obtenção do fiuxo escalar, da potência específica e do enriquecimento do combustível em placa plana homogenea e heterogênea, considerando modelo multigrupo e em diversas ordens de quadraturas. O método LTSn consiste na aplicação da transformada de Laplace em um conjunto de equações~de ordenadas discretas gerado pela aproximação SN, resultando em um sistema de equações algébricas simbólicas dependentes do parâmetro complexo s e reconstrução dos fluxos angulares pela técnica de expansão de Heaviside. A aplicação do método LTSn reduz a soluçào de um problema de autovalor, a solução de uma equação transcedental, possibilitando a obtenção de parâmetros críticos. Simulações numéricas são apresentadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho é dedicado à simulação numérica de sistemas térmicos de potência. O trabalho é iniciado com a modelagem de um ciclo Rankine, dedicado à produção de energia elétrica, para o qual foi elaborado um programa de simulação com a linguagem de programação MATLAB. A partir desse primeiro caso, são apresentados os modelos empregados para representar os diversos componentes que formam o circuito, como o gerador de vapor, a turbina, o condensador e a bomba. Além desses componentes, são introduzidas as equações que representam o escoamento do fluido de trabalho, no caso a água, permitindo assim o cálculo da perda de carga nas diferentes canalizações do circuito, sendo também acoplado o funcionamento da bomba. Essa alternativa pennite uma melhor avaliação do trabalho despendido para operar o sistema. A modelagem do ciclo deixa então de ser exclusivamente tennodinâmica, e passa a incluir aspectos de mecânica de fluidos. Outras variantes desse ciclo simples são também modelados e simulados, incluindo ciclos Rankine regenerativos e com irreversibilidades. As simulações são efetuadas admitindo-se parâmetros de operação, como, potência da turbina, temperatura do vapor d'água na entrada da turbina e pressão do vapor d'água na saída da turbina, com a variante de fixar-se o título do vapor d'água na saída da turbina.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação é estruturada em três partes. Na primeira, revisa-se a noção de filtro sensorial, com enfoque particular no paradigma do P50, uma técnica eletroneurofisiológica de extremo valor para a investigação da neurobiologia básica subjacente aos defeitos de processamento sensorial que caracterizam algumas doenças mentais, e mais particularmente a esquizofrenia, sobre a qual dedica-se especial interesse. Na segunda, revisa-se a hipótese, proposta recentemente por Lara e Souza (2000), de hipofunção adenosinérgica como disfunção bioquímica básica na esquizofrenia, à luz das evidências mais recentes. Na terceira, desenvolve-se um trabalho experimental original com o intuito de investigar a hipótese hipoadenosinérgica da esquizofrenia. Trata-se de um desafio farmacológico, de um ensaio clínico cruzado onde 13 voluntários hígidos foram submetidos a tratamento com teofilina (um antagonista não-seletivo dos receptores de adenosina do tipo A1 e A2A) e a placebo, em dois momentos diferentes, tendo se avaliado os seus potenciais evocados de acordo com o paradigma do P50 antes (em seu valor basal) e após o tratamento, levantando-se uma curva de efeito com base no tempo. Paralelamente, avaliaram-se 17 pacientes com diagnóstico estabelecido de esquizofrenia, clinicamente estáveis, em acompanhamento ambulatorial e em uso de medicação neuroléptica típica, com a intenção de fornecer um grupo adicional de comparação e de replicar os achados prévios de falha de supressão do componente P50 na esquizofrenia, um aspecto fundamental para demonstrar o domínio da metodologia experimental, que foi aqui empregada pela primeira vez em nosso meio. Este estudo foi capaz de mostrar que a indução de um estado transitório de hipofunção adenosinérgica em indivíduos normais, mostra perda da supressão. Em outras palavras, que déficits no processamento da informação auditiva, que não existiam nos indivíduos normais, foram provocados pela utilização de teofilina, que, bloqueando os receptores de adenosina A1 e A2A, provocou um estado hipoadenosinérgico transitório. A disfunção provocada pela teofilina foi da mesma ordem de grandeza da verificada nos pacientes com esquizofrenia. Estes resultados fornecem evidência que corroboram o modelo de hipofunção adenosinérgica para a esquizofrenia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, é estudado o controle da transmissão do som numa placa retangular e fina. Para tanto, é encontrada a resposta dinâmica da placa, excitada por forças harmônicas pontuais e piezomomentos, obtida usando uma base não-clássica e uma análise modal. A radiação sonora emitida pela vibração da placa é encontrada. A potência sonora radiada pode ser calculada aplicando controle ativo diretamente na estrutura, na forma de uma entrada vibratória, uma vez conhecida a resposta na superfície da placa, obtendo-se uma signicativa redução analitica. Os piezocerâmicos, modelados como quatro momentos pontuais, são unidos a superfície da placa como atuadores. A potência sonora transmitida antes e depois do controle é comparada, usando diferentes número de atuadores. Uma estratégia clássica de controle linear quadrático (LQR) e empregada no contexto de um procedimento de otimização da posição dos atuadores do sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A disposição no solo, qualificada ou não, provavelmente por longo tempo permanecerá como alternativa adotada por países não abastados para a destinação dos seus resíduos sólidos. Dada a escassez de recursos econômicos de tais nações, há uma demanda urgente por alternativas de baixo custo para o tratamento do efluente líquido ambientalmente altamente impactante gerado em tal processo: o lixiviado. O presente trabalho, desenvolvido em uma área do Aterro Sanitário da Extrema, Porto Alegre, vem contribuir apresentando resultados da utilização de três métodos biológicos de baixo custo aplicados consecutivamente ao tratamento de lixiviado bruto proveniente de aterro sanitário de resíduos sólidos: (1) filtro biológico anaeróbio com meio suporte de pedra britada nº 5, (2) filtro biológico aeróbio de baixa taxa com meio suporte de pedra britada nº 3 e (3) banhado construído de fluxo subsuperficial com cultivo de Typha latifolia sobre areia de elevada granulometria. O filtro anaeróbio demonstrou constituir-se em excelente alternativa de reduzido custo para o tratamento de lixiviado bruto. Utilizando-se afluente com 2690-8860 mgDBO5/L e 5345-14.670 mgDQO/L, apontou-se para um tempo de detenção hidráulica próximo a 56 dias como ótimo dos pontos de vista operacional e econômico, produzindo eficiências de remoção de DBO5 de 82,43% e de DQO de 77,70%. A pesquisa conduzida com filtro aeróbio de baixa taxa, ainda que produzindo resultados de significância limitada do ponto de vista estatístico, em função do reduzido número de repetições e utilização de apenas uma unidade experimental, apontou para um desempenho satisfatório da unidade, uma vez que, aplicado lixiviado previamente tratado anaerobicamente a 0,063 m3/(m2.d), obtiveram-se remoções de 53,17% de NTK, de 46,12% de nitrogênio (todas as formas) e de 36,01% de DBO5. A pesquisa com banhado construído de fluxo subsuperficial utilizado no polimento do lixiviado previamente tratado anaeróbia e aerobicamente produziu limitado número de resultados, sobretudo pela dificuldade de aclimatação das macrófitas utilizadas. Ainda assim, elevadas remoções de DBO5, DQO, NTK, nitrogênio (todas as formas), fósforo e cromo total foram obtidas operando-se com diluições para controle da salinidade, havendo adaptado-se as plantas a lixiviado com condutividade elétrica de 6370 µmho/cm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico. O estudo da estabilidade da representação de redes frente à variação amostral dos dados, realizado com base em simulações envolvendo 500 réplicas em 6 níveis de probabilidade de inclusão das arestas nas réplicas, fornece evidência em favor da validade dos resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

There is a lot of misunderstanding about derivative markets. Many people believe that they are a kind of casinos and have no utility to the investors. This work looks on the effects of options introduction in the Brazilian market, seeking for another benefit for this introduction: changes in the stocks risk level due to this introduction. Our results are the same found in the US and other markets: the options introduction reduces the stocks volatility. We also found that there is a slight indication that the volatility became more stochastic with this introducion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho realizou-se a síntese e caracterização de novos derivados 2- (2’-hidroxifenil)benzazólicos. Estas moléculas apresentam um bom rendimento quântico de fluorescência, um grande deslocamento de Stokes (> 150 nm) e elevadas estabilidades térmica e fotofísica devido a um mecanismo de transferência protônica intramolecular que ocorre no estado excitado (TPIEE). Estes derivados contêm grupos funcionais suscetíveis a sofrer reações de polimerização com monômeros acrílicos e grupos trietoxissilanos capazes de ligarem-se covalentemente a polímeros inorgânicos como sílicas e zeolitas, com interesse na geração de materiais fotossensíveis. Estes fluoróforos apresentam bandas de absorção na região entre 300 - 360 nm do espectro, justamente onde se localizam os comprimentos de onda de emissão de alguns lasers de bombeamento, como por exemplo o laser de N2 (337 nm) e o terceiro harmônico do laser de Nd:Yag (355 nm). Além disso, sob excitação com luz ultravioleta, estes compostos emitem fluorescência entre 500 - 580 nm, região espectral de alto interesse tecnológico para aplicações em telecomunicações e medicina. A copolimerização dos novos corantes com metilmetacrilatos e a heterogeneização com sílica e zeolitas resultou em polímeros altamente fluorescentes com excelentes propriedades térmicas e ópticas. Além dos corantes benzazólicos foram utilizados outros corantes comercialmente disponíveis com emissão laser do azul até o vermelho. Foram eles: o Estilbeno 420, DPS (4,4’-difenilestilbeno), PBBO 2-(4-bifenilil)-6-fenilbenzoxazol- 1,3, as cumarinas C500, C503, C540A, C343, C440, C460, C480 e uma nova cumarina funcionalizada com um grupo acrilato C434+HEMA, os pirrometenos PM597 e PM650 e a rodamina Rh640. Com estes corantes foram sintetizados polímeros e copolímeros de metacrilato de metila e metacrilato de 2-hidroximetila e suas propriedades fotofísicas e laser foram avaliadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de dois artigos. O primeiro foi realizado com o objetivo de comparar medidas verticais e horizontais de imagens adquiridas em estereomicroscópio (E) e scanner de mesa (S). Para isso, 50 dentes posteriores extraídos de humanos e seccionados no sentido mésio-distal foram utilizados. Cada hemi-secção foi fotografada no estereomicroscópio e digitalizada em scanner de mesa, com resolução de 230 dpi. No programa Photoshop foram realizadas medições horizontais (H) e verticais (V) de cada hemi-secção, nas imagens obtidas pelos dois métodos, com repetição aleatória de 20% dos casos da amostra. As medidas iniciais e repetidas apresentaram excelente correlação e o teste t para amostras pareadas não evidenciou diferenças significativas (p = 0,05) entre elas nos dois métodos. As médias das medidas e seus desvios-padrão foram: horizontais E 8,89 mm ? 4,30 mm, S 8,89 mm ? 4,52 mm e verticais E 4,42 mm ? 2,19 mm, S 4,43 mm ? 2,19 mm. O teste t para amostras pareadas com nível de significância de 5% demonstrou não haver diferenças significativas entre os dois métodos, tanto para as medidas horizontais (p=0,685) quanto para as verticais (p=0,299). Conclui-se que o scanner de mesa pode substituir o estereomicroscópio na aquisição de imagens de hemi-secções de dentes, com a finalidade de obtenção de medidas horizontais e verticais. O segundo artigo avaliou, in vitro, a profundidade de lesões de cárie proximal em dentes posteriores, comparando os exames clínico e radiográfico interproximal, com e sem a aplicação de cores, ao exame histológico. No total, 142 superfícies proximais foram avaliadas clinicamente e radiografadas. Para obtenção do padrão-ouro do estudo o exame histológico com cortes seriado foi realizado e as secções adquiridas, assim como as radiografias, digitalizadas com scanner de mesa A partir da criação de um programa digital, foi possível a aplicação de cores nas imagens radiográficas de maneira padronizada, de acordo com a intensidade de pixels de cada superfície. A profundidade das lesões foi aferida por meio de escores e de medidas nas imagens histológicas, radiográficas com e sem o uso de cor em cada superfície da amostra. O programa não foi capaz de identificar superfícies hígidas e lesões em diferentes profundidades no esmalte. Em todas as lesões que apresentavam alteração radiográfica em dentina, os escores atribuídos às imagens radiográficas com aplicação de cores foram 100% concordantes com os escores histológicos. Em relação às lesões que apresentavam histologicamente alteração na metade externa dentina, 55,56% tiveram sua profundidade subestimada, contudo nenhuma era cavidade em dentina. Todas as lesões que apresentavam profundidade histológica na metade interna de dentina apresentavam cavidade em dentina e mostraram a mesma extensão com a aplicação de cor na radiografia, superando os resultados obtidos com a radiografia sem cor. Em relação às medidas de profundidade, quando um desvio-padrão foi subtraído da média de densidade óptica para a aplicação de cores, as medidas resultantes foram ligeiramente menores e não diferiram significativamente daquela do exame histológico de acordo com a Análise de Variância, utilizando o delineamento de blocos casualizados, complementado pelo teste de Comparações Múltiplas de Tukey. O uso de um programa digital que determina de maneira padronizada como cada imagem deve ser colorida auxilia no diagnóstico de lesões de cárie que apresentam extensão histológica em dentina, especialmente aquelas que atinjam a sua porção interna.