999 resultados para Eliminação de ruído


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação trata da elaboração de uma ferrramenta para a geração de filtros FIR otimizados paralelos com coeficientes constantes. A ferramenta desenvolvida é capaz de gerar uma descrição VHDL de um filtro FIR paralelo com coeficientes constantes a partir das especificações do filtro. São exploradas técnicas de otimização de coeficientes e de otimização arquitetural. As técnicas empregadas são baseadas no uso de representações ternárias e redução do número de digitos não-zero dos coeficientes, uso de fatores de escala e eliminação de sub-expressões comuns. No texto, uma breve introdução sobre os filtros digitais é apresentada seguida por uma série de trabalhos encontrados na literatura relacionados às técnicas mencionadas e que são apresentados como base para o desenvolvimento da ferramenta implementada nesta dissertação. O funcionamento da ferramenta é detalhado tanto nos seus aspectos de algoritmo quanto em nível de implementação. São apresentados resultados de síntese em alguns de filtros hipotéticos projetados utilizando a ferramenta desenvolvida. Uma análise detalhada dos resultados obtidos é realizada. Os apêndices deste trabalho apresentam o código fonte da ferramenta de síntese de filtros desenvolvida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral desta dissertação é analisar a influência do crédito imobiliário no desenvolvimento habitacional do Chile e Brasil, considerando também as diferenças institucionais e econômicas dos dois países. O capítulo 1 inicia a discussão dos fatores determinantes do desenvolvimento habitacional descrevendo a história de financiamento imobiliário nos dois países. É dado destaque também para as políticas sociais e os arcabouços institucionais que afetam a dinâmica do desenvolvimento habitacional. O segundo capítulo apresenta os modelos tradicionais de equilíbrio no mercado habitacional, todos baseados na premissa de mercado de capitais perfeito. Na seqüência da análise, é apresentada teoria de mercado de crédito racionado, proposta de Stiglitz e Weiss (1981), da qual se deriva um modelo de racionamento de crédito para projetos imobiliários. Nessa abordagem, a assimetria de informação, as restrições de riqueza, a falta de liquidez, a não satisfação de direitos de propriedade e de salvaguardas legais que garantam o adimplemento de contratos tornam o crédito imobiliário racionado. Por fim, propõe-se um modelo de equilíbrio no mercado habitacional em que o crédito é racionado. A taxa primária de juros, a disponibilidade de fundos e o desenvolvimento institucional determinam a taxa de juros de empréstimo, de forma independente do nível de demanda por crédito, caracterizando um mercado em que a taxa de juros não opera como um instrumento automático de eliminação da escassez relativa de habitações. O capítulo 3 avalia, do ponto de vista quantitativo, em que medida há racionamento de crédito no Chile e no Brasil. Primeiramente, é discutida a metodologia empregada para medir o déficit habitacional e são apresentadas suas estimativas para os dois países a partir de dados censitários das últimas três décadas. Então, são apresentados o modelo econométrico e a metodologia empregada na pesquisa empírica, prosseguindo com a discussão de seus resultados. Nessa etapa da pesqu

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata da avaliação de desempenho do ambiente construído de ambulatórios médicos voltados à Medicina do Trabalho, tendo como objetivo a busca de diretrizes ergonômicas de projeto que venham a contribuir para a reformulação dos ambulatórios estudados e/ou para o planejamento de ambulatórios semelhantes. Para isso, utilizou-se um método de análise e ação ergonômica, com abordagem participativa, ao qual foi inserida uma das etapas de uma técnica corrente de avaliação do ambiente construído - a APO (Avaliação Pós-Ocupação). Os estudos de caso foram desenvolvidos em ambulatórios do setor médico de duas empresas gaúchas. Verificou-se que, mesmo havendo diferenças significativas entre estas empresas (atividade econômica, porte e gradação de risco), existem problemas comuns relacionados aos seus ambulatórios. Os resultados demonstram ser as questões de planejamento a origem dos principais conflitos existentes entre os ambientes construídos e seus usuários - os ambulatórios não atendem à legislação vigente do Ministério da Saúde que regulamenta os estabelecimentos assistenciais de saúde e, além disso, foram identificadas problemas referentes ao leiaute, mobiliário, ruído e privacidade. Pôde-se concluir, também, que a integração dos usuários em todas as fases realizadas do método macroergonômico utilizado foi fundamental para o alcance do objetivo proposto. Por fim, recomenda-se a participação significativa dos trabalhadores das empresas em todas as fases referntes a futuros planejamentos dos ambulatórios estudados e que os resultados desta pesquisa sejam aplicados como diretrizes para esses projetos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Teorias de calibre formuladas em um espaço-tempo não cumulativo têm sido intensamente estudadas nos últimos anos. O interesse nesse assunto possui motivações provenientes da teoria de cordas. Uma das propriedades mais notáveis das teorias das não-cumulativas consiste de uma estrutura não usual de divergências,a chamada mistura UV/IR, que pode levar ao aparecimento de divergências infravermelhas não integráveis. A eliminação de tais divergências é crucial já que elas podem provocar o colapso da série pertubativa. Modelos não- cumulativos supersimétricos tem um lugar proeminente entre as teorias de campo fisicamente interessantes, uma vez que a supersimetria favorece o cancelamento das divergências perigosas. Eles são os melhores candidatos num programa para definir teorias de campo não-cumulativas consistentes. Neste trabalho investigamos a QED e Yang-Mills não-cumulativos supersimétricos em três dimensões usando o formalismo de supercampos. Para o caso abeliano provamos que a mistura UV/IR não é fonte de divergências infravermelhas não integráveis. Além disso, o modelo resulta ser finito na aproximação de um laço. O mesmo se aplica ao caso abeliano porém apenas na representação fundamental do grupo de calibre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo analisa a relação entre facção e sistema eleitoral no Uruguai. Toma-se a reforma constitucional de 1996 como paradigma que busca a eliminação das facções pela modificação do sistema eleitoral. Mostra-se que nem todas as facções no Uruguai decorrem, necessariamente, do sistema eleitoral. A origem dos principais partidos políticos é discutida e com ela se analisa a base social de cada um. O crescimento eleitoral da esquerda, dentro de um sistema eleitoral concebido para garantir a continuidade dos partidos tradicionais, é apresentado com o ponto de partida da reforma. Uma comparação entre os dois sistemas eleitorais – o antigo e o novo – leva a conclusão que os partidos tradicionais, por não conseguirem resolver problemas de coordenação no pólo conservador do sistema de partidos, acabam por operar uma reforma que garanta mais representação proporcional frente uma oposição crescente, que tende a ser maioria. Com a teoria dos jogos, os incentivos e a lógica para a formação de coligações de facções são aportados ao estudo demonstrando que as mesmas atuam de forma cooperativa para suplantar estratégias, que individualmente conferem menores ganhos. Mecanismos clássicos de mensuração de número efetivo de partidos (NEP) apontam a quantidade de facções relevantes no sistema. Conclui-se que as facções são agentes relevantes do sistema e que a reforma do sistema eleitoral agiu de forma diversa sobre as facções dos três maiores partidos Uruguaios, não eliminando o fenômeno faccionista.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objeto de estudo deste trabalho é uma avaliação dos impactos econômicos e ambientais de um possível acordo comercial da Área de Livre Comércio da Américas (ALCA) concomitantemente com as reduções de emissões de CO2 tratadas pelo Protocolo de Quioto. Acordos globais de redução de CO2 podem distorcer os resultados que seriam obtidos pelos acordos comerciais, e os acordos comerciais tendem a gerar mais emissões de CO2. Os cenários são construídos para a simulação de eliminação dos gravames tarifários entre os membros da ALCA bem como de redução de emissão de CO2 para os signatários do Protocolo, admitindo ainda a possibilidade de execução de um dos mecanismos de flexibilidade do Protocolo de Quioto – o comércio de emissões. O instrumento utilizado para as simulações - GTAP-E - é uma versão modificada do GTAP (Global Trade Analysis Project) desenvolvido pela Universidade de Purdue. O GTAP-E (energia), foi projetado para analisar assuntos relacionados ao uso de energia e impactos de políticas de mudança climática. Ele difere do modelo GTAP padrão principalmente pela descrição mais detalhada das possibilidades de substituição de uso entre as diferentes fontes de energia. Esse modelo utiliza uma base de dados que, além dos dados usualmente utilizados pelo GTAP padrão, inclui elasticidades de substituição para o uso dos commodities energia e quantidades de emissões de CO2 gerados pela queima dos combustíveis fósseis (carvão, petróleo cru e gás natural), e também pelo uso de produtos derivados do petróleo e geração de eletricidade Os resultados obtidos corroboraram a hipótese que a política ambiental de redução de emissões, apesar de contribuir para a diminuição de CO2 na atmosfera, de forma geral, afeta negativamente o bem-estar econômico dos países que abatem emissões, principalmente através do encarecimento das commodities de energia e a conseqüente redução do seu uso. Esse efeito é mais pronunciado em países cuja matriz energética é mais intensiva em carvão e petróleo. Para o Brasil, os resultados mostraram que a melhor estratégia para participar do processo de redução de emissões seria a de o país estar inserido diretamente no mecanismo de comércio de emissões. Essa situação traria ganhos de bemestar econômico, avaliados pela variação equivalente da renda, superiores, em comparação às alternativas em que o mesmo não participa de tal mecanismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O planejamento provoca um fascínio e deslumbramento no homem desde os primórdios do seu aparecimento, quando procura antever o futuro, que se lhe apresenta desconhecido e misterioso. Uma das características do ser humano é fazer planos, sendo essa atividade uma atitude inerente ao homem e também às sociedades. A literatura brasileira, disponível sobre o tema, apresenta-se de uma certa forma dicotômica, quase sempre sem uma unidade orgânica, ora produzindo parcos estudos teóricos, ora fornecendo análises de experiências específicas de países, regiões e estados em períodos de tempo determinados. A dissertação de mestrado para a Escola Brasileira de Administração Pública - EBAP Fundaçâo Getúlio Vargas - FGV,Planejamento Governamental. Aspectos teóricos e uma análise das experiências mundial, brasileira e cearence, consolida num só estudo os aspectos teóricos e práticos dentro de um encadeamento lógico,didático com o objetivo de revisitar/esclarecer o tema e servir de mate rial de consulta/referência para cursos de graduação e pós-graduação da disciplina Planejamento Governamental. Para uma melhor compreensão das experiências de planejamento, apresenta inicialmente os aspectos teóricos, conceituando o tema e relacionando suas funções ~ características. O trabalho mostra o inter-relacionamento do, planejamento com o poder e a política, incluindo a discussão do mito da neutralidade e racionalidade, assim como' sua utilização como instrumento nas mãos dos que detêm o poder, Demonstra também o caráter do plnejamento como processo com definições e a descrição de três modelos teóricos - Bromley, Tristão e Hilhorst. Apresenta o dilema liberdade do setor privado versus intervenção governamental, desde as primeiras manifestações de planejamento na Rússia, após a revolução de outubro de 1917 passando pelas experiências da Europa e Estados Unidos da América, até a dos países subdesenvolvidos, cada qual com suas condições históricas e institucionais peculiares. Faz uma análise da experiências mundial e brasileira (dividida em fases: ocasional - até 1930, empírica 1930-1964 e científica 1964-1986), sendo que para esta última adota uma abordagem síntese baseada nos pontos de vista de diversos autores examinados, principalmente Benedicto Silva, Werner Baer, Issac Kerstenetzky, Anniba1 V. Villela, Jorge Vianna Monteiro e Luiz Roberto Aze vedo Cunha. No caso da experiência cearense ( 1963-1986 ), a descrição factual e linear dos planos tem uma seqUência temporal (a exemplo dos planos brasileiros), forma meramente didática escolhi da e visa uma melhor compreensão do assunto. Paralelamente, analisa os planos em seus aspectos econômico, social, político e cultural de forma integrada, numa tentativa de dimensionar a história total do planejamento estadual. O enfoque tradicional de comparação objetivos propostos/objetivos alcançados, muito comum nas análises das experiências de planejamento, é deixado de lado stricto-senso. Em contrapartida, dá ênfase a um aspecto que julga mais relevante: a identificação da evolução dos arranjos organizacionais, visto ser o planejamento algo que neles se traduz e cuja exequibilidade depende, em alto grau, do contexto institucional. Isentando o conceito do planejamento de culpa pelo seu fracasso no atingimento da maioria de seus objetivos, o trabalho aponta uma série de fatores particularmente desfavoráveis que configura uma situação de crise: Objetivos apologéticos e triunfalistas; retórica inócua; uso do planejamento no sentido de fortalecedor e viabilizador dos interesses da classe dominante; exarcebação da técnica e tese da neutralidade do planejamento para efeito de obtenção de poder; manipulação do planejamento como instrumento de mistificação, assim como seu uso como fetiche e servidor de "trampolim" para a política (principalmente no Ceará); a eliminação do caráter federativo da União Republicana, provocando a perda de autonomia dos estados com o sistema tributário, conduzindo a uma centralização das decisões ( e do poder )'; ausência de continuidade nas políticas econômicas de longo prazo tendo como corolário a descontinuidade administrativa e, por último, a própria natureza do planejamento posto em prática no Brasil e no Ceará que, sendo indicativo, não detém o controle de todas as variáveis do processo. O aparecimento de um novo paradigma para o planejamento governamental passaria, necessariamente, pela antítese dos entraves apontados no estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As endometrites bacterianas são uma das principais causas de infertilidade na égua. Entre os tratamentos utilizados nesta patologia, estão as infusões uterinas de plasma homólogo acrescido de leucócitos e a infusão de leucócitos heterólogos criopreservados. O presente trabalho teve por objetivo realizar testes in vivo e in vitro, que foram descritos em dois artigos. No primeiro artigo, objetivou-se avaliar in vitro a quimiotaxia dos leucócitos eqüinos em relação a diferentes quimioatraentes, bem como sua vitalidade e produção de radicais livres de oxigênio (ROS) pós-descongelamento. No experimento 1, testou-se dextrose em concentrações de 0, 1, 2 e 6%, acrescida ou não de interleucina-8 (IL-8), como quimioatraente para leucócitos eqüinos suspensos em salina fosfatada tamponada (PBS) ou em R3F; no experimento 2, testou-se plasma homólogo ou heterólogo, a 3% (com ou sem IL-8), 10, 30, 60 e 90%, como quimioatraente; no experimento 3, foi testada a quimiotaxia de leucócitos íntegros em relação a diferentes quantidades de leucócitos lisados. O experimento 4 avaliou a vitalidade e a geração de ROS pelos leucócitos após o descongelamento, comparando quatro graus de diluição em NaCl e PBS. Concluiu-se que a dextrose não apresenta bom efeito quimioatraente para leucócitos eqüinos. Dentre as concentrações de plasma utilizadas, concentrações de plasma homólogo entre 10% e 60% apresentam bom efeito quimiotático. Já o plasma heterólogo apresentou boa atração de leucócitos quando em concentrações de 10% e de 30% Na concentração de 10x106/mL, os leucócitos lisados foram capazes de atrair leucócitos em proporção semelhante à da IL-8. Com relação aos testes-pós-descongelamento, células ressuspendidas em PBS ou NaCl apresentam vitalidade e geração de radicais livres de oxigênio semelhantes, quando incubados por até 15 minutos. No segundo artigo, realizaram-se testes in vivo compararando cinco tratamentos em éguas, em estro, experimentalmente infectadas com Streptococcus equi subsp.zooepidemicus. Foram utilizadas 25 éguas, 20 consideradas resistentes, e 5 éguas susceptíveis à endometrite. Após 24 horas, os animais foram submetidos a exame clínico, bacteriológico e citológico. Com a presença de quadro clínico de endometrite, as éguas eram submetidas a um dos seguintes tratamentos: 1-Infusão de 120mL de plasma homológo com de leucócitos frescos; 2-– Infusão de 4 mL contendo 800 x 106 leucócitos íntegros, congelados; 3-Leucócitos lisados - Infusão de 4 mL contendo 800 x 106 leucócitos lisados; 4- IL-8- Infusão de 4 mL contendo 25 ng/mL de IL-8 congelada; 5-Controle – Infusão de 4 mL de meio R3F congelado. Os exames clínico, bacteriológico e citológico foram realizados diariamente até o sétimo dia pós-infecção, ou até a eliminação da bactéria, ou até a ausência de neutrófilos no esfregaço citológico. Após os exames, as éguas receberam o tratamento designado, sendo estes realizados diariamente até a ausência de crescimento bacteriano no exame microbiológico ou por, no máximo, quatro dias. No sétimo dia, todas as éguas foram tratadas com infusão intra-uterina de 5.000.000 UI de penicilina G potássica cristalina. Após o término de um tratamento, aguardava-se cerca de sete dias para a reinfecção, num outro ciclo, quando um outro tratamento era aplicados. Todas as éguas foram submetidas a todos os tratamentos, perfazendo um total de 125 infecções experimentais num delineamento experimental do tipo Quadrado Latino. Não se observaram diferenças significativas no tempo de eliminação bacteriana nas éguas resistentes. Entretanto, nas éguas susceptíveis, observou-se uma cura bacteriana mais rápida quando as éguas foram tratadas com leucócitos frescos, leucócitos congelados e leucócitos lisados, em relação às tratadas com IL-8 e as do grupo controle. Concluiu-se que o efeito bactericida dos leucócitos viáveis ou lisados, associados ou não à presença de fatores de opsonização do plasma, foi o responsável pela cura bacteriológica e que o efeito quimioatraente de neutrófilos, plasma, restos celulares e IL-8 não influiu no tempo de eliminação bacteriana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo pretende avaliar o desempenho das Delegacias da Receita Federal através do estabelecimento de uma fronteira de eficiência paramétrica baseada nos custos, utilizando para tal um modelo estocástico que divide o ruído em dois componentes, sendo um aleatório e outro proveniente da ineficiência de cada unidade. O trabalho terá por base dados relativos aos anos de 2006 e 2008 em uma análise em corte transversal e visa avaliar a política pública de unificação dos órgãos estatais responsáveis pela arrecadação de tributos em nível Federal, a Secretaria da Receita Federal (SRF) com a Secretaria da Receita Previdenciária (SRP), ocorrida através da lei 11.457 de 16 de março de 2007. O objetivo principal da pesquisa é determinar se as unidades descentralizadas da Receita Federal, notadamente as Delegacias da Receita Federal estão operando com eficiência, na tarefa de arrecadar tributos, em função dos recursos colocados a disposição para execução de suas atividades. Na presente pesquisa o produto da unidade a ser avaliado é a arrecadação, dentre as inúmeras atividades realizadas pelo órgão, no sentido de proporcionar ao Estado recurso para implantação de Políticas Públicas. O resultado encontrado indica que as regiões onde existe um grande número de empresas optantes pelo regime de tributação do SIMPLES, bem como as que possuem em sua jurisdição empresas consideradas DIFERENCIADAS pelo seu porte, provocam um aumento nos custos das Delegacias. As unidades que se encontram nas capitais dos Estados melhoraram o seu desempenho após a unificação. Além disso, uma proporção maior de Auditores Fiscais dentro da Delegacia em relação ao total de servidores reduz a ineficiência. O trabalho espera contribuir na avaliação desse novo modelo de gestão implantado na administração tributária federal no país.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Após a entrada em vigor do Protocolo de Kyoto em 2005 e a divulgação dos relatórios do IPCC sobre as mudanças climáticas, em 2007, muitos países passaram a buscar formas de produzir fontes alternativas de energia na tentativa de diminuir suas emissões de gases de efeito estufa. Por outro lado, a tentativa de alguns países de serem menos dependentes do petróleo e consolidarem políticas de segurança energética foi também um fator que contribuiu significativamente para a produção e consumo de fontes renováveis. Assim, a produção e a demanda de biocombustíveis apresentam-se como alternativa para o cumprimento de ambos os objetivos: redução de emissões e segurança energética. Quando analisamos custo de produção, produção por hectare, balanço energético e redução na emissão de gases de efeito estufa, a cana-de-açúcar apresenta-se como a matéria-prima mais competitiva para a produção de etanol. Entretanto, nem todos os países possuem tecnologia, condições agroclimáticas, estabilidade política para a produção dessa cultura. Este trabalho tem o objetivo de identificar as condições climáticas, socioeconômicas e políticas de países e sub-regiões localizados na zona intertropical, de modo a facilitar a disseminação da produção de etanol por meio da cooperação internacional. No entanto, havendo condições agroclimáticas em um país, isso seria suficiente para implementar sistemas de produção de cana-de-açúcar? Conforme veremos na hipótese apresentada, uma análise política e socioeconômica é necessária a fim de avaliar a situação do Estado de Direito dos Estados pretendentes à produção de cana. Para aqueles países em condições do seu cultivo, a pesquisa demonstra cooperação internacional como um dos meios para adquirir assistência técnica, transferência de tecnologia e disseminar os benefícios socioeconômicos e ambientais do etanol em outros países. Tornar o etanol uma commodity também é uma das maneiras de difundir o mercado do produto no mundo. Entretanto, como veremos, a commoditização do etanol está, adicionalmente, sujeita a fatores técnicos, políticos e econômicos. Por fim, pretende-se demonstrar que a disseminação global do etanol não depende apenas da produção em diversos países e da commoditização do produto, mas também da eliminação de barreiras tarifárias e não tarifárias impostas no comércio internacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho testa a existência de relações de codependência de ordem zero em spreads formados a partir da estrutura a termo da taxa de juros no Brasil. O objetivo é verificar se existem combinações lineares dos spreads que geram um processo ruído branco contemporâneo. Essas combinações lineares poderiam ser utilizadas para a previsão de taxas de juros futuras dado que desvios destas relações estáveis implicariam em um movimento futuro das taxas de juros no sentido de restabelecer o equilíbrio. O modelo de Nelson e Siegel (1987) serve de base teórica para os testes empíricos. Ao verificar a hipótese de codependência de ordem zero é possível também analisar premissas quanto aos parâmetros do modelo em relação à estrutura a termo da taxa de juros no Brasil. As evidências obtidas a partir dos resultados empíricos apontam na rejeição da hipótese de codependência de ordem zero e, consequentemente, na impossibilidade de definir as combinações lineares mencionadas. Esta constatação pode estar relacionada aos períodos de instabilidade presentes na amostra ou na existência de codependência de ordem superior a zero.