1000 resultados para Decomposição aeróbia
Resumo:
A resposta impulso é utilizada como ferramenta padrão no estudo direto de sistemas concentrados, discretos e distribuídos de ordem arbitrária. Esta abordagem leva ao desenvolvimento de uma plataforma unificada para a obtenção de respostas dinâmicas. Em particular, as respostas forçadas dos sistemas são decompostas na soma de uma resposta permanente e de uma resposta livre induzida pelos valores iniciais da resposta permanente. A teoria desenvolve-se de maneira geral e direta para sistemas de n-ésima ordem, introduzindo-se a base dinâmica gerada pela resposta impulso na forma padrão e normalizada, sem utilizar-se a formulação de estado, através da qual reduz-se um sistema de ordem superior para um sistema de primeira ordem. Considerou-se sistemas de primeira ordem a fim de acompanhar-se os muitos resultados apresentados na literatura através da formulação de espaço de estado. Os métodos para o cálculo da resposta impulso foram classificados em espectrais, não espectrais e numéricos. A ênfase é dada aos métodos não espectrais, pois a resposta impulso admite uma fórmula fechada que requer o uso de três equações características do tipo algébrica, diferencial e em diferenças Realizou-se simulações numéricas onde foram apresentados modelos vibratórios clássicos e não clássicos. Os sistemas considerados foram sistemas do tipo concentrado, discreto e distribuído. Os resultados da decomposição da resposta dinâmica de sistemas concentrados diante de cargas harmônicas e não harmônicas foram apresentados em detalhe. A decomposição para o caso discreto foi desenvolvida utilizando-se os esquemas de integração numérica de Adams-Basforth, Strömer e Numerov. Para sistemas distribuídos, foi considerado o modelo de Euler-Bernoulli com força axial, sujeito a entradas oscilatórias com amplitude triangular, pulso e harmônica. As soluções permanentes foram calculadas com o uso da função de Green espacial. A resposta impulso foi aproximada com o uso do método espectral.
Resumo:
O Contrato de Gestão é um instrumento que visa rever e corrigir relações de controles ineficazes, bem como obter maior responsibilização por parte da área pública em relação ao atingimento de objetivos predefinidos. Este estudo possui características de uma pesquisa do tipo exploratório-descritiva, tendo como objetivo geral analisar as relações contratuais entre o Governo do Estado do Rio Grande do Sul e três empresas estatais gaúchas no processo de implementação do Contrato de Gestão. Os dados foram coletados por meio de entrevistas semi-estruturadas com servidores das empresas e da Secretaria de Coordenação e Planejamento, que participaram dos estudos e das negociações da implementação dos Contratos de Gestão. Para decomposição dos dados, foi utilizada a metodologia da análise de conteúdo na modalidade de análise temática. Os resultados são apresentados em oito categorias iniciais, três intermediárias e duas finais: Na Implementação dos Contratos e a Manutenção dos Contratos, os resultados colocam em evidência que esses se, originaram de uma decisão política, através de um pacto com o Governo Central, para uma mudança estrutural e filosófica da administração Estadual. A manutenção desses está condicionada ao envolvimento dos mais altos dirigentes políticos, pela não-ingerência administrativa na gestão das empresas, e ao esforço de formação e integração dos funcionários.
Resumo:
A linguagem síncrona RS é destinada ao desenvolvimento de sistemas reativos. O presente trabalho tem como objetivo criar meios que facilitem o uso da linguagem RS no projeto e implementação desses sistemas, permitindo que, à partir da especificação de um sistema reativo, seja realizada a sua implementação de forma automática. Deste modo, a linguagem RS é utilizada para a descrição do comportamento de um sistema em um alto nível de abstração, antes de serfeitas a decomposição do sistema em componentes de software ou hardware. A implmentação do protótipo do sistema computacional dedicado é obtida através de uma síntese automática desse modelo de alto nível. Foram implementados geradores de código que utilizam o código objeto fornecido pelo compilador da linguagem RS. Os geradores fazem a tradução para a linguagem C, para a linguagem JAVA, ou para a linguagem de descrição de hardware VHDL. A partir da síntese desses códigos poderá ser obtida a implementação do sistema em um micrcoomputador comercial, em um microcomputador Java de dedicado (ASIP Java), ou em um hardware de aplicação específica (ASIC). Foram realizados estudos de caso representativos dos sistemas reativos embaraçados e de tempo rel. Estes estudos de caso serviram para validar os geradores de código bem como para analisar o uso da linguagem RS no projeto e implementação desses sistemas.
Resumo:
No seu hábitat, muitos organismos, entre eles os caracóis, estão expostos a um grande número de variáveis ambientais como temperatura, umidade, fotoperiodicidade e disponibilidade de alimento. O caracol Megalobulimus oblongus é um gastrópode terrestre que, durante épocas de estiagem, costuma permanecer enterrado no solo. Com esse comportamento o animal evita a perda de água durante o período de seca, embora nessa condição (enterrado no solo) o animal tenha que enfrentar uma situação de disponibilidade de oxigênio reduzida (hipóxia). O metabolismo dos gastrópodes terrestres está baseado na utilização de carboidratos e as reservas desse polissacarídeo são depletadas durante situações de hipóxia/anoxia. Estudos sobre o metabolismo de moluscos frente a essas condições ambientais adversas, como a própria anoxia, têm sido realizados apenas em tecidos de reserva. Trabalhos relacionando o metabolismo do sistema nervoso durante essa situação são escassos. Dessa forma, o presente trabalho teve como objetivo estudar o metabolismo de carboidratos do sistema nervoso central do caracol Megalobulimus oblongus submetido a diferentes períodos de anoxia e recuperação aeróbia pós-anoxia. Para isso, após o período experimental foram dosadas a concentração de glicogênio e a concentração de glicose livre nos gânglios do sistema nervoso central do animal, além da concentração de glicose hemolinfática. Juntamente com essa abordagem bioquímica, foi realizado um estudo histoquímico semiquantitativo com o objetivo de verificar a atividade da forma ativa da enzima glicogênio fosforilase (GFa) nos gânglios cerebrais dos caracóis submetidos aos períodos de anoxia e recuperação. Foi verificado um aumento da concentração de glicose hemolinfática após o período inicial de 1,5h de anoxia, que se manteve elevado ao longo de todo o período anóxico. A concentração de glicogênio estava significativamente reduzida às 12h de anoxia e a concentração de glicose livre permaneceu constante ao longo de todo o período anóxico, enquanto foi observada uma redução progressiva da GFa. Não foram verificadas mudanças significativas nesses metabólitos nos animais do grupo simulação (“sham”) quando comparados ao grupo controle basal. Durante o período de recuperação aeróbia após 3h de anoxia, os valores de glicose hemolinfática foram reduzidos, retornando aos valores basais após 3h de recuperação aeróbia. A atividade GFa, reduzida durante a anoxia, também retornou aos valores do grupo controle durante a fase de recuperação. A concentração de glicose livre teve uma queda significativa no tempo de 1,5h de recuperação e existiu uma tendência à redução do glicogênio do tecido nervoso às 3h de recuperação aeróbia. A enzima GFa retornou a sua atividade basal durante o período de recuperação. Os resultados sugerem que, em função da elevada concentração de glicose hemolinfática, outros tecidos possam estar fornecendo a glicose necessária para a manutenção do tecido nervoso de Megalobulimus oblongus durante a anoxia, enquanto a redução do glicogênio do tecido nervoso verificada às 12h de anoxia deva estar relacionada ao aumento de atividade do animal durante a escotofase (o grupo 12h de anoxia foi dissecado à noite) somado ao próprio efeito da anoxia. A redução da GFa ao longo do período anóxico pode indicar uma depressão metabólica no tecido nervoso. Durante o início da fase de recuperação aeróbia pós-anoxia, a queda da concentração de glicose livre e a tendência à redução na concentração de glicogênio podem estar relacionadas ao fornecimento da energia necessária para o restabelecimento dos estoques energéticos utilizados durante às 3h iniciais de anoxia, já que a glicose hemolinfática retornou à concentração basal. Como não foi verificada qualquer redução significativa durante às 3h iniciais de anoxia nas concentrações de glicose livre e de x glicogênio nos gânglios nervosos centrais de Megalobulimus oblongus, discute-se a possibilidade de que o tecido nervoso do caracol tenha utilizado reservas de fosfogênios e ATP para satisfazer suas demandas energéticas durante as 3h iniciais de ausência de oxigênio.
Resumo:
O exercício físico está relacionado com a formação de radicais livres e com a adaptação do sistema antioxidante. O objetivo deste trabalho foi avaliar os parâmetros oxidativos e antioxidantes após três sessões independentes de exercício agudo em esteira rolante, em três intensidades diferentes, determinadas a partir dos limiares ventilatórios e consumo máximo de oxigênio, obtidos em um teste de potência aeróbia máxima. Dezessete indivíduos do sexo masculino com idade entre 20 e 30 anos divididos em dois grupos; oito triatletas, compondo o grupo treinado, e nove estudantes de educação física, compondo o grupo não treinado. As amostras sangüíneas foram coletadas antes e imediatamente após o exercício para determinação da quimiluminescência, da capacidade antioxidante total plasmática (TRAP) e da atividade eritrocitária das enzimas superóxido dismutase (SOD), catalase (CAT) e glutationa peroxidase (GPx). Foram observados um efeito do exercício sobre a capacidade antioxidante total, que se apresentou aumentada após o exercício (p<0,05) e um efeito do estado de condicionamento físico sobre a atividade da enzima glutationa peroxidase, que se apresentou maior nos indivíduos treinados (p<0,05). Houve redução da quimiluminescência após o exercício em alta intensidade no grupo treinado (p<0,05). A enzima superóxido dismutase se apresentou elevada após o exercício nas intensidades baixa e média no grupo não treinado (p<0,05). Não foram encontradas mudanças na atividade da enzima catalase.
Resumo:
Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.
Resumo:
As variáveis físicas, químicas e microbiológicas de um sistema de lagoas interligadas para o tratamento de dejetos suínos foram avaliadas. O sistema, composto por sete lagoas em séries (duas anaeróbias, uma facultativa, uma com aeração mecânica e três aeróbias), está localizado no sul do Brasil e recebe dejetos de cerca de 4.000 matrizes e 30.000 suínos em crescimento e terminação. Foram realizadas 20 coletas quinzenais, em sete pontos ao longo do sistema de tratamento. Verificou-se a existência de diferença significativa (p<0,05) na quantidade de fosfato (PO4), nitrato (NO3), fósforo total (PT), sólidos totais (ST) e sólidos voláteis (SV) entre os pontos iniciais do sistema, os quais são anteriores ao tratamento propriamente dito, e as demais fases do processo. A maior redução dos parâmetros analisados ocorreu após as lagoas anaeróbias, havendo uma contínua diminuição dos mesmos no decorrer do processo (p<0,05). As reduções observadas foram de 97,5% para Demanda Bioquímica de Oxigênio (DBO), 97,2% para Demanda Bioquímica de Oxigênio (DQO), 74,8% PO4, 91,2% NO3, 70% PT, 77,4% ST, 86,7% SV, 99% de Coliformes Totais (CT) e 99% de Coliformes Fecais (CF) comparando-se os valores médios no início e no final do sistema. O sistema demostrou, ainda, ser eficaz no controle de Salmonella sp. Das 20 coletas realizadas, foi possível isolar Salmonella sp. em 13 coletas no ponto correspondente ao início do sistema de tratamento e em apenas uma no ponto final do mesmo. Ao lado disto, verificou-se modificação da microbiota mesófila aeróbia ao longo do sistema onde, no afluente predominaram microorganismos Gram negativos com características de enterobactérias e no efluente, cocos Gram positivos catalase negativos. Entretanto, não houve redução significativa no número de unidades formadoras de colônias de mesófilos aeróbios ao longo do sistema. Das 161 amostras de Salmonella Typhimurium e 186 amostras de Escherichia coli isoladas, determinou-se o perfil de resistência pelo método de difusão em ágar, usando 14 antimicrobianos. Observou-se resistência contra sulfonamida (99,5% e 100%), tetraciclina (97,3% e 99,4%), ampicilina (96,8% e 76,4%), estreptomicina (96,2% e 90,1%), sulfa/trimetoprima (95,2% e 84,5%), ácido nalidíxico (82,8% e 77,6%), cloranfenicol (70,4% e 29,2%), cefaclor (71,5% e 25,5%), neomicina (38,2% e 5%), gentamicina (37,1% e 6,2%), tobramicina (35,5% e 13,7%), ciprofloxacina (30,1% e 0%), amoxacilina/ácido clavulânico (11,8% e 5%) e amicacina (9,1% e 3,7%) para E. coli e Salmonella respectivamente, sendo que todas as amostras de Salmonella foram sensíveis à ciprofloxacina. A resistência a quatro ou mais antimicrobianos foi observada em 99,5% das amostras de E. coli e 94,5% das amostras de Salmonella. O padrão de multiresistência foi mantido ao longo do sistema, apesar de verificar-se uma tendência à menor resistência nas amostras de E. coli isoladas após a passagem pelas lagoas aeróbias. As amostras, tanto da afluente como do efluente do sistema, apresentaram grande variabilidade nos perfis de resistência.
Resumo:
o exame para o diagnóstico de doenças da laringe é usualmente realizado através da videolaringoscopia e videoestroboscopia. A maioria das doenças na laringe provoca mudanças na voz do paciente. Diversos índices têm sido propostos para avaliar quantitativamente a qualidade da voz. Também foram propostos vários métodos para classificação automática de patologias da laringe utilizando apenas a voz do paciente. Este trabalho apresenta a aplicação da Transformada Wavelet Packet e do algoritmo Best Basis [COI92] para a classificação automática de vozes em patológicas ou normais. Os resultados obtidos mostraram que é possível classificar a voz utilizando esta Transformada. Tem-se como principal conclusão que um classificador linear pode ser obtido ao se empregar a Transformada Wavelet Packet como extrator de características. O classificador é linear baseado na existência ou não de nós na decomposição da Transformada Wavelet Packet. A função Wavelet que apresentou os melhores resultados foi a sym1et5 e a melhor função custo foi a entropia. Este classificador linear separa vozes normais de vozes patológicas com um erro de classificação de 23,07% para falsos positivos e de 14,58%para falsos negativos.
Resumo:
Este trabalho é um estudo sobre propriedades de decomposição de polinômios em corpos finitos. Em particular fazemos um estudo sobre métodos de fatoração e cálculos de raízes. Procedemos inicialmente com um apanhado de conceitos e teoremas que embasam o trabalho. Com o objetivo de determinar raízes de polinômios em corpos finitos, alguns tópicos tornam-se pré-requisitos. O primeiro deles é a própria representação dos elementos dos corpos finitos. O outro é o estudo de métodos determinísticos ou probabilísticos para fatorar polinômios sobre corpos finitos. Os métodos estudados são o de Berlekamp, Cantor-Zassenhaus e Lidl-Niederreiter. Fazemos finalmente o estudo de métodos que podem ser empregados para determinarmos as raízes de polinômios pertencentes a corpos finitos. Métodos estes que apresentam variações de acordo com o tamanho do corpo.
Resumo:
Este trabalho tem por objetivo principal avaliar a existência de equivalência ricardiana no Brasil. Para isto, empregam-se três metodologias distintas. Inicialmente, com base no modelo de Enders e Lee (1990), utilizam-se regressões do tipo VAR e VEC e decomposição de variância para avaliar de que forma consumo e exportações líquidas reagem a variações não-antecipadas da dívida do setor público, mantidos constantes os gastos do governo. Em seguida, com base no mesmo modelo teórico, estimam-se parâmetros relativos à função consumo e testam-se as restrições de sobre-identificação associadas à técnica de MGM. Por último, efetuam-se testes relativos à restrição de liquidez com base no modelo de consumidores restritos de Campbell e Mankiw (1989). Embora alguns dos resultados sejam inconclusos, particularmente quando se utilizam os dois primeiros métodos de investigação (análise de variância e teste das restrições de sobre-identificação), de modo geral concluímos pela não-validade da hipótese para o Brasil. Teoricamente, isto é compatível com o fato de se ter uma parcela substancial de consumidores brasileiros restritos na obtenção de crédito (a exemplo do que já haviam também concluído Reis, Issler, Blanco e Carvalho (1998) e Issler e Rocha (2000) e do que também concluímos na última seção).
Resumo:
Este artigo analisa a série de consumo agregado do Brasil. Como usual, investigamos, primeiramente, a aplicabilidade da hipótese do passeio aleatório do consumo, derivada teoricamente a partir das hipóteses de ciclo de vida/renda permanente e expectativas racionais (TRP). Utilizando a decomposição de Beveridge e Nelson (1981) verificamos que o consumo apresenta, além de uma tendência estocástica, uma parte cíclica estacionária, o que não é compatível com a TRP. Este resultado está em conformidade com o resultado de Reis et alii (1998) de que grande parte da população brasileira está restrita a consumir sua renda corrente, existindo um ciclo comum entre consumo e renda. Em uma tentativa de gerar um processo estocástico para o consumo compatível com a evidência empírica introduzimos formação de hábito nas preferências de um consumidor representativo. No entanto, o processo daí derivado não se mostrou significativo diante da possibilidade dos consumidores serem restritos à liquidez.
Resumo:
Esse artigo usa uma metodologia de decomposição tendência-ciclo para estimar o produto potencial brasileiro e investigar a importância relativa dos choques permanentes e transitórios. Conclui-se que os primeiros explicam quase que 100% da variância do produto privado. A partir desta evidência, investiga-se a existência de relações de longo prazo entre o produto potencial e diversos possiveis determinantes do crescimento a longo prazo, como investimentos externos, escolaridade média e taxa de analfabetismo da população econolTÚcamente ativa. Conclui-se que as duas primeiras possuem uma relação de longo prazo com o produto potencial, e que a elasticidade de longo prazo é não desprezível. A luz desta evidência, discute-se questões de política econômica.
Resumo:
From a methodological point of view, this paper makes two contributions to the literature. One contribution is the proposal of a new measure of pro-poor growth. This new measure provides the linkage between growth rates in mean income and in income inequality. In this context, growth is defined as propoor (or anti-poor) if there is a gain (or loss) in the growth rate due to a decrease (or increase) in inequality. The other contribution is a decomposition methodology that explores linkages between growth patterns and social policies. Through the decomposition analysis, we assess the contribution of different income sources to growth patterns. The proposed methodologies are then applied to the Brazilian National Household Survey (PNAD) covering the period 1995-2004. The paper analyzes the evolution of Brazilian social indicators based on per capita income exploring links with adverse labour market performance and social policy change, with particular emphasis on the expansion of targeted cash transfers and devising more pro-poor social security benefits.
Resumo:
From a methodological point of view, this paper makes two contributions to the literature. One contribution is the proposal of a new measure of pro-poor growth. This new measure provides the linkage between growth rates in mean income and in income inequality. In this context, growth is defined as pro-poor (or anti-poor) if there is a gain (or loss) in the growth rate due to a decrease (or increase) in inequality. The other contribution is a decomposition methodology that explores linkages growth patterns, and labour market performances. Through the decomposition analysis, growth in per capita income is explained in terms of four labour market components: the employment rate, hours of work, the labour force participation rate, and productivity. The proposed methodology are then applied to the Brazilian National Household Survey (PNAD) covering the period 1995-2004. The paper analyzes the evolution of Brazilian social indicators based on per capita income exploring links with adverse labour market performance.
Resumo:
Este artigo decompõe o diferencial de salários por cor e sexo dos trabalhadores brasileiros usando os microdados da Pesquisa Nacional por Amostra de Domicílio (PNAD). A metodologia consiste em estimar a equação de salários (Mincer, 1974) com a correção do viés de seleção das informações dos salários (Heckman, 1979). Em seguida, a decomposição do diferencial da média do logaritmo do salário/hora foi obtida pelo procedimento de Oaxaca (1973) apresentada em dois efeitos: características produtivas e discriminação. A análise empírica tem como foco o uso adequado de procedimentos de modelagem estatística em pesquisas, por amostragem complexa, conforme os trabalhos de Skinner e Smith (1989) e Pessoa e Silva (1998). Os resultados indicam a necessidade de se incorporar o plano amostral e a correção do viés de seleção da informação dos salários, visando melhorar a qualidade das estimativas das equações de salários e avaliar adequadamente as medidas de discriminação. Como exemplo, a estimativa do coeficiente de discriminação, D, entre homens e mulheres de cor branca é 0,37 sem a correção do viés e 0,30 com a correção do viés de seleção das informações dos salários.