40 resultados para Índice de estabilidade de agregados
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A região Centro-Oeste é muito importante para a produção agropecuária do Brasil. Neste ambiente, o plantio direto (PD), aliado à rotação de culturas e pastagens, é apontado como a forma de manejo do solo mais adequada para conciliar produtividade com sustentabilidade. Para estudar os efeitos de sistemas de manejo sobre a agregação e a dinâmica da matéria orgânica do solo (MOS), três experimentos de longa duração, localizados em Mato Grosso do Sul, foram avaliados quanto ao teor e os estoques de carbono orgânico total (COT) e de C nas frações da MOS, particulada (MOP) e associada aos minerais do solo (MOM). Foram determinados também, a agregação do solo via peneiramento em água e a seco, o diâmetro médio ponderado (DMP) e o índice de estabilidade dos agregados (IEA). Os sistemas de manejo foram constituídos de lavouras, em PD e preparo convencional (PC), pastagens permanentes e rotação de lavouras (soja) com pastagem em PD, além de área com vegetação natural. Os sistemas de manejo contendo pastagens, de forma isolada ou em rotação com lavouras, apresentaram os maiores estoques de COT e maior agregação do solo. Verificou-se importante efeito das pastagens na formação de macroagregados, cuja estabilidade se relacionou positivamente com a concentração de COT no solo. São discutidas as relações entre o acúmulo de C no solo e a proteção proporcionada pela oclusão da MOP e pela maior dificuldade de decomposição MOM no interior dos agregados. As taxas médias de acúmulo de C no solo (0 a 20 cm) para os sistemas com rotação lavoura-pastagem foram de 0,4 Mg ha-1 ano-1 em relação à lavouras em PD. O teor de C nas frações da MOS, DMP e estoques de COT, possibilitaram o cálculo de indicadores de qualidade dos sistemas de manejo (Índice de Manejo do C, Índice de estratificação e Nível de Ordem), os quais evidenciaram a importância de utilização da rotação lavoura-pastagem em PD neste ambiente.
Resumo:
As alterações da qualidade estrutural do solo pelo uso continuado do sistema plantio direto ocorre junto com o processo de sua (re)acidificação. Em algumas circunstâncias, ocorre também compactação superficial devido ao tráfego de máquinas, que necessita ser corrigida pela mobilização do solo. Assim, avaliou-se os efeitos acumulados e a curto prazo de mobilizar ou não o solo por ocasião das reaplicações de calcário sobre os atributos físicos e químicos no perfil do solo e o rendimento de culturas em diferentes preparos de solo. Foi utilizado um experimento de 12 anos no sistema plantio direto (SPD) e preparo convencional (PC) instalado em Argissolo Vermelho Distrófico típico na EEA-UFRGS. Determinou-se os atributos físicos (densidade, porosidade e estabilidade de agregados) e químicos (pH em água, índice SMP, teor de matéria orgânica, cálcio, magnésio e alumínio trocáveis e CTC efetiva) em três camadas (0,0-2,5; 2,5-7,5 e 7,5-15,0 cm) do solo e a produtividade das culturas de milho e aveia + ervilhaca. O SPD por quatro anos após o revolvimento recuperou os atributos físicos do solo à condição original. O revolvimento propiciou condições mais favoráveis de densidade e porosidade do solo, mas diminuiu a estabilidade de agregados, que não retornou à condição original após doze meses. Os atributos físicos do solo foram mais uniformes no PC, mas com menor estabilidade de agregados na camada superficial. O PC propiciou a situação menos desejável para os atributos químicos do solo. O efeito da aplicação superficial de calcário no SPD consolidado (oito e doze anos) atingiu a profundidade de 15 cm em doze meses, nos atributos químicos. As diferenças nos atributos físicos e químicos do solo decorrentes dos sistemas de manejo não foram suficientes para afetar a produtividade das culturas.
Resumo:
Esta dissertação apresenta alguns critérios para avaliação de ameaças e risco geotécnico aplicados à estabilidade de taludes. Inicialmente apresenta-se uma visão geral dos problemas envolvidos com a análise de risco geotécnico, a importância da análise probabilística e a sua comparação com a determinística, e as opções de gerenciamento descritas na literatura. Estas análises envolvem conceitos de probabilidade, estatística, geotecnia, geologia, meio ambiente e legislação, além do interesse público e defesa civil. Assim, são definidos os conceitos estatísticos envolvidos nessa área multidisciplinar, como variabilidade espacial, coeficiente de correlação entre os parâmetros de entrada do modelo, distância de autocorrelação, escala de flutuação e incertezas (de parâmetros, humanas e dos modelos). Os métodos probabilísticos de cálculo do fator de segurança, a probabilidade de ruptura e o índice de confiabilidade são revisados. Utilizou-se o método de Monte Carlo nas análises através do uso de um programa comercial. O método tem sido adotado por diversos pesquisadores por ser direto, eficiente para problemas matematicamente complexos e não ter a complexidade matemática de outros métodos. A metodologia de análise de ameaças e risco geotécnico foi aplicada a um talude modelo, similar aos taludes de colúvio de basalto encontrados nas partes inferiores da Escarpa dos Aparados da Serra em Santa Catarina Os resultados obtidos, a partir de dados experimentais disponíveis, foram o fator de segurança determinístico mínimo (1,20) e o fator de segurança médio obtido pelo método de Monte Carlo (1,205), índice de confiabilidade de 2,64 e probabilidade de ruptura de 0,41%. Foi discutida também a aceitabilidade do fator de segurança médio da análise probabilística, comparando-se os resultados obtidos com valores aceitos em obras similares.
Resumo:
Resumo não disponível.
Resumo:
Esta pesquisa teve como objetivo construir e validar uma escala para avaliação do fator neuroticismo/estabilidade emocional. Neuroticismo é uma dimensão da personalidade humana, no modelo dos cinco grandes fatores, que se refere ao nível crônico de ajustamento e instabilidade emocional. Um alto nível de neuroticismo identifica indivíduos propensos a sofrimento psicológico que podem apresentar altos níveis de ansiedade, depressão, hostilidade, vulnerabilidade, autocrítica, impulsividade, baixa auto-estima, idéias irreais, baixa tolerância a frustração e respostas de coping não adaptativas. No primeiro estudo deste projeto foram gerados os itens da escala e avaliadas as suas qualidades psicométricas e validade de construto. Os participantes foram 792 estudantes universitários de três estados brasileiros. O segundo estudo teve como objetivo verificar a validade concorrente do instrumento. Participaram 437 estudantes universitários. Os resultados mostraram que o instrumento e as quatro subescalas identificadas através da análise fatorial apresentam qualidades psicométricas adequadas. As correlações entre o instrumento e testes para avaliar ansiedade, depressão, bem estar subjetivo, auto estima e neuroticismo (EPQ) indicaram que a escala construída está avaliando adequadamente as diferentes facetas do construto neuroticismo.
Resumo:
O presente estudo elabora um índice de violência para o Estado do Rio Grande do Sul, em seus 467 municípios, durante o período de 1992 a 1999. Não se buscaram explicações para o comportamento das taxas, mas somente uma descrição de sua evolução ao longo do período. Desta forma, procura-se um processo analítico que permita que, mais tarde, sejam trabalhadas as relações, conceitos e papéis frente ao processo de desenvolvimento humano e regional. A pesquisa trabalha com índices de criminalidade que se fundamentam no critério da agilidade da informação, proporcionada por estas medidas, para o diagnóstico dos problemas da violência municipal e para a elaboração de políticas voltadas à segurança. Em janeiro de 2000 foi divulgado o trabalho desenvolvido pela Fundação de Economia e Estatística Siegfried Emanuel Heuser (FEE)1, intitulado Índice Social Municipal Ampliado (ISMA) para o Rio Grande do Sul (1991-1996). O objetivo do mesmo era comparar as posições intermunicipais a partir de “indicadores sociais que foram selecionados”2 e definidos em blocos de educação, saúde, renda e condições de domicílio e saneamento. Desta forma, comparou-se e classificou-se num ranking os melhores e piores municípios do Estado do Rio Grande do Sul pela média do período de 1991 a 1996. Buscando complementar e aprimorar o trabalho, este estudo tem a proposta de acrescer, nos mesmos municípios, o bloco segurança, proporcionando uma maior integração dos resultados a partir dos dados sintetizados e complementados. Reunindo os resultados anteriormente apurados pela pesquisa da FEE com aqueles que serão obtidos por este trabalho atingir-seá um melhor conhecimento da realidade sócio-econômica gaúcha. Faz parte integrante deste trabalho um disco compacto, cujas especificações encontram-se no Capítulo 5.
Resumo:
O presente estudo relata a composição, transporte atômico, estabilidade termodinâmica e as reações químicas durante tratamentos térmicos em atmosfera de argônio e oxigênio, de filmes ultrafinos de HfO2 depositados pelo método de deposição química de organometálicos na fase vapor (MOCVD) sobre Si, contendo uma camada interfacial oxinitretada em NO (óxido nítrico). A caracterização foi realizada utilizando-se técnicas de análise por feixes de íons e espectroscopia de fotoelétrons excitados por raios-X (XPS). Também foram realizadas medidas elétricas sobre os filmes. Os estudos indicaram que esta estrutura é essencialmente estável aos tratamentos térmicos quando é feito um pré-tratamento térmico em atmosfera inerte de argônio, antes de tratamento em atmosfera reativa de oxigênio, exibindo uma maior resistência à incorporação de oxigênio do que quando foi diretamente exposta à atmosfera de oxigênio. Tal estabilidade é atribuída a um sinergismo entre as propriedades do sistema HfO2/Si e a barreira à difusão de oxigênio constituída pela camada interfacial oxinitretada. A composição química dos filmes após os tratamentos térmicos é bastante complexa, indicando que a interface entre o filme e o substrato tem uma composição do tipo HfSixOyNz. Foi observada a migração de Hf para dentro do substrato de Si, podendo esta ser a causa de degradação das características elétricas do filme.
Resumo:
A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.
Resumo:
O adenocarcinoma colorretal é um dos tumores sólidos mais prevalentes no mundo, ocupando a terceira posição em ambos os sexos, precedido pelo carcinoma de pulmão e estômago em homens, e pelo carcinoma de mama e cérvix em mulheres. No Brasil, o adenocarcinoma colorretal está entre as cinco neoplasias mais freqüentes, ocupando a quinta posição em mortalidade. A sobrevida global dos pacientes está em torno de 40% em 5 anos, tendo havido pequena elevação deste índice nas últimas quatro décadas. O estadiamento clínico-patológico permanece como o mais importante indicador prognóstico para o adenocarcinoma colorretal, sendo a sobrevida em 5 anos dos pacientes portadores de metástases à distância menor que 5%. Estas lesões são encontradas em 75% dos indivíduos que morrem da doença e representam, na maioria das vezes, um evento terminal. O processo de metastatização segue uma série de etapas interligadas que devem ser completadas pela célula tumoral para que se produza uma lesão clinicamente evidente. O primeiro passo desta seqüência se dá através de um fenômeno conhecido como angiogênese. Este consiste na proliferação endotelial acelerada com formação de novos vasos, que irão permitir que o tumor cresça e envie células neoplásicas à circulação. Esta neovascularização leva à maior produção de uma glicoproteína plasmática essencial para o processo de hemostasia primária, o fator de von Willebrand. Esta proteína é liberada pelas células endoteliais e pelas plaquetas e seus níveis estão elevados em situações clínicas em que há proliferação ou dano endotelial. Nos pacientes com câncer, o fator de von Willebrand, além de servir como potencial marcador da angiogênese, contribui diretamente para a formação das metástases, promovendo a ligação das células tumorais às plaquetas. Esta interação faz com que se formem agregados celulares heterotípicos que não são reconhecidos pelo sistema imunológico e têm maior capacidade de adesão aos leitos capilares dos órgãos alcançados. A associação entre aumento nos níveis plasmáticos do fator de von Willebrand e a progressão neoplásica foi demonstrada em pacientes com tumores de cabeça e pescoço e colo uterino, não havendo dados na literatura sobre a correlação deste fator com o câncer colorretal. No presente estudo foram comparados as concentrações desta proteína em 75 pacientes com adenocarcinoma colorretal e em 88 controles saudáveis, sendo estes valores correlacionados com os principais indicadores prognósticos da doença. Este é o primeiro estudo a ser publicado que documenta o comportamento do fator de von Willebrand em pacientes com adenocarcinoma colorretal. Os resultados deste estudo demonstraram que os pacientes com câncer colorretal apresentaram níveis de fator de von Willebrand significativamente superiores aos controles (P < 0.0001). Houve associação significativa entre as concentrações do fator de von Willebrand e o estadiamento tumoral (P < 0.0001), a invasão de estruturas anatômicas adjacentes (P < 0.009) e a presença de metástases à distância (P < 0.02). Os dados aqui apresentados sugerem que os níveis plasmáticos do fator de von Willebrand nos pacientes com adenocarcinoma colorretal possam ser indicadores do comportamento biológico deste tumor. Portanto, a definição do papel desta proteína no processo de disseminação neoplásica merece estudos complementares.
Resumo:
Formular hipóteses a partir da observação e testá-las através da experimentação caracteriza o método baconiano; a formulação inicial explicitamente era fruto de um insight intuitivo, que Francis Bacon denominou indução. A objetividade está no início do processo do conhecimento, basta o cientista deixar os fatos falarem por si enquanto lê o livro aberto da natureza. Uma forma mais sofisticada de indutivismo faz distinção entre contexto da descoberta e contexto da justificação para separar a questão de como as teorias científicas são desenvolvidadas da questão de como testá-las contra suas rivais. Karl Popper, discordando desta atitude, vai atribuir o primeiro ao acaso e para o segundo assumirá uma epistemologia evolucionista. Popper, não acreditando na possibilidade da existência de um critério de verdade, propõe um critério de falsificabilidade. O conhecimento não se daria por generalizações a partir da experiência, mas pela elaboração de conjeturas de alto conteúdo empírico que seriam submetidas à lógica dedutiva (baseado no modus tolles) e experimentação. Popper, por influência humeana, nega qualquer papel da indução na aquisição do conhecimento, que não partiria de percepções, de observações nem do acúmulo de dados ou fatos, mas sim de problemas. Na ausência de critério conclusivo de verdade empírica, só nos resta aprender com nossos erros. O progresso do conhecimento adviria da refutação de uma hipótese e da procura de outra com maior conteúdo explicativo e que pudesse evitar ao menos algumas das falhas da hipótese anterior. Este seria o critério de progresso científico. O problema do falsificacionismo de Popper é que o cientista não persegue teorias para provar que são falsas, mas teorias que procura demonstrar verdadeiras. Popper nos diz qual seria o ideal da ciência, mas não de como ela é praticada. Tomados isoladamente, tanto o indutivismo como o método hipotético-dedutivo são simplistas e ingênuos. O primeiro é cego, não direciona a experimentação pela hipótese teórica. O segundo tem direcionamento teórico, mas não dá conta da geração da hipótese. Como ambos estão do mesmo lado na descrição da relação do experimento e da teoria, isto torna frutífera a interação destas duas vias. É tematizada a teoria dos germes e a descoberta da penicilina como exemplo desta abordagem em biologia.
Resumo:
A ocorrência de alguns eventos na história recente mostrou ao mundo os riscos envolvidos nos processos de liquidação de transações financeiras e o potencial de que eventuais distúrbios nestes processos contaminem e desestabilizem os mercados financeiros e as economias em geral. Por serem utilizados como instrumento de transferência de recursos entre agentes econômicos, os sistemas de pagamentos são um importante canal de transmissão de turbulências entre os mercados e sistemas financeiros nacionais e internacionais. Como conseqüência, o aprimoramento de sistemas de pagamentos evoluiu internacionalmente e de forma significativa nos últimos anos podendo ser encarada como uma revolução na tecnologia e na rotina dos sistemas operacionais dos bancos. No Brasil, foi tão profundo quanto a reforma no Sistema Financeiro Nacional de 1964 e tão importante a ponto de colocar o país no mesmo nível dos países monetariamente mais desenvolvidos do mundo O objetivo central do presente estudo é o de analisar a capacidade que os novos sistemas de pagamentos tem em reduzir os riscos presentes nas transações financeiras. Para tanto, avaliam-se as crises financeiras internacionais recentes e sua relação com a instabilidade econômica; verifica-se o papel e a importância dos sistemas de pagamentos; identifica-se a forma pela qual os bancos centrais padronizaram os modelos adotados internacionalmente; avalia-se o Sistema de Pagamentos Brasileiro (SPB); e busca averiguar se a proposta do Banco Central de transferir o ônus de arcar com o risco sistêmico para os agentes participantes do sistema de fato ocorre. Conclui-se que os novos sistemas permitem anular os riscos presentes em sistemas de pagamentos e, por conseqüência, reduzir o risco sistêmico. Pelo fato de não mais aceitar saldos negativos nas contas de reservas bancárias em qualquer momento do dia e através da constituição de garantias, os eventuais riscos que surgem ficam restritos ao ambiente em que foram gerados. Palavras-chave: Sistemas de Pagamentos; Sistema de Pagamentos Brasileiro (SPB);Sistemas Operacionais Bancários; Sistemas Financeiros.
Resumo:
O planejamento urbano possui um vasto campo a ser descoberto no que se refere às exigências mundiais ambientais existentes atualmente. Não apenas existem novas diretrizes a serem alcançadas, mas as cidades estão em constante evolução e, assim, a complexidade das mesmas também se torna um desafio. A partir dessas questões, o presente trabalho vem contribuir na elaboração de uma metodologia que facilite a construção de indicadores urbanos, principalmente naqueles que possam avaliar os limites do crescimento das cidades, representados aqui através da integração entre impermeabilização do solo urbano e densidade populacional. A escolha de indicadores é função de cada pesquisador que possui conhecimento sobre os problemas, ambientais ou não, existentes nas cidades. Qualquer cidade, de qualquer porte, em qualquer lugar do planeta pode estar apresentando um problema ambiental relacionado às funções urbanas. Muitos podem ser os indicadores ambientais urbanos, mas nesta pesquisa são relacionados dois tipos de indicadores: a densidade populacional e as superfícies impermeáveis urbanas, pois acredita-se que com o crescente aumento de construções urbanas, um descompasso é causado na capacidade de absorção do solo durante períodos de chuva. A impermeabilização do solo gera problemas de enchentes que, muitas vezes, causa inúmeros impedimentos como alagamentos de vias ou nas próprias construções urbanas que afetam a população, causando inclusive mortalidade no caso de pessoas e carros arrastadas pela forte corrente das águas Uma metodologia simples pode facilitar o trabalho de planejamento de cidades como a utilização de procedimentos normalmente aplicados em estudos de recursos hídricos com o acréscimo de indicadores que também refletem as condições urbanas de bacias hidrográficas. As ferramentas utilizadas por esta pesquisa são: a) programas computacionais de geoprocessamento que agilizam e possibilitam a interconexão de diferentes informações urbanas localizadas no espaço; b) programas de sensoriamento remoto que atualizam informações cadastrais sobre a cidade utilizando imagens de satélite compatíveis; e, finalmente, c) modelos geoestatísticos que estimam valores próximos à realidade para toda a superfície urbana estudada, pois, muitas vezes, os dados disponíveis não cobrem toda a extensão da área em estudo Os resultados fornecidos através desses procedimentos metodológicos se mostraram satisfatórios no que se refere a análise da transformação das condições naturais de drenagem da bacia hidrográfica estudada. Foram percebidas alterações que prejudicam o desempenho de drenagem urbana em locais onde a própria topografia da região, juntamente com os dados de impermeabilização do solo e de densidade populacional contribuem para situações de alagamentos. Com essas informações é possível prever esses locais problemáticos e, então, melhorar as propostas de planejamento urbano dessas regiões. Considera-se que a pesquisa estimula a utilização de bacias hidrográficas como unidades de planejamento ambiental em cidades, pois é através delas que se pôde compreender os efeitos dos adensamentos urbanos como as enchentes urbanas que são atualmente um grande problema enfrentado nas cidades brasileiras.