71 resultados para Painéis de partículas
Resumo:
As nanopartículas de ferritas de manganês (MnFe2O4) tem sido de grande interesse por causa de suas notáveis propriedades magnéticas doces (baixa coercividade e moderada magnetização de saturação) acompanhada com boa estabilidade química e dureza mecânica. A formação de materiais híbridos/compósito estabiliza as nanopartículas magnéticas (NPMs) e gera funcionalidades aos materiais. Entretanto, não foi encontrada na literatura uma discussão sobre a síntese e as propriedades de polímeros polares reticulados à base de ácido metacrílico contendo ferritas de manganês na matriz polimérica. Assim, o objetivo desta Dissertação foi produzir partículas esféricas poliméricas reticuladas, com boas propriedades magnéticas, à base de ácido metacrílico, estireno, divinilbenzeno e ferritas de manganês. Neste trabalho, foram sintetizados compósitos de ferrita de manganês (MnFe2O4) dispersa em copolímeros de poli(ácido-metacrílico-co-estireno-co-divinilbenzeno), via polimerização em suspensão e em semi-suspensão. Foram variados os teores de ferrita (1% e 5%) e a concentração do agente de suspensão (0,2% e 5%). Além disso, foram testadas sínteses contendo a fase orgânica pré-polimerizada, e também a mistura da ferrita na fase orgânica (FO), antes da etapa da polimerização em suspensão. Os copolímeros foram analisados quanto as suas morfologias - microscopia óptica; propriedades magnéticas e distribuição das ferritas na matriz polimérica - VSM, SEM e EDS-X; propriedades térmicas TGA; concentração de metais presentes na matriz polimérica absorção atômica. As ferritas foram avaliadas quanto à cristalografia XRD. A matriz polimérica foi avaliada pela técnica de FTIR. As amostras que foram pré-polimerizadas e as que além de pré-polimerizadas foram misturadas as ferritas de manganês na FO, apresentaram as melhores propriedades magnéticas e uma incorporação maior da ferrita na matriz polimérica. Essas rotas sintéticas fizeram com que os copolímeros não apresentassem aglomeração, e também minimizou a presença de ferritas na superfície das microesferas. Em geral, todos os copolímeros obtidos apresentaram as características de materiais magneticamente doces além do superparamagnetismo. Foi constatado que o aumento da concentração do PVA e a diminuição da concentração da ferrita fazem com que os diâmetros das microesferas decresçam. Os resultados de TGA e DTG mostraram que ao misturar as ferritas na FO, a concentração de material magnético na matriz polimérica aumenta cerca de 10%. Entretanto, somente a amostra PM2550, pré-polimerizada e com as ferritas misturadas na FO (5% de ferrita e 0,2% de PVA), apresentou potencial aplicação. Isso porque as ferritas não ficaram expostas na superfície das microesferas, ou seja, o material magnético fica protegido de qualquer ação externa
Resumo:
Corynebacterium diphtheriae pode ser isolado tanto de quadros de difteria clássica, quanto de infecções sistêmicas, como endocardite. O fibrinogênio (Fbn) e a fibronectina (Fn) são glicoproteínas presentes na matriz extracelular de tecidos conjuntivos. A influência destas proteínas na patogênese das infecções locais e invasivas causadas por C. diphtheriae é objeto de estudo devido ao fato do bacilo diftérico poder ser encontrado em lesões nas quais o Fbn e a Fn são predominantes, incluindo a pseudomembrana diftérica e vegetações cardíacas presentes na endocardite infecciosa. São crescentes as evidências de que o C. diphtheriae pode, além de aderir, ser internalizado por células em cultura. No presente estudo, investigou-se a participação de C. diphtheriae e das proteínas de superfície 67-72p na aderência à Fn e ao Fbn de plasma humano e a eritrócitos. A aderência às células HEp-2 e internalização também foram analisadas. A participação de 67-72p nos mecanismos de morte celular foi avaliada através das colorações por Azul de Tripan e 46-diamidino-2-fenil indol (DAPI), pelo ensaio de redução utilizando dimetil-tiazol-difenil tetrazólio (MTT) e por citometria de fluxo. As 67-72p foram extraídas da superfície da amostra toxigênica C. diphtheriae subsp. mitis CDC-E8392 através de processos mecânicos e precipitação com sulfato de amônio saturado. Análises por SDS-PAGE e immunoblotting detectaram a presença das bandas protéicas de 67 e 72kDa nas amostras toxinogênicas e atoxinogênicas analisadas, as quais pertenciam aos biotipos fermentador e não fermentador de sacarose. C. diphtheriae foi capazes não só de formar agregados na presença de plasma de coelho, mas também de converter Fbn em fibrina independentemente da presença do gene tox. No entanto, a amostra atoxinogênica ATCC 27010 (tox-) foi menos aderente ao Fbn do que a homóloga ATCC 27012 (tox+). A interação bacteriana com eritrócitos foi inibida somente pela Fn. Ligações entre Fn e/ou Fbn com 67-72p foram demonstradas por dot blotting, ELISA e/ou ensaios utilizando fluorescência. As 67-72p foram capazes de inibir as interações bacterianas com o Fbn, indicando que 67-72p podem participar do processo de aderência do patógeno aos tecidos do hospedeiro. Através da microscopia óptica, demonstrou-se a ligação de 67-72p adsorvidas em microesferas de látex com células HEp-2. Anticorpos de coelho do tipo IgG anti 67-72p interferiram somente com a expressão do padrão de aderência do tipo difuso, normalmente apresentado pela amostra CDC-E8392. A Microscopia Eletrônica de Transmissão (MET) e a inibição da internalização bacteriana pela IgG anti 67-72p ou por 67-72p indicaram o papel de 67-72p como invasina. Alterações do citoesqueleto de células HEp-2 com acumulação de actina polimerizada, induzida por microesferas sensibilizadas com 67-72p, foi observada pelo fluorescent actin staining (FAS) test. Foi visualizado um aumento no número de bactérias viáveis no compartimento intracelular após tratamento de células HEp-2 ou dos microrganismos com Fn. A presença de partículas de látex adsorvidas com 67-72p no interior de vacúolos frouxos em células HEp-2 sugeriu que estas proteínas podem causar efeito citotóxico. A avaliação através das colorações com Azul de Tripan, DAPI e os ensaios de redução utilizando MTT demonstraram um decréscimo na viabilidade de células tratadas com 67-72p. As mudanças morfológicas observadas 3 horas após o início do tratamento com 67-72p incluíram vacuolização, fragmentação nuclear e formação de corpúsculos apoptóticos. A citometria de fluxo revelou um decréscimo de 15,13% no volume/tamanho de células tratadas com 67-72p. Além disso, o ensaio utilizando Iodeto de Propídio (IP) e Anexina V (AV)-FITIC demonstrou que havia 66,1% de células vivas (IP-/AV-), 16,6% de células em apoptose inicial (IP-/AV+) e 13,8% de células em apoptose tardia ou necrose secundária. Em conclusão, as 67-72p estão diretamente envolvidas na interação com Fn e Fbn. As proteínas não fimbriais 67-72p são hemaglutininas implicadas na aderência a células respiratórias e na internalização. Além disso, estas proteínas podem atuar como fatores de virulência em potencial para induzir apoptose de células epiteliais nos estágios iniciais da difteria e nas infecções invasivas causadas pelo C. diphtheriae
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
Como eventos de fissão induzida por nêutrons não ocorrem nas regiões nãomultiplicativas de reatores nucleares, e.g., moderador, refletor, e meios estruturais, essas regiões não geram potência e a eficiência computacional dos cálculos globais de reatores nucleares pode portanto ser aumentada eliminando os cálculos numéricos explícitos no interior das regiões não-multiplicativas em torno do núcleo ativo. É discutida nesta dissertação a eficiência computacional de condições de contorno aproximadas tipo albedo na formulação de ordenadas discretas (SN) para problemas de autovalor a dois grupos de energia em geometria bidimensional cartesiana. Albedo, palavra de origem latina para alvura, foi originalmente definido como a fração da luz incidente que é refletida difusamente por uma superfície. Esta palavra latina permaneceu como o termo científico usual em astronomia e nesta dissertação este conceito é estendido para reflexão de nêutrons. Este albedo SN nãoconvencional substitui aproximadamente a região refletora em torno do núcleo ativo do reator, pois os termos de fuga transversal são desprezados no interior do refletor. Se o problema, em particular, não possui termos de fuga transversal, i.e., trata-se de um problema unidimensional, então as condições de contorno albedo, como propostas nesta dissertação, são exatas. Por eficiência computacional entende-se analisar a precisão dos resultados numéricos em comparação com o tempo de execução computacional de cada simulação de um dado problema-modelo. Resultados numéricos para dois problemas-modelo com de simetria são considerados para ilustrar esta análise de eficiência.
Resumo:
O objetivo desta pesquisa consiste em analisar através da caracterização química de fases cristalinas a composição e estrutura; e com a caracterização física a densidade, porosidade e área superficial dos seguintes cimentos endodônticos: MTA Fillapex, AH Plus, Sealer 26 e o Endofill. Para tal, foram realizadas análises dos cimentos antes da manipulação (pó e pastas) e depois da manipulação (corpos de prova). Empregando-se as técnicas de caracterização química: DRX e FRX e como técnicas de caracterização física: Picnometria de Hélio, a porosimetria de mercúrio, distribuição granulométrica e área superficial pela metodologia de BET. A caracterização química detalhou a composição dos cimentos sendo compatível com a descrição do fabricante e forneceu a quantificação das suas fases. A caracterização física mostrou que o MTA Fillapex apresentou os melhores resultados: a menor porosidade, o menor volume médio e o menor diâmetro do poro, o Sealer 26 dentre os cimentos resinosos apresentou o pior resultado, o Endofill mostrou-se melhor que o Sealer 26 tendo a maior densidade, o menor diâmetro das partículas, a distribuição granulométrica mais homogênea comparando-se a este. Os cimentos a base de resina mostraram um diâmetro do poro menor que o Endofill. Estes resultados podem estar ligados diretamente aos requisitos de um material obturador ideal. A metodologia utilizada produziu um detalhamento das características químicas e físicas dos cimentos estudados, mostrando um caminho para novas pesquisas na área.
Resumo:
Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).
Resumo:
O escopo desse trabalho é a observação de dijatos de difração simples em colisões pp com ps = 7 TeV, durante os primeiros períodos de aquisição de dados do experimento CMS/LHC. A técnica utilizada foi a medida da multiplicidade no calorímetro HF. Os dados foram analisados para diferentes períodos de aquisição de dados do ano de 2010, com ∫ Ldt ~_ 3,2 pb-1. Comparamos os dados observados com o Monte Carlo simulado com efeito de empilhamento e sem esse efeito.
Resumo:
Apresentamos um estudo preliminar da produção difrativa de mésons utilizando dados obtidos da colisão próton-próton, a energias de centro de massa de 7 TeV, com o experimento CMS-LHC. O trabalho inclui o desenvolvimento do algoritmo de reconstrução dos mésons D* através do canal de decaimento D*->D0 + pion (lento) ->K+pion, a medida da eficiência de detecção e reconstrução, e uma análise do comportamento de variáveis cinemáticas na produção difrativa dessas partículas, particularmente, das lacunas de rapidez. Para isso, foi utilizada uma luminosidade integrada de 3,171pb^(-1) de dados coletados no ano de 2010. As análises com os dados experimentais foram comparadas com os resultados obtidos com geradores de Monte Carlo PYTHIA6, PYTHIA8 e POMPYT.
Resumo:
Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.
Resumo:
Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.
Resumo:
Esta tese, Corpo do lazer: reflexões a partir da vida lesada na hipermodernidade, representa um exercício de reflexão e investigação acerca do lazer como um fenômeno psicossocial na atualidade. Enquanto reflexão, parte do corpo como centro de gravidade da subjetividade, tomando como referenciais epistemológicos alguns teóricos da primeira geração da nomeada Escola de Frankfurt, a psicanálise freudiana e estudiosos franceses que denominam a atualidade de hipermodernidade. Outros pensadores também permearam as reflexões, principalmente aqueles que viabilizam o viés crítico argumentativo. Já como investigação, um material de campo no formato de folder teve suas construções discursivas em torno do lazer destacadas, constituindo, assim, o corpus de análise da pesquisa documental de cunho qualitativo. Neste trabalho, a reflexão e a investigação se complementam na compreensão da articulação dos dois eixos principais, as esferas do desejo e do mercado, entrelaçando a noção de corpo do lazer em tempos hipermodernos e, deste modo, buscando questionar a hipermodernidade como produto e cenário em que a existência humana é prejudicada nas partículas elementares de uma vida justa, isto é, lesada nos mínimos modos de ser e estar no mundo. No âmbito do entretenimento, a vida lesada é percebida como sofrimento psicossocial e subjaz nas artimanhas sutis dos lazeres mercadológicos em expansão na hipermodernidade. Este cenário produz novos processos de subjetivação, decorrentes também das práticas de lazer atuais voltadas para consumo, e, com isso, o lazer adquire valor de troca na realidade hipermoderna. Como o corpo está no centro da cena hipermoderna em expansão nas cidades, ele é o foco dos processos de subjetivação deste estudo. Para tanto, o corpo é abordado nas noções tragicômico e erótico-narcísico, além de outros desdobramentos, no intuito de situar o corpo do lazer. A fim de explorar a temática, serão apresentadas reflexões a partir de conceitos do lazer, da inauguração do lazer na modernidade, além de análises de como ele está inserido atualmente nos mecanismos mercadológicos regidos pela lógica econômica a fomentar a indústria do entretenimento para atender os anseios humanos por prazeres como rotina dos sentidos e das sensações voltados para o corpo. Como exemplo desse cenário, elegeu-se a Barra da Tijuca, Rio de Janeiro (RJ), como espaço urbano para a realização da pesquisa, pois neste bairro a realidade hipermoderna pode ser espontaneamente verificada. Como aspectos conclusivos, o corpo do lazer demonstra ser, por um lado, o alvo dos interesses mercadológicos pautados na lucratividade e com metas a incrementar o viver no tempo supostamente livre, baseado na emotividade e estados de felicidade. Por outro lado, o corpo capturado está na condição reduzida e fragmentada pelas mesmas estratégias instrumentais do capitalismo especulativo que fomentam modos de subjetivação baseados no consumo e nos prazeres efêmeros. No entanto, esse processo ocorre com o consentimento do sujeito afetado por essas estratégias, da mesma forma como este mesmo sujeito também afeta e determina tais estratégias e, assim, produz seus efeitos nos esquemas mercadológicos. É neste interstício entre o sujeito e o mercado que percorrerão as reflexões desta tese.
Resumo:
Neste trabalho foi feito um estudo sobre a preparação e caracterização de microesferas poliméricas à base de poli(ácido metacrílico-co-divinilbenzeno) por polimerização por precipitação. As partículas foram sintetizadas e analisadas em diferentes condições de reação. Partículas esféricas políméricas foram sintetizadas na faixa de 1,66 - 8,41 m, assim como partículas no estado de microgel. As partículas foram caracterizadas pelas técnicas de espalhamento de luz dinâmica (DLS), análise termogravimétrica (TGA), espectroscopia na região do infravermelho (FTIR), adsorção de nitrogênio pelos métodos BET (Brunauer, Emmett e Teller) e BJH (Barret, Joyner e Halenda), microscopia ótica, microscopia eletrônica de varredura, e testes de razão de inchamento. A análise das partículas foi feita para verificar a influência da mudança na composição de comonômeros, grau de reticulação, relação de monômeros totais/diluentes em massa/volume (g/100 mL), e quanto à relação volumétrica de diluentes. Verificou-se que houve um aumento no tamanho das partículas e da resistência térmica com a diminuição da fração molar de MAA (ácido metacrílico). Na preparação de partículas com fração molar de 50% de MAA, e relação volumétrica acetonitrila/tolueno de 75/25, quanto maior a relação de monômeros totais/diluentes (g/100 mL), maior o tamanho e o rendimento das partículas. Com a mudança da relação volumétrica de diluentes, houve mudança nas características de porosidade, tamanho das partículas, e grau de inchamento das partículas, sendo que na relação volumétrica acetonitrila/tolueno de 50/50, houve formação de microgel
Resumo:
Este trabalho apresenta um estudo experimental para determinação da largura colaborante em mesas de lajes nervuradas de concreto armado. Esta largura é definida comumente utilizando-se as recomendações contidas nas diversas normas e procedimentos já consagrados de estruturas de concreto armado. Visando a determinação da largura da mesa que efetivamente contribui na capacidade resistente da seção de lajes nervuradas, foram instrumentados e ensaiados modelos que buscaram reproduzir faixas de nervuras e painéis de laje. As faixas possuíam dimensões reais de duas nervuras principais, enquanto as lajes reproduziam painéis em escala reduzida (1:2). Em parte dos modelos, foram inseridos extensômetros de resistência elétrica nas armaduras e no concreto, além de transdutores para verificação das flechas. Foram calculadas as larguras a partir das curvas de tensões e flechas verificadas experimentalmente. Verificou-se, também, a influência da presença de tubulação embutida ao longo da mesa das faixas de laje.
Resumo:
O estoque de matéria orgânica de superfície refere-se a todo material orgânico decomposto ou em decomposição sobreposto ao solo mineral, bem como ao material orgânico misturado às partículas minerais do horizonte A. Este serve como indicador da funcionalidade e integridade de ecossistemas florestais quando o analisamos sob a perspectiva das "Formas de Húmus". Nesta perspectiva o material orgânico se presenta como disposto em camadas internas que variam no peso e espessura de acordo com a atuação dos agentes decompositores locais, e expressa a ciclagem de nutrientes que se dá a partir dos dois principais processos que sintetizam e/ou modulam o funcionamento dos ecossistemas, a produção e a decomposição da matéria orgânica. O modelo de formas de húmus segue uma classificação desenvolvida na Europa que não se aplica perfeitamente às áreas tropicais pela alta variabilidade de ambientes. Estima-se que fatores locais e particulares como características edáficas, estrutura e composição da vegetação, relevo e o microclima podem distorcer esta classificação e diferir significativamente do modelo global. Esta pesquisa buscou o refinamento deste modelo, buscando entender de que modo a pluviosidade efetiva (chuva que atravessa a copa das árvores e chega ao solo), como fenômeno de natureza microclimática, se relaciona com o estoque de matéria orgânica de superfície (sob a perspectiva das formas de húmus) em ambiente de floresta ombrófila montanhosa urbana.Para tal foram executadas análises físicas sobre o estoque de matéria orgânica de superfície, monitoramento da pluviosidade efetiva com pluviômetro experimentais adaptados para esta demanda e análises químicas sobre a água da chuva após lixiviação da matéria orgânica. Foi montada uma estrutura composta de quinze pluviômetros experimentais em uma encosta florestada no Parque Nacional da Tijuca (Rio de Janeiro - RJ) e instalação de pluviômetros eletrônicos em ambientes de céu aberto em áreas adjacentes a esta encosta pertencentes à área do parque. Os resultados indicam que da chuva que cai na floresta, cerca de 15% é interceptada pelas copas e o restante, parte é interceptada pela matéria orgânica do solo. A camada MFB (ou H) é a que retém mais água, indicando que, florestas que a decomposição é rápida no processo de fragmentação e lenta na mineralização, terão mais água retida no estoque de matéria orgânica. As diferentes camadas vão nutrir o solo de maneira diferenciada quando este processo deriva da lixiviação, como o cálcio que é liberado em a maior quantidade pelas camadas mais fragmentadas como a F e a MFB, o potássio e magnésio têm maior disponibilização quando deriva da camada L, indicando que durante este processo estes nutrientes são mais consumidos do que liberados. Foi perceptível que o sódio é bastante abundante na chuva antes mesmo de atingir a matéria orgânica, confirmando estudos anteriores. A utilização deste sistema proposto de pluviômetros experimentais possibilitou entender como esta estratificação interna do estoque de matéria orgânica de superfície acumula água, pois os métodos tradicionais não se baseiam no modelo de formas de húmus, e possibilitou ainda, o a análise do processo de lixiviação e liberação de nutrientes para o solo.
Resumo:
O Compact Muon Solenoid (CMS) é um dos principais detectores instalados no LHC que possibilita o estudo de diferentes aspectos da Física, indo do Modelo Padrão à matéria escura. Esse detector de propósito geral, foi construído para ser capaz de medir múons com uma grande precisão e todos os seus subdetectores foram construídos com uma alta granularidade, tornando possível identificar e caracterizar as propriedades cinemáticas das partículas finais da colisão. O algoritmo de reconstrução de eventos inclui a identificação de jatos, ou seja, é possível identificar a assinatura da produção de pártons na colisão e a medida de seções de choque da produção de muitos jatos é um dos métodos para se explorar as contribuições da Cromodinâmica Quântica (Quantum Chromodynamics - QCD) perturbativa, permitindo avaliar as previsões implementadas nas simulações de eventos. Tendo em vista a caracterização de processos relacionados com a QCD em colisões de próton-próton a uma energia do centro de massa de 7 TeV, é apresentada a medida da seção de choque da produção inclusiva de multijatos no CMS. Para realizar essa medida foram utilizados dados reais coletados em 2010, onde não se apresentava muitas colisões por cruzamento de pacote, com uma luminosidade integrada de L = 2,869 pb-1 e utilizando jatos que estão em quase todo o espaço de fase acessível em pseudorapidez |n|≤ 4,8 e momentum transverso pT ≥ 30 GeV/ c2. Desse resultado foram removidos os efeitos de detecção comparado com predições simuladas.