1000 resultados para análise macromorfológica de agregados
Resumo:
A proposta busca reduzir a absorção de água dos agregados reciclados de Resíduos de Construção e Demolição (RCD), através do tratamento de sua superfície com hidrofugante, de maneira que estes não aumentem o consumo de água tampouco reduzam a resistência mecânica. Os agregados reciclados de RCD foram caracterizados quanto à granulometria, morfologia, porosidade, ângulo de contato aparente, absorção de água, análise de imagem e rugosidade superficial. Em seguida, os mesmos foram tratados superficialmente com dois tipos de hidrofugante: solução de silano e parafina. Todos os tratamentos permitiram reduzir a absorção de água dos agregados reciclados de RCD. O tratamento por imersão foi aquele que permitiu obter os melhores resultados e a menor variabilidade entre as técnicas. Os tratamentos hidrofugam a superfície, apesar da parafina apresentar maior molhabilidade. O tratamento com parafina apresentou, em termos de absorção de água, resultados inferiores e menos variáveis que o silano. Os parâmetros de rugosidade constataram que, ambos os materiais perdem seu perfil topográfico original quando tratados com parafina. Os diferentes agregados reciclados com cada hidrofugante foram aplicados em materiais cimentícios analisados no estado fresco e no estado endurecido. Os tratamentos reduziram a absorção e o consumo de água de mistura, porém afetaram negativamente as propriedades mecânicas, devido nova interface gerada (no caso específica de parafina) e falta de molhabilidade nas superfícies.
Resumo:
A utilização de métodos de formulação de misturas betuminosas tem como objetivo determinar a combinação de agregados e betume numa mistura, de tal modo que se obtenha um material de pavimentação tão económico quanto possível, fácil de fabricar e colocar, e que suporte os efeitos das cargas e do clima ao longo do seu ciclo de vida. As misturas colocadas nas camadas de pavimentos podem diferir no tipo de material agregado e na sua granulometria, no tipo e na quantidade de ligante, na utilização de aditivos ou agentes que modificam o betume, e na sua composição volumétrica. Os métodos empíricos de formulação de misturas betuminosas, como o método de Marshall, não permitem formular com a fiabilidade necessária misturas betuminosas com o desempenho mecânico adequado para resistir aos mecanismos de degradação a que vão ficar sujeitas nos pavimentos. Uma das alternativas ao método de Marshall é a metodologia de formulação volumétrica SUPERPAVE, desenvolvida no programa Strategic Highway Research Program(SHRP). Nesta metodologia o procedimento de seleção da percentagem ótima em betume é realizado com base nas propriedades volumétricas de provetes compactados com o compactador giratório. A percentagem ótima em betume depende da energia de compactação utilizada, sendo esta fornecida pelo número de giros a que o provete foi submetido. O equipamento geralmente usado nos ensaios é a prensa giratória de corte (PGC) que permite medir a compacidade e estimar com uma precisão suficiente a porosidade que será obtida insitu. Nestes métodos a seleção da curva granulométrica e da percentagem ótima de betume a usar é feita pela verificação da maior ou menor correspondência entre as composiçõestestadas e certos requisitos de compactabilidade pré-definidos, entendendo-se estes como uma medida da aptidão da mistura para apresentar bom comportamento no seu ciclo de vida. A prática portuguesa é a de utilizar o método de Marshall para formular misturas betuminosas convencionais e até algumas misturas não convencionais. Torna-se, assim, útil comparar os resultados de formulações obtidas por duas vias diferentes, tendo em conta que a utilização da prensa giratória de corte tem vindo a ser progressivamente integrada em várias metodologias de formulação utilizadas internacionalmente. Crê-se que os métodos baseados em PGC, mantêm alguma simplicidade de procedimentos, ao mesmo tempo que permitem amentar o nível de confiança nas composições a que se chega, no que diz respeito ao seu desempenho no seu ciclo de vida.
Resumo:
O principal objetivo desta dissertação foi analisar por meio de estudo comparativo, o posicionamento competitivo de três máquinas ferramentas multitarefas. As hipóteses iniciais partiram das seguintes suposições: a) a indústria nacional de máquinas ferramentas esta sendo penalizada pela política industrial praticada pelo governo federal; e b) a importância relativa atribuída aos elementos multicriteriais das especificações das máquinas nacionais quando demonstram tendências elevadas, nem sempre alcançam as concorrentes importadas devido aos recursos tecnológicos agregados para se atingir a competitividade plena. Assim, indaga-se: até que ponto as máquinas ferramentas multitarefas selecionadas para o estudo, estão alinhadas com os critérios escolhidos e com suas importâncias relativas avaliadas por dois usuários desse equipamento. Como metodologia adotou-se estudo de caso múltiplo de duas empresas de médio porte do mesmo ramo. Utilizou-se o método multicritério de apoio à decisão por meio de Analytic Hierarchy Process (AHP), para a escolha da melhor alternativa entre máquinas ferramentas multitarefas similares, nacionais e importadas. Os resultados identificam que, para essas duas empresas usuárias pesquisadas, existe vantagem na aquisição da máquina importada, embora seja notório o avanço tecnológico da indústria nacional. Estas máquinas ainda carecem de algumas inovações, perdendo em competitividade, bem como em critérios importantes como versatilidade e rendimento. Com base nos trabalhos, conclui-se que, as máquinas ferramentas do tipo multitarefas nacionais das duas empresas fornecedoras analisadas não são competitivas em comparação as importadas.
Resumo:
O consumo energético nas indústrias é algo que tem de ser monitorizado, avaliado e orientado, visando a eficiência energética e sustentabilidade, de modo não só a reduzir o consumo de combustíveis fósseis, mas também a auxiliar a redução da fatura económica. O presente trabalho teve como principal objetivo uma análise energética, e incorpora a caracterização térmica dos materiais utilizados na indústria de produção de massas asfálticas, e o desenvolvimento de um modelo térmico que preveja o comportamento dos mesmos, na produção de massas asfálticas, em central fixa com incorporação de material reciclado a frio. Primariamente o estudo passou pela análise dos consumos energéticos da instalação, caracterizando-a segundo o Decretolei 71/2008, de 15 de Abril, tendo-se constatado, que o consumo de gás natural se evidencia como uma das principais fontes de energia e um dos principais responsáveis pela emissão de GEE (Gases de Efeito de Estufa). Posteriormente o consumo de gás natural foi distribuído pelos pontos consumidores, o cilindro exsicador e a caldeira de aquecimento de óleo térmico. O cilindro exsicador é o principal consumidor energético, com um consumo próximo de 90% do gás natural total. Seguidamente foi realizada uma caracterização dos materiais utilizados na produção de massas asfálticas segundo o DSC (Differential Scanning Calorimetry). Os materiais analisados foram o reciclado/fresado, o calcário, o pó de calcário, o seixo, a areia e o granito. Os resultados dos materiais secos demonstraram que o material com maior cp (calor específico) foi a areia e o menor o calcário. Nos resultados dos materiais saturados observou-se que o seixo apresenta maior facilidade de remoção de humidade e o reciclado/fresado apresenta menor. Por último, foi realizado um modelo térmico com utilização de um balanço mássico e energético ao processo de secagem e sobreaquecimento dos agregados no cilindro exsicador. Conclui-se que as principais influências no consumo de gás natural, na produção de massas asfálticas com inclusão de material reciclado a frio, são: a necessidade energética de aquecimento em função da temperatura a obter, e a energia necessária para remover o conteúdo em humidade presente nos diversos materiais (fresado e agregados).
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Direito, Programa de Pós-Graduação Stricto Sensu em Direito, 2016.
Resumo:
The sharp consumption of natural resources by the construction industry has motivated numerous studies concerning the application of waste to replace partially or fully, some materials, such as aggregates, thereby reducing the environmental impact caused by the extraction of sand and crushing process. The application of stone dust from crushing process arising as an aggregate for the production of Portland cement concrete is a viable alternative in view of the high cost of natural sands, in addition to the environmental damage which causes its operation to the environment. The stone dust has reduced cost compared to natural sand because it is produced in the beds of their own quarries, which are usually located close to major urban centers. This study examined the feasibility of using stone dust from the crushing of rock gneisses in the state of Bahia, replacing natural quartz sand. In the development of scientific study was conducted to characterize physical and chemical raw materials applied and molded cylindrical specimens , using as reference values Fck 20, Fck 25 and Fck 30 MPa ( resistance characteristic of the concrete after 28 days) in following compositions stone powder: 10%, 30%, 50 %, 100% and 100% with additive. The specimens were cured and subjected to the tests of compressive strength and water absorption, then the samples were subjected to the tests of X-ray diffraction and scanning electron microscopy. The results obtained showed that the composition with 10% stone powder showed the best results regarding the physical and mechanical tests performed, confirming the reduction in compressive strength and increased water uptake increased as the content of the powder stone in the concrete composition
Resumo:
The main objective of this study is to apply recently developed methods of physical-statistic to time series analysis, particularly in electrical induction s profiles of oil wells data, to study the petrophysical similarity of those wells in a spatial distribution. For this, we used the DFA method in order to know if we can or not use this technique to characterize spatially the fields. After obtain the DFA values for all wells, we applied clustering analysis. To do these tests we used the non-hierarchical method called K-means. Usually based on the Euclidean distance, the K-means consists in dividing the elements of a data matrix N in k groups, so that the similarities among elements belonging to different groups are the smallest possible. In order to test if a dataset generated by the K-means method or randomly generated datasets form spatial patterns, we created the parameter Ω (index of neighborhood). High values of Ω reveals more aggregated data and low values of Ω show scattered data or data without spatial correlation. Thus we concluded that data from the DFA of 54 wells are grouped and can be used to characterize spatial fields. Applying contour level technique we confirm the results obtained by the K-means, confirming that DFA is effective to perform spatial analysis
Resumo:
In recent years, the DFA introduced by Peng, was established as an important tool capable of detecting long-range autocorrelation in time series with non-stationary. This technique has been successfully applied to various areas such as: Econophysics, Biophysics, Medicine, Physics and Climatology. In this study, we used the DFA technique to obtain the Hurst exponent (H) of the profile of electric density profile (RHOB) of 53 wells resulting from the Field School of Namorados. In this work we want to know if we can or not use H to spatially characterize the spatial data field. Two cases arise: In the first a set of H reflects the local geology, with wells that are geographically closer showing similar H, and then one can use H in geostatistical procedures. In the second case each well has its proper H and the information of the well are uncorrelated, the profiles show only random fluctuations in H that do not show any spatial structure. Cluster analysis is a method widely used in carrying out statistical analysis. In this work we use the non-hierarchy method of k-means. In order to verify whether a set of data generated by the k-means method shows spatial patterns, we create the parameter Ω (index of neighborhood). High Ω shows more aggregated data, low Ω indicates dispersed or data without spatial correlation. With help of this index and the method of Monte Carlo. Using Ω index we verify that random cluster data shows a distribution of Ω that is lower than actual cluster Ω. Thus we conclude that the data of H obtained in 53 wells are grouped and can be used to characterize space patterns. The analysis of curves level confirmed the results of the k-means
Resumo:
No Brasil, a região da Amazônia Legal registra elevado número de casos de Malária, onde se insere o Estado de Mato Grosso. O presente estudo visa, com o auxílio de técnicas de geoprocessamento, espacializar os dados de Malária em mapas temáticos, descrevendo o número de casos por espécies de protozoários e utilizar variáveis ambientais e socioeconômicas que possam explicar a ocorrência da doença em determinadas áreas do estado de Mato Grosso. Foram utilizados registros de casos ocorridos no ano de 2001, obtidos da SIVEP–Malária. Através dos Índices de Moran Global e Local foi avaliada a estrutura espacial dos casos da malária. Foram registradas duas áreas com correlação espacial positiva (p<0.05). Foi construída uma tabela de dados socioeconômicos e ambientais para análises exploratórias, agregados por município. Através de Regressão Logística (RL), três variáveis foram consideradas significativas; “taxa de desmatamento”, “freqüência escolar” e “precipitação média anual”. Em seguida, os coeficientes da RL resultantes foram aplicados para sobreposição dos planos de informação das variáveis identificadas significativas, gerando uma representação do risco de ocorrência de malária nos municípios no estado.
Resumo:
BACKGROUND: The model for end-stage liver disease (MELD) was developed to predict short-term mortality in patients with cirrhosis. There are few reports studying the correlation between MELD and long-term posttransplantation survival. AIM: To assess the value of pretransplant MELD in the prediction of posttransplant survival. METHODS: The adult patients (age >18 years) who underwent liver transplantation were examined in a retrospective longitudinal cohort of patients, through the prospective data base. We excluded acute liver failure, retransplantation and reduced or split-livers. The liver donors were evaluated according to: age, sex, weight, creatinine, bilirubin, sodium, aspartate aminotransferase, personal antecedents, brain death cause, steatosis, expanded criteria donor number and index donor risk. The recipients' data were: sex, age, weight, chronic hepatic disease, Child-Turcotte-Pugh points, pretransplant and initial MELD score, pretransplant creatinine clearance, sodium, cold and warm ischemia times, hospital length of stay, blood requirements, and alanine aminotransferase (ALT >1,000 UI/L = liver dysfunction). The Kaplan-Meier method with the log-rank test was used for the univariable analyses of posttransplant patient survival. For the multivariable analyses the Cox proportional hazard regression method with the stepwise procedure was used with stratifying sodium and MELD as variables. ROC curve was used to define area under the curve for MELD and Child-Turcotte-Pugh. RESULTS: A total of 232 patients with 10 years follow up were available. The MELD cutoff was 20 and Child-Turcotte-Pugh cutoff was 11.5. For MELD score > 20, the risk factors for death were: red cell requirements, liver dysfunction and donor's sodium. For the patients with hyponatremia the risk factors were: negative delta-MELD score, red cell requirements, liver dysfunction and donor's sodium. The regression univariated analyses came up with the following risk factors for death: score MELD > 25, blood requirements, recipient creatinine clearance pretransplant and age donor >50. After stepwise analyses, only red cell requirement was predictive. Patients with MELD score < 25 had a 68.86%, 50,44% and 41,50% chance for 1, 5 and 10-year survival and > 25 were 39.13%, 29.81% and 22.36% respectively. Patients without hyponatremia were 65.16%, 50.28% and 41,98% and with hyponatremia 44.44%, 34.28% and 28.57% respectively. Patients with IDR > 1.7 showed 53.7%, 27.71% and 13.85% and index donor risk <1.7 was 63.62%, 51.4% and 44.08%, respectively. Age donor > 50 years showed 38.4%, 26.21% and 13.1% and age donor <50 years showed 65.58%, 26.21% and 13.1%. Association with delta-MELD score did not show any significant difference. Expanded criteria donors were associated with primary non-function and severe liver dysfunction. Predictive factors for death were blood requirements, hyponatremia, liver dysfunction and donor's sodium. CONCLUSION: In conclusion MELD over 25, recipient's hyponatremia, blood requirements, donor's sodium were associated with poor survival.
Resumo:
Errors are always present in experimental measurements so, it is important to identify them and understand how they affect the results of experiments. Statistics suggest that the execution of experiments should follow random order, but unfortunately the complete randomization of experiments is not always viable for practical reasons. One possible simplification is blocked experiments within which the levels of certain factors are maintained fixed while the levels of others are randomized. However this has a cost. Although the experimental part is simplified, the statistical analysis becomes more complex.
Resumo:
Chromatography combined with several different detection systems is one of the more used and better performing analytical tools. Chromatography with tandem mass spectrometric detection gives highly selective and sensitive analyses and permits obtaining structural information about the analites and about their molar masses. Due to these characteristics, this analytical technique is very efficient when used to detect substances at trace levels in complex matrices. In this paper we review instrumental and technical aspects of chromatography-tandem mass spectrometry and the state of the art of the technique as it is applied to analysis of toxic substances in food.
Resumo:
A method to quantify lycopene and β-carotene in freeze dried tomato pulp by high performance liquid chromatography (HLPC) was validated according to the criteria of selectivity, sensitivity, precision and accuracy, and uncertainty estimation of measurement was determined with data obtained in the validation. The validated method presented is selective in terms of analysis, and it had a good precision and accuracy. Detection limit for lycopene and β-carotene was 4.2 and 0.23 mg 100 g-1, respectively. The estimation of expanded uncertainty (K = 2) for lycopene was 104 ± 21 mg 100 g-1 and for β-carotene was 6.4 ± 1.5 mg 100 g-1.
Resumo:
This manuscript aims to show the basic concepts and practical application of Principal Component Analysis (PCA) as a tutorial, using Matlab or Octave computing environment for beginners, undergraduate and graduate students. As a practical example it is shown the exploratory analysis of edible vegetable oils by mid infrared spectroscopy.
Resumo:
The difficulty in adapting European dairy cows breeds in Brazil affect considerably the milk production sector. Brazilian climatic conditions are not totally favorable and the development of new tecnologies is needed for the animals express their genetic potential, as well as their best feed conversion. An economical analysis of the applied investment in the free-stall climatization equipment in dairy housing, for estimating studies related to profit, possibility of return investment as well as time for this return is necessary. The objective of this research was to evaluate the influence of climatization investment in the milk production process and analyze the economical aspect of this investment. There were used 470 high productive dairy cows with genetic and morphologic homogeneous characteristics, and analyzed in two similar periods. Investment calculations were done using Excell®. The results were satisfactory and the invested capital was proved to return to the producer in a short term, 57 days.