902 resultados para Concreto de alto desempenho


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta pesquisa de mestrado analisa, através de um estudo experimental, o comportamento mecânico de misturas em concreto asfáltico, utilizando agregados siderúrgicos (Escória de Aciaria) e Resíduo Areia de Fundição (R.A.F) em combinação com agregados minerais (Basalto). A reutilização destes resíduos industriais traz benefícios ambientais, pois auxilia a questão de deposição destes rejeitos, além de diminuir a degradação ambiental em áreas de extração de agregados pétreos. Foi realizada a dosagem de quatro misturas através da Metodologia Marshall, sendo uma mistura de Referência composta de agregados minerais. Para caracterização e verificação do desempenho das misturas asfálticas foi realizada a moldagem dos corpos-de-prova através da Metodologia Marshall, com uso de CAP 50/60, sendo determinado, além das propriedades Marshall, ensaios de módulo de resiliência à compressão diametral (Mr), resistência à tração (Rt), resistência à fadiga (tensão controlada), deformação permanente sob carga repetida, abrasão (Cântabro) e adesividade (Metodologia Lottman Modificada) das quatro misturas estudadas. Os resultados obtidos demonstraram que a adição dos resíduos industriais estudados ao concreto asfáltico aumenta o consumo de ligante da mistura. A incorporação de escória de aciaria à mistura em concreto asfáltico apresentou desempenho superior ao da mistura com agregados convencionais nas propriedades mecânicas e de durabilidade. A adição de Resíduo Areia de Fundição (R.A.F) em combinação com escória de aciaria não apresentou desempenho satisfatório neste estudo, uma vez que apresentou consumo de ligante elevado e propriedades mecânicas com desempenho inferior. Através do estudo ficou evidente a viabilidade da incorporação da escória de aciaria em misturas asfálticas apresentando melhora nas características mecânicas e de adesividade.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The last years have presented an increase in the acceptance and adoption of the parallel processing, as much for scientific computation of high performance as for applications of general intention. This acceptance has been favored mainly for the development of environments with massive parallel processing (MPP - Massively Parallel Processing) and of the distributed computation. A common point between distributed systems and MPPs architectures is the notion of message exchange, that allows the communication between processes. An environment of message exchange consists basically of a communication library that, acting as an extension of the programming languages that allow to the elaboration of applications parallel, such as C, C++ and Fortran. In the development of applications parallel, a basic aspect is on to the analysis of performance of the same ones. Several can be the metric ones used in this analysis: time of execution, efficiency in the use of the processing elements, scalability of the application with respect to the increase in the number of processors or to the increase of the instance of the treat problem. The establishment of models or mechanisms that allow this analysis can be a task sufficiently complicated considering parameters and involved degrees of freedom in the implementation of the parallel application. An joined alternative has been the use of collection tools and visualization of performance data, that allow the user to identify to points of strangulation and sources of inefficiency in an application. For an efficient visualization one becomes necessary to identify and to collect given relative to the execution of the application, stage this called instrumentation. In this work it is presented, initially, a study of the main techniques used in the collection of the performance data, and after that a detailed analysis of the main available tools is made that can be used in architectures parallel of the type to cluster Beowulf with Linux on X86 platform being used libraries of communication based in applications MPI - Message Passing Interface, such as LAM and MPICH. This analysis is validated on applications parallel bars that deal with the problems of the training of neural nets of the type perceptrons using retro-propagation. The gotten conclusions show to the potentiality and easinesses of the analyzed tools.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo o desenvolvimento de um modelo matemático capaz de ajustar dados obtidos através de campanhas de medição por meio de um protótipo de um cenário da tecnologia WiMAX. As campanhas de medição foram feitas na Universidade Federal do Pará. Foram utilizadas antenas WiMAX, sendo uma como servidor, localizada em cima do prédio do Laboratório de Planejamento de Redes de Alto Desempenho (LPRAD), e a outra, receptora, que ficou em cima de um móvel para que os pontos fossem coletados. O método de ajuste utilizado foi o dos Mínimos Quadrados Lineares. Por meio dos dados coletados, aplica-se o método e estuda seu comportamento, verificando o quanto a otimização foi eficiente nos casos apresentados. A utilização da tecnologia em questão como acesso à Internet em alguns programas como o NAVEGAPARÁ, a busca de melhoramentos ou criação de modelos de propagação e a análise cross-layer das métricas utilizadas no trabalho, como a influência da relação sinal-ruído na perda de quadros, são fatores motivadores para a pesquisa desta dissertação.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Um dos grandes entraves para o desenvolvimento econômico mundial é a crescente demanda por energia e consequente aumento da utilização de recursos naturais para provê-la. Países em desenvolvimento, como o Brasil, apresentaram progressivo consumo de energia per capita nos últimos anos. Embora a sua maioria seja proveniente de usinas hidrelétricas (fontes não poluidoras) sua construção causa grande impacto ambiental. De todo o percentual energético gerado, as edificações são responsáveis pelo consumo de aproximadamente 40% e este percentual tende a aumentar mediante o crescimento da construção civil no país. Diante da problemática, o combate ao desperdício, a racionalização e o uso sustentável da energia consumida pelas edificações estão diretamente ligados à redução do impacto ao meio ambiente, postergando a necessidade de aumento da matriz energética nacional. Neste contexto é criado o Regulamento Técnico da Qualidade do Nível de Eficiência Energética de Edifícios Comerciais, de Serviço e Públicos (RTQ-C). Este trabalho consiste em uma aplicação crítica do RTQ-C utilizando a metodologia prescritiva, tendo como enfoque aspectos relativos a sua aplicabilidade e avaliação de conforto térmico e lumínico, tendo como premissa que o alto desempenho energético da edificação só é plenamente alcançado quando são garantidas condições satisfatórias de conforto ambiental aos usuários. Para tanto foi necessária uma etapa minuciosa de levantamento de dados e medições “in loco” de temperatura do ar, temperatura radiante, iluminância e umidade relativa em dois ambientes (laboratório de conforto e sala de aula 2) do edifício do Centro de Excelência em Eficiência Energética da Amazônia - CEAMAZON, subsidiando a utilização da metodologia proposta por Fanger (PMV e PPD), e verificação dos níveis de iluminância propostos pela NBR 5413. Como resultado a edificação apresentou bom desempenho, mas a não observância dos prérequisitos a classificou com nível “C”. A avaliação de conforto indicou que aproximadamente 23% dos usuários não estavam em conforto térmico e que a ventilação natural poderá ser utilizada como estratégia bioclimática para adequação. As medições de iluminância indicaram que apenas a sala de aula 2 possuia potencial de aproveitamento de iluminação natural no período da medição. Concluiu-se que, apesar de sua importância, o RTQ-C deve passar ainda por um processo de adaptação por parte da sociedade e dos profissionais envolvidos na certificação energética de edificações e que durante esse período modificações poderão ser incorporadas contribuindo para torná-lo um instrumento efetivamente válido para a garantia da eficiência energética das edificações do país.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

As regiões do Rio Capim e do Rio Jari são os principais distritos caulinitícos da Região Amazônica, detentores das maiores reservas brasileiras de caulim de alta qualidade para aplicações como cobertura de papel. O caulim é lavrado e beneficiado por três grandes companhias que são responsáveis pela geração de aproximadamente 500 mil de toneladas anuais de um resíduo decorrente da etapa de centrifugação. Esse resíduo, na forma de polpa, é depositado em lagoas de sedimentação que ocupam grandes extensões de áreas. O objetivo da pesquisa foi investigar as características físicas, químicas e mineralógicas dos resíduos processados da Região do Jari e do Capim, de modo a avaliar se atendem aos requisitos como matéria-prima para a produção de uma pozolana de alta reatividade, o metacaulim, adição mineral que incorporada ao cimento Portland proporciona alto desempenho às misturas de concreto e argamassas. Os resíduos foram caracterizados por difração de raios X, análise térmica, espectroscopia de infravermelho, microscopia eletrônica de varredura, fluorescência de raios X e difração a laser. Ambos os resíduos são constituídos por no mínimo 92% de caulinita de baixa granulometria, cujas áreas superficiais específicas são superiores a 8 m2/g e os diâmetros médios de partículas inferiores a 1 µm. Os teores de sílica livre (quartzo) não foram superiores a 3%. O alto grau de concentração de caulinita destes resíduos dispensa os rígidos parâmetros de controle de remoção de impurezas, normalmente empregados na produção deste tipo de pozolana. O caulim do Rio Jari, com quantidade de defeitos na estrutura cristalina superior ao da caulinita do Rio Capim, proporcinou maior grau de desidroxilação a uma temperatura mais baixa quando calcinado, indicando a possibilidade de redução de gastos com energia para a produção da adição mineral. Os resultados das análises foram convergentes e apontam ambos os caulins estudados como excelentes matérias-primas para a produção do metacaulim de alta reatividade.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Resistance to corrosion, high tensile strength, low weight, easiness and rapidity of application, are characteristics that have contributed to the spread of the strengthening technique characterized by bonding of carbon fibers reinforced polymer (CFRP). This research aimed to develop an innovate strengthening method for RC beams, based on a high performance cement-based composite of steel fibers (macro + microfibers) to be applied as a transition layer. The purpose of this transition layer is better control the cracking of concrete and detain or even avoid premature debonding of strengthening. A preliminary study in short beams molded with steel fibers and strengthened with CFRP sheet, was carried out where was verified that the conception of the transition layer is valid. Tests were developed to get a cement-based composite with adequate characteristics to constitute the layer transition. Results showed the possibility to develop a high performance material with a pseudo strain-hardening behavior, high strength and fracture toughness. The application of the strengthening on the transition layer surface had significantly to improve the performance levels of the strengthened beam. It summary, it was proven the efficiency of the new strengthening technique, and much information can be used as criteria of projects for repaired and strengthened structures.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Avaliação de desempenho de equipes multifuncionais é um conceito que tem sido abordado mais freqüentemente nas últimas duas décadas. Diversas teorias e conceitos foram desenvolvidos para tornar as avaliações menos qualitativas ou fundamentadas em percepções, compreendendo um conjunto de diferentes técnicas interpretativas que visam descrever e decodificar os componentes de um sistema complexo de significados. Com esse foco o projeto comparou três modelos de avaliação de desempenho de equipes. O primeiro modelo baseado na personalidade do participante, afirma que os resultados das equipes são influenciados pela seleção prévia dos participantes e que as características individuais desses participantes são críticas para o desempenho da equipe. O segundo modelo fundamenta suas afirmações nas relações interconectadas de positividade e negatividade; questionamento e argumentação e atuação em equipe. O terceiro modelo baseado no processo de interação de grupos também avalia as relações que influenciam o alto desempenho de equipes multifuncionais. Os três modelos foram comparados, através de um estudo de caso único em indústria química paulista, medindo-se os resultados de correlação das equipes e as interações entre os participantes das equipes. As metas atingidas pelas equipes foram utilizadas para suportar os resultados das avaliações dos modelos como sistema de avaliação de equipes. Pode-se concluir que houve uma aproximação satisfatória confirmando a influência sugerida pelos modelos avaliados. A comparação entre os três modelos não permitiu afirmar qual dos três modelos é mais eficaz para avaliação de equipes. Entretanto, é possível, sugerir que a combinação de elementos dos três modelos permitirá a construção de um processo eficaz e prático de avaliação de equipes.(AU)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Avaliação de desempenho de equipes multifuncionais é um conceito que tem sido abordado mais freqüentemente nas últimas duas décadas. Diversas teorias e conceitos foram desenvolvidos para tornar as avaliações menos qualitativas ou fundamentadas em percepções, compreendendo um conjunto de diferentes técnicas interpretativas que visam descrever e decodificar os componentes de um sistema complexo de significados. Com esse foco o projeto comparou três modelos de avaliação de desempenho de equipes. O primeiro modelo baseado na personalidade do participante, afirma que os resultados das equipes são influenciados pela seleção prévia dos participantes e que as características individuais desses participantes são críticas para o desempenho da equipe. O segundo modelo fundamenta suas afirmações nas relações interconectadas de positividade e negatividade; questionamento e argumentação e atuação em equipe. O terceiro modelo baseado no processo de interação de grupos também avalia as relações que influenciam o alto desempenho de equipes multifuncionais. Os três modelos foram comparados, através de um estudo de caso único em indústria química paulista, medindo-se os resultados de correlação das equipes e as interações entre os participantes das equipes. As metas atingidas pelas equipes foram utilizadas para suportar os resultados das avaliações dos modelos como sistema de avaliação de equipes. Pode-se concluir que houve uma aproximação satisfatória confirmando a influência sugerida pelos modelos avaliados. A comparação entre os três modelos não permitiu afirmar qual dos três modelos é mais eficaz para avaliação de equipes. Entretanto, é possível, sugerir que a combinação de elementos dos três modelos permitirá a construção de um processo eficaz e prático de avaliação de equipes.(AU)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Devido às tendências de crescimento da quantidade de dados processados e a crescente necessidade por computação de alto desempenho, mudanças significativas estão acontecendo no projeto de arquiteturas de computadores. Com isso, tem-se migrado do paradigma sequencial para o paralelo, com centenas ou milhares de núcleos de processamento em um mesmo chip. Dentro desse contexto, o gerenciamento de energia torna-se cada vez mais importante, principalmente em sistemas embarcados, que geralmente são alimentados por baterias. De acordo com a Lei de Moore, o desempenho de um processador dobra a cada 18 meses, porém a capacidade das baterias dobra somente a cada 10 anos. Esta situação provoca uma enorme lacuna, que pode ser amenizada com a utilização de arquiteturas multi-cores heterogêneas. Um desafio fundamental que permanece em aberto para estas arquiteturas é realizar a integração entre desenvolvimento de código embarcado, escalonamento e hardware para gerenciamento de energia. O objetivo geral deste trabalho de doutorado é investigar técnicas para otimização da relação desempenho/consumo de energia em arquiteturas multi-cores heterogêneas single-ISA implementadas em FPGA. Nesse sentido, buscou-se por soluções que obtivessem o melhor desempenho possível a um consumo de energia ótimo. Isto foi feito por meio da combinação de mineração de dados para a análise de softwares baseados em threads aliadas às técnicas tradicionais para gerenciamento de energia, como way-shutdown dinâmico, e uma nova política de escalonamento heterogeneity-aware. Como principais contribuições pode-se citar a combinação de técnicas de gerenciamento de energia em diversos níveis como o nível do hardware, do escalonamento e da compilação; e uma política de escalonamento integrada com uma arquitetura multi-core heterogênea em relação ao tamanho da memória cache L1.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Avaliação de desempenho de equipes multifuncionais é um conceito que tem sido abordado mais freqüentemente nas últimas duas décadas. Diversas teorias e conceitos foram desenvolvidos para tornar as avaliações menos qualitativas ou fundamentadas em percepções, compreendendo um conjunto de diferentes técnicas interpretativas que visam descrever e decodificar os componentes de um sistema complexo de significados. Com esse foco o projeto comparou três modelos de avaliação de desempenho de equipes. O primeiro modelo baseado na personalidade do participante, afirma que os resultados das equipes são influenciados pela seleção prévia dos participantes e que as características individuais desses participantes são críticas para o desempenho da equipe. O segundo modelo fundamenta suas afirmações nas relações interconectadas de positividade e negatividade; questionamento e argumentação e atuação em equipe. O terceiro modelo baseado no processo de interação de grupos também avalia as relações que influenciam o alto desempenho de equipes multifuncionais. Os três modelos foram comparados, através de um estudo de caso único em indústria química paulista, medindo-se os resultados de correlação das equipes e as interações entre os participantes das equipes. As metas atingidas pelas equipes foram utilizadas para suportar os resultados das avaliações dos modelos como sistema de avaliação de equipes. Pode-se concluir que houve uma aproximação satisfatória confirmando a influência sugerida pelos modelos avaliados. A comparação entre os três modelos não permitiu afirmar qual dos três modelos é mais eficaz para avaliação de equipes. Entretanto, é possível, sugerir que a combinação de elementos dos três modelos permitirá a construção de um processo eficaz e prático de avaliação de equipes.(AU)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esforços constantes de pesquisa têm sido conduzidos na seleção de materiais, combinando propriedades de interesse (mecânicas, químicas, elétricas ou térmicas), versatilidade de uso, tempo de vida útil elevado e baixo custo de produção. A busca por materiais de elevado desempenho mecânico despertou grande interesse na pesquisa e desenvolvimento dos cerâmicos avançados com aplicações estruturais e funcionais, como o carbeto de silício. Entretanto, a porosidade ainda é vista como fator limitador do alto desempenho destes materiais visto que, acima de determinada porcentagem, reduz largamente sua resistência mecânica. Seu controle atualmente é realizado através de técnicas de alto custo, com a utilização de tomógrafos. Este trabalho buscou validar uma nova técnica, onde a porosidade foi avaliada através de processamento digital de imagens de microscopia ótica do material previamente lixado e polido em diversas profundidades, com controle dos parâmetros de lixamento e polimento. Esta nova metodologia mostrou-se apropriada e menos dispendiosa para a quantificação da porosidade do carbeto de silício, tendo sido validada para o estudo deste material.