11 resultados para Reforço de estruturas de alvenaria
em Biblioteca de Teses e Dissertações da USP
Resumo:
A metacognição é processo conceituado como o julgamento que um organismo (humano ou não humano) faz sobre seu próprio saber ou não saber. Há relatos de pesquisas sobre esse processo com seres humanos e diversas espécies de não humanos. Poucos estudos, porém, discutem a ocorrência de metacognição em ratos, e os resultados são controversos, em função de questionamentos sobre os procedimentos experimentais empregados. Este estudo teve o objetivo de investigar o efeito da manipulação de diferentes proporções de reforço produzidas em duas alternativas, sendo uma probabilística e outra com reforçamento contínuo, sobre o desempenho de ratos em uma tarefa de discriminação de diferentes durações de estímulos sonoros. O procedimento empregado é uma adaptação do utilizado por Foote e Crystal (2007), que investigou a ocorrência de metacognição em ratos. Foram utilizados cinco ratos machos, da linhagem Wistar (Rattus norvegicus) mantidos a 80% de seu peso ad libitum. O aparato utilizado foi um labirinto em Ey. O procedimento consistiu de quatro fases: 1) Treino exploratório no braço em Y, no qual o animal foi exposto a alternativas que continham seis pelotas de ração; 2) Treino de discriminação de estímulos sonoros, no qual foram treinadas duas discriminações condicionais com duas durações de estímulo sonoro, uma curta (2s), e uma longa (8s), cada uma correlacionada com a escolha de uma das portas do braço em Y; 3) Treino exploratório no braço em I, no qual os animais foram expostos a uma alternativa livre, que continha três pelotas de ração; e 4) Fase de Teste, na qual foram apresentadas diferentes durações de som (2.00, 2.44, 2.97, 3.62, 4.42, 5.38, 6.56 e 8.00s), a partir das quais o animal poderia escolher entre o braço em Y (fazer o teste), e receber seis pelotas de ração caso escolhesse a porta correta (correlacionada à duração curta ou longa), ou escolher a alternativa de recusa do teste, produzindo, com certeza, a quantidade de ração estabelecida pela condição em vigor. Foi analisada a porcentagem de escolhas realizadas pelos animais nos braços Y e I em cada condição, assim como a relação entre a porcentagem de acertos e erros nos testes e recusa, para cada duração de som. Todos os sujeitos atingiram o critério de aprendizagem estabelecido na fase de treino. Na fase de testes, observou-se que o som deixou de exercer controle sobre a resposta de escolha de todos os animais. À medida que a proporção de reforço variou na alternativa de recusa, os animais alteraram o padrão de escolha, de propensão para aversão ao risco, de acordo com a condição em vigor. A escolha por uma alternativa não se mostrou sob controle da acurácia dos animais em discriminar as durações dos estímulos apresentados, mas sim da proporção e probabilidade do reforço em cada alternativa. Discute-se a necessidade de se recorrer ao conceito de metacognição para descrever o desempenho dos animais em tarefas como a empregada no presente estudo.
Resumo:
A necessidade de obter solução de grandes sistemas lineares resultantes de processos de discretização de equações diferenciais parciais provenientes da modelagem de diferentes fenômenos físicos conduz à busca de técnicas numéricas escaláveis. Métodos multigrid são classificados como algoritmos escaláveis.Um estimador de erros deve estar associado à solução numérica do problema discreto de modo a propiciar a adequada avaliação da solução obtida pelo processo de aproximação. Nesse contexto, a presente tese caracteriza-se pela proposta de reutilização das estruturas matriciais hierárquicas de operadores de transferência e restrição dos métodos multigrid algébricos para acelerar o tempo de solução dos sistemas lineares associados à equação do transporte de contaminantes em meio poroso saturado. Adicionalmente, caracteriza-se pela implementação das estimativas residuais para os problemas que envolvem dados constantes ou não constantes, os regimes de pequena ou grande advecção e pela proposta de utilização das estimativas residuais associadas ao termo de fonte e à condição inicial para construir procedimentos adaptativos para os dados do problema. O desenvolvimento dos códigos do método de elementos finitos, do estimador residual e dos procedimentos adaptativos foram baseados no projeto FEniCS, utilizando a linguagem de programação PYTHONR e desenvolvidos na plataforma Eclipse. A implementação dos métodos multigrid algébricos com reutilização considera a biblioteca PyAMG. Baseado na reutilização das estruturas hierárquicas, os métodos multigrid com reutilização com parâmetro fixo e automática são propostos, e esses conceitos são estendidos para os métodos iterativos não-estacionários tais como GMRES e BICGSTAB. Os resultados numéricos mostraram que o estimador residual captura o comportamento do erro real da solução numérica, e fornece algoritmos adaptativos para os dados cuja malha retornada produz uma solução numérica similar à uma malha uniforme com mais elementos. Adicionalmente, os métodos com reutilização são mais rápidos que os métodos que não empregam o processo de reutilização de estruturas. Além disso, a eficiência dos métodos com reutilização também pode ser observada na solução do problema auxiliar, o qual é necessário para obtenção das estimativas residuais para o regime de grande advecção. Esses resultados englobam tanto os métodos multigrid algébricos do tipo SA quanto os métodos pré-condicionados por métodos multigrid algébrico SA, e envolvem o transporte de contaminantes em regime de pequena e grande advecção, malhas estruturadas e não estruturadas, problemas bidimensionais, problemas tridimensionais e domínios com diferentes escalas.
Resumo:
Este trabalho teve o propósito de avaliar a relação entre a cartilagem alar e a abertura piriforme a partir de imagens de tomografia computadorizada cone-beam e a relação do nariz com o padrão esquelético vertical da face. A pesquisa foi realizada com 96 imagens de indivíduos de ambos os sexos (49 masculino e 47 feminino), com idades entre 18 e 65 anos classificados de acordo com sua tipologia facial. Para a realização das marcações e mensurações de interesse foi utilizado o software OsiriX. A tipologia facial foi acessada através de três metodologias: índice facial, ângulo goníaco e proporção entre as alturas faciais. No corte axial da imagem de tomografia computadorizada, foram aferidas quatro grandezas lineares: largura do nariz externo, distância entre as inserções alares, extensão da base da abertura piriforme e máxima largura da abertura piriforme. Todas as grandezas foram mensuradas por dois examinadores em concordância. A análise dos resultados obtidos mostrou que há correlação entre as larguras do nariz externo e da abertura piriforme e entre a base da cavidade nasal e a distância entre as inserções alares. A largura da abertura piriforme aumenta proporcionalmente mais que a do nariz. Além disso, a tipologia facial longa associa-se à largura nasal.
Resumo:
O método construtivo com painéis portantes de concreto é economicamente viável, porém relativamente novo no cenário nacional, sobretudo no caso dos pré-moldados. As incertezas referentes às peculiaridades desse método, bem como a nova norma brasileira de painéis pré-moldados, ainda em elaboração, vem a motivar uma análise probabilística dos critérios de projeto disponíveis. Utilizando-se a técnica da confiabilidade estrutural, é possível propagar as incertezas referentes às variáveis a uma resposta final no índice de confiabilidade, sendo um cálculo totalmente probabilístico. Neste trabalho, emprega-se tal técnica com informações estatísticas referentes a lajes de concreto moldadas in loco para verificar, de maneira mais verossímil, a segurança dos critérios de projeto impostos pelo Precast Concrete Institute Design Handbook - Precast and Prestressed Concrete - 7th Edition (2010) às fases transitórias (desforma, transporte e içamento) e pela Norma Brasileira ABNT NBR 6118: 2014 - Projeto de estruturas de concreto, à fase em uso. Prossegue-se a uma análise crítica dos resultados bem como sugestões para diminuir a variação dos resultados, sobretudo pela calibração de novos coeficientes parciais de segurança, processo para o qual este trabalho pode servir de base.
Resumo:
Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.
Resumo:
As estruturas de madeira composta com alma em compensado já vem sendo amplamente utilizadas em diversos países onde as estruturas de madeira estão tecnologicamente mais desenvolvidas, oferecendo aos engenheiros civis mais uma opção de sistema construtivo eficiente, seguro e duradouro. Nesse trabalho são apresentados estudos teóricos e experimentais referentes às estruturas de madeira compostas utilizando compensado nas almas, e em especial as estruturas cuja ligação alma mesa é feita por pinos metálicos. O objetivo desse trabalho é desenvolver critérios de dimensionamento dessas estruturas para serem aplicados no Brasil. Vários critérios de dimensionamento de elementos compostos foram encontrados na bibliografia, alguns com simplificações que desconsideram efeitos de composição parcial e outros mais completos, que consideram deformações por cisalhamento, composição parcial etc. Com os resultados dos ensaios de vigas compostas pregadas foi possível comparar valores experimentais com resultados teóricos, concluiu-se que os critérios de dimensionamento do EUROCODE 5 são adequados. Os ensaios de rigidez de nó de pórtico de seção composta permitiram o desenvolvimento de metodologia para o cálculo da rigidez dessas ligações, visto que não existe formulação equivalente na bibliografia internacional. Concluiu-se que as ligações por pinos metálicos apresentam boa eficiência para serem utilizadas nas seções compostas com alma em compensado. As ligações de nó de pórtico com ligação alma/mesa pregadas podem ser consideradas rígidas na maioria dos casos estudados.
Resumo:
De modo a satisfazer aspectos de resistência, custo ou conforto, o aperfeiçoamento do desempenho das estruturas é uma meta sempre almejada na Engenharia. Melhorias têm sido alcançadas dado ao crescente uso de materiais compósitos, pois estes apresentam propriedades físicas diferenciadas capazes de atender as necessidades de projeto. Associado ao emprego de compósitos, o estudo da plasticidade demonstra uma interessante alternativa para aumentar o desempenho estrutural ao conferir uma capacidade resistente adicional ao conjunto. Entretanto, alguns problemas podem ser encontrados na análise elastoplástica de compósitos, além das próprias dificuldades inerentes à incorporação de fibras na matriz, no caso de compósitos reforçados. A forma na qual um compósito reforçado por fibras e suas fases têm sua representação e simulação é de extrema importância para garantir que os resultados obtidos sejam compatíveis com a realidade. À medida que se desenvolvem modelos mais refinados, surgem problemas referentes ao custo computacional, além da necessidade de compatibilização dos graus de liberdade entre os nós das malhas de elementos finitos da matriz e do reforço, muitas vezes exigindo a coincidência das referidas malhas. O presente trabalho utiliza formulações que permitem a representação de compósitos reforçados com fibras sem que haja a necessidade de coincidência entre malhas. Além disso, este permite a simulação do meio e do reforço em regime elastoplástico com o objetivo de melhor estudar o real comportamento. O modelo constitutivo adotado para a plasticidade é o de von Mises 2D associativo com encruamento linear positivo e a solução deste modelo foi obtida através de um processo iterativo. A formulação de elementos finitos posicional é adotada com descrição Lagrangeana Total e apresenta as posições do corpo no espaço como parâmetros nodais. Com o intuito de averiguar a correta implementação das formulações consideradas, exemplos para validação e apresentação das funcionalidades do código computacional desenvolvido foram analisados.
Resumo:
A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.
Resumo:
Não disponível.
Resumo:
A busca por melhorias de produtividade na indústria da construção civil é fundamental para garantia do crescimento sustentável do setor. Nesse sentido, o uso de estruturas de aço na construção de edifícios aparece como uma alternativa interessante às tradicionais estruturas em concreto armado. Essa dissertação tem por objetivo o estudo da produtividade da mão de obra e de equipamentos de içamento na montagem de estruturas de aço para edifícios de múltiplos pavimentos, buscando comprovar a hipótese de que essa produtividade varia em conjunto com alguns fatores que podem ser identificados e que essa variação pode ser quantificada. A pesquisa foi realizada segundo metodologia de Estudo de Caso, sendo que cinco obras compuseram o estudo. Como resultados, observa-se que produtividade potencial da mão de obra variou entre 3,33 e 8,23 Hh/peça ou 11,8 e 33,8 Hh/t e que a produtividade potencial dos equipamentos variou entre 0,38 e 0,53 Eqh/peça ou 1,84 e 2,29 Eqh/t, além de terem se encontrado correlações significativas entre os fatores tonelada/peça, disponibilidade do equipamento de içamento e quantidade relativa de pilares e os indicadores de produtividade.
Resumo:
A construção civil é responsável por relevante impacto ao meio ambiente, da extração das materiais-primas até a disposição dos seus resíduos em aterros. A avaliação do ciclo de vida (ACV) é uma ferramenta que possibilita a estimativa dos impactos ambientais potenciais do setor de forma sistemática. A simplificação da ACV, pelo uso de dados secundários e redução do escopo do estudo, facilita sua implementação como ferramenta de promoção da sustentabilidade. O objetivo dessa dissertação é estimar faixas dos cinco principais indicadores do setor de blocos de concreto do mercado brasileiro pela simplificação da ACV: consumo de materiais, energia incorporada, emissão de CO2, água e geração de resíduos. Este estudo foi o piloto do Projeto ACV Modular, iniciativa do Conselho Brasileiro de Construção Sustentável em parceria da Associação Brasileira de Cimento Portland e da Associação Brasileira da Indústria de Blocos de Concreto. O inventário foi desenvolvido com 33 fábricas localizadas em diferentes regiões do Brasil, estas sendo responsáveis por aproximadamente 50% da produção nacional. Os produtos selecionados foram blocos para pavimentação e alvenaria (estruturais e de vedação) considerados mais representativos no mercado. A fronteira do sistema adotada foi do berço ao portão da fábrica. O indicador de consumo de materiais não foi apresentado para garantir a confidencialidade dos dados das empresas, pois o teor de cimento foi dado direto informado no formulário. O indicador de resíduos não pode ser gerado devido a diferentes interpretações adotadas pelos fabricantes ao registrar seus dados. O indicador de água, apesar de incluir todo o consumo informado pela fábrica, apresentou valores muito baixos, alguns próximos a zero. O consumo de cimento, não o teor de clínquer, foi responsável por parcela significativa do CO2 e da energia incorporada do bloco, com participação de 62 a 99% das emissões de CO2. Assim, entre as empresas analisadas, mesmo com igual rota tecnológica, os insumos utilizados, a formulação do concreto, a eficiência de compactação da vibro prensa e o sistema produtivo tiveram maior influência nos indicadores de materiais, energia e CO2.