930 resultados para Programação paralela
Resumo:
O solo residual de gnaisse estudado nesta dissertação ocupa uma grande área da cidade de Porto Alegre/RS e região metropolitana. Na região onde foi amostrado, encontrase hoje uma estrutura de contenção em solo grampeado. Rupturas durante a escavação ocasionaram a necessidade de redimensionamento da estrutura, o que na época foi realizado através de retro-análises de rupturas induzidas. Na ocasião a empresa responsável pela execução da obra retirou blocos indeformados de campo, para que posteriormente fossem determinadas as propriedades geomecânicas deste solo residual. O programa experimental desta dissertação envolveu: (a) ensaios de caracterização; (b) caracterização mineralógica através de difratometria de Raio-X, microscopia ótica e microscopia eletrônica;(c) determinação de parâmetros de resistência ao cisalhamento através de ensaios de cisalhamento direto e (d) determinação de parâmetros de resistência ao cisalhamento residual através de ensaios ring shear. Através dos ensaios de cisalhamento direto foi verificado que o intemperismo no local praticamente não apresenta influência nos parâmetros de resistência ao cisalhamento deste solo, pois ambas as profundidades de amostragem mantém a estrutura da rocha de origem. A resistência ao cisalhamento deste material é em grande parte comandada pela sua micro-estrutura, e principalmente pelo bandamento micáceo Em ambas profundidades foi verificada anisotropia de resistência ao cisalhamento, através de ensaios com a orientação de planos de xistosidade paralela e perpendicular à superfície de ruptura imposta pelo ensaio. Este comportamento demonstra a influência que a macro-estrutura herdada da rocha mãe tem sobre a resistência deste material. Os ensaios ring shear realizados neste material apresentaram ângulos de atrito interno residual baixos em relação ao que se espera de materiais predominantemente granulares como é o caso deste solo. Porém estes valores baixos podem ser atribuídos ao alto teor de mica existente.
Resumo:
Este trabalho tem por objetivo determinar e avaliar a transmissibilidade da vibração no corpo humano além de desenvolver um modelo numérico de quatro graus de liberdade representativo do sistema banco e corpo humano. Para auxiliar no desenvolvimento deste trabalho foi realizado um resgate de pesquisas publicadas por pesquisadores anteriormente na área de modelamento numérico, além das medições e avaliações da transmissibilidade da vibração no corpo humano. Foram realizadas medições da transmissibilidade da vibração no corpo humano na posição sentado em um banco comumente utilizado para motoristas de ônibus urbanos. As medições foram realizadas ao longo do eixo z, de acordo com as recomendações das normas ISO 2631 (1974 e 1997), utilizando-se de acelerômetros uni-axiais, um computador com placa conversora analógica para digital (A/D), além de programas desenvolvidos na plataforma de programação gráfica HPVee para aquisição dos níveis de vibração e avaliação das transmissibilidades da vibração. A vibração vertical foi simultaneamente medida no corpo humano (direção z – ISO 2631). Para medir os níveis de vibração no assento, na pélvis, no ombro e na cabeça foram utilizados quatro micro-acelerômetros uni-axiais (Endveco Isotron 2250A/AM1-10) enquanto que no piso, foi utilizado um acelerômetro uni-axial da Brüel & Kjaer 4338. O grupo estudado nos experimentos era composto por cinco indivíduos, sendo três homens e duas mulheres. Avaliou-se a transmissibilidade entre o assento do banco e o piso, entre a pélvis o assento, entre o ombro e o assento e entre a cabeça e o assento. Os resultados indicaram que o sistema apresentou uma amplificação da transmissibilidade entre o assento e o piso em até 2,5 vezes, enquanto que, para as demais transmissibilidades (pélvis/assento, ombro/assento, cabeça/assento) houve uma atenuação gradual da transmissibilidade da vibração Um modelo linear de quatro graus de liberdade foi desenvolvido para representar o comportamento biodinâmico de indivíduos brasileiros submetidos à vibração forçada proveniente de sinais medidos em ônibus urbanos brasileiros. O modelo responde simultaneamente de acordo com os dados obtidos experimentalmente da transmissibilidade entre o assento e o piso e entre o ombro e o assento para uma faixa de freqüência de 4 até 40 Hz. Foi desenvolvida uma rotina no Maple 5.5 (anexo 10.4) a qual consiste em ajustar uma curva de transmissibilidade calculada com os limites estabelecidos dos parâmetros biomecânicos definidos nos ensaios biométricos e literatura às curvas de transmissibilidade obtidas experimentalmente. Os resultados indicaram que para a curva de transmissibilidade entre o assento e o ombro o erro foi de 37,78% enquanto que para as curvas de transmissibilidade entre o assento e o piso apresentaram um erro de 17,74 %. Apesar dos valores de erro percentual terem sido relativamente elevados, os valores de ambas as curvas de transmissibilidade numérica apresentaram resultados de ajuste muito próximos às curvas experimentais.
Resumo:
O objetivo deste trabalho é desenvolver um programa computacional, baseado no método dos elementos finitos, para simular situações de reforço e recuperação de peças de concreto armado. A linguagem Matlab é a ferramenta utilizada para a elaboração do programa. É uma linguagem de alta performance para computação técnica. Integra computação, visualização e programação em um fácil ambiente para uso, onde problemas e soluções são expressos em familiar notação matemática. A característica principal deste programa é de permitir alterações na modelagem numérica durante a análise do problema, podendo-se retirar ou acrescentar elementos da estrutura, aumentar ou diminuir rigidezes, alterar materiais, etc, viabilizando-se, assim, uma avaliação das diversas etapas ou hipóteses dos procedimentos de recuperação ou reforço de estruturas. O programa permite a mudança de vinculações do elemento estrutural, durante a análise. Além disto, é permitido não só incrementos de forças como incrementos de deslocamentos impostos à estrutura. O programa computacional utiliza duas etapas distintas, baseadas em um modelo elasto-viscoplástico. Na primeira etapa, faz-se a determinação da resposta da estrutura ao longo do tempo. Considera-se, nesta etapa, que o material possui comportamento viscoelástico. Na segunda, busca-se determinar a resposta da estrutura para um carregamento instantâneo, considerando-se o material com comportamento elastoplástico Para melhor representar o comportamento do concreto, quando submetido a carregamento de longa duração, utilizou-se um modelo de camadas superpostas. A armadura é introduzida no modelo como uma linha de material mais rígido dentro do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Assim, os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Para verificar a precisão do programa computacional desenvolvido, comparam-se os resultados numéricos com resultados experimentais, cujos ensaios foram realizados no Laboratório de Ensaios e Modelos Estruturais do Programa de Pós-Graduação em Engenharia Civil da Escola de Engenharia da Universidade Federal do Rio Grande do Sul, e no Laboratório de Estruturas da Escola de Engenharia de São Carlos- USP. Nessas comparações, obtiveram-se ótimas aproximações entre os resultados numéricos e experimentais.
Resumo:
A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.
Resumo:
Esta dissertação busca retomar o debate sobre o processo de desenvolvimento da agricultura gaúcha, através da análise crítica dos três principais estudos produzidos durante os anos setenta a respeito daquele processo. A intenção da retomada deste debate é defendida a partir da construção da hipótese de que as categorias "lavoura empresarial", "pecuária tradicional" e "agropecuária colonial", elaboradas no Projeto ACIIRS e, posteriormente, adotadas no estudo "25 Anos de Economia Gaúcha" e no "Projeto PERSAGRI", generalizaram uma interpretação distorcida da realidade agrária e agrícola gaúcha. Tal distorção explicita-se pela ênfase dada à idéia de que a "lavoura empresarial" seria um segmento produtivo caracterizado pelo uso destacado da mão-de-obra assalariada e pela separação entre o proprietário dos meios de produção e os proprietários da força de trabalho. Ao mesmo tempo, pela acentuação do fato de que a "agropecuária colonial" era um segmento onde seu caráter de "unidade de produção não capitalista" a tornava uma unidade onde não haveria condições de acumulação de excedente. A análise dos estudos acima indicados (capítulos 2, 3 e 4) foi complementada por uma proposta metodológica onde se recorreu, por um lado, à tabulação modificada dos dados de mão-de-obra do Projeto ACIIRS, relacionados com os tipos de agricultura e as regiões de programação definidas pelo mesmo Projeto. Por outro lado, utilizou-se dados de mão-de-obra dos censos agropecuários tabulados de acordo com três grupos de municípios do Rio Grande do Sul, selecionados conforme os tipos de solo disponíveis e a estrutura fundiária. Tal proposta metodológica permitiu que se identificasse que a utilização daquelas categorias conduziu a uma superestimação do papel desempenhado pela relação de trabalho por assalariamento, representada pela "lavoura empresarial" e, ao mesmo tempo, a uma subestimação do papel da mão-de-obra familiar, representada pela "agropecuária colonial", no processo de desenvolvimento da agricultura gaúcha.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.
Resumo:
Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.
Resumo:
Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.
Resumo:
Este trabalho consiste em um estudo para avaliar e quantificar o pico do impacto e força gerada no segmento superior em atletas da arte marcial de origem japonesa Karate Do, oriundos da seleção Gaúcha adulta e juvenil da modalidade do ano de 2001, durante a execução da técnica de gyaku tsuki sobre makiwara. Os valores dos picos de aceleração foram obtidos na região do punho e escápula utilizando-se acelerômetros piezoelétricos uniaxiais fixos nestas regiões, e os valores da força gerada durante o choque, obtidos através da instrumentação do makiwara com extensômetros. As medições no segmento superior foram realizadas no eixo longitudinal do mesmo de acordo com as recomendações das normas ISO 2631 (1974 e 1997) e ISO 5349 (1986). Um dos acelerômetros foi fixado na porção distal do rádio e o outro acima da espinha da escápula. A disposição dos acelerômetros têm por objetivo captar o nível de vibração que efetivamente chega no segmento superior pela mão e quanto da energia vibratória é absorvida pelo mesmo. Os dois sensores foram colocados superficialmente sobre a pele, diretamente acima das estruturas anatômicas acima descritas, fixos com fita adesiva. A aquisição dos dados foi realizada com uma placa conversora analógica digital, e programa de aquisição de dados em três canais desenvolvido na plataforma de programação visual HPVee. Os ensaios foram realizados simulando a maneira clássica de execução da técnica de gyaku tsuki em makiwara. O trabalho apresenta ainda um estudo sistemático de lesões associadas ao uso do makiwara e estatísticas referentes a praticantes avançados do estado do Rio Grande do Sul. Também apresenta algumas considerações anatômicas e Mecânicas da técnica estudada, para apresentar-se como material de auxílio à estudiosos da Biomecânica dos esportes e Cinesiologia, instrutores e treinadores em geral para otimizar e aperfeiçoar, ou mesmo aumentar a compreensão da prática esportiva do Karate Do. Também é apresentado um modelo biomecânico de quatro graus de liberdade usado para análise de domínio de freqüência e possível simulação futura.
Resumo:
O atual contexto social tem sido marcado pelo constante avanço tecnológico e científico, pela rápida defasagem dos conhecimentos e pela demanda por profissionais mais qualificadas e capazes de aprender e resolver problemas colaborativamente. A fim de atender esta demanda, o ensino tradicional tem que mudar, de forma que as pessoas possam desenvolver habilidades de “aprender a aprender” e “aprender colaborativamente”. A Aprendizagem Colaborativa tem sido apontada como uma alternativa a este problema, possibilitando uma aprendizagem flexível, ativa e centrada no aluno. Os alunos aprendem em colaboração com outros alunos, o que possibilita uma aprendizagem mais profunda, através de trocas de idéias, dúvidas e pontos de vista. Por outro lado, o advento da rede Internet e a consolidação desta como um importante meio de comunicação mundial têm introduzido novas possibilidades à Aprendizagem Colaborativa Apoiada por Computador (Computer Supported Collaborative Learning – CSCL). Uma atenção especial tem sido dada ao WWW, serviço que possui grande potencial como meio ativo de aprendizagem, embora seja amplamente utilizado como meio passivo de transmissão de informações pela Internet. Este cenário tem viabilizado a utilização da infra-estrutura da Internet para a criação de um sistema de CSCL de grande alcance e a um custo relativamente baixo. O objetivo principal do presente trabalho é propor e implementar um modelo de CSCL baseado na Internet que forneça, de forma integrada, o suporte necessário para o desenvolvimento efetivo de atividades colaborativas de aprendizagem. O trabalho realizado pode ser dividido em três etapas principais: (1) o levantamento teórico, que consistiu no estudo das principais áreas relacionadas com o trabalho desenvolvido, o que foi fundamental para a definição do modelo de sistema de aprendizagem colaborativa proposto; (2) a definição do modelo, que consistiu no levantamento das atividades básicas que devem ser apoiadas por um ambiente de CSCL e na proposição do modelo de um sistema de CSCL baseado na Internet com suporte às atividades levantadas; (3) a implementação do modelo, que possibilitou a verificação da viabilidade da utilização do serviço WWW como base para um ambiente de CSCL, através da utilização de recursos de programação para web e da integração de ferramentas já existentes na Internet.
Resumo:
O setor residencial no Brasil consome cerca de 24% do total da energia elétrica consumida no país, e a maior parcela desta demanda se concentra nos grandes centros urbanos. Os fatores atrelados à demanda de energia elétrica deste setor são extremamente complexos e variados. A atualização de dados, o seu conhecimento, entendimento e verificação de suas relações são de extrema importância para a programação de ações, tanto visando o suprimento deste mercado, como para aquelas que busquem a otimização do uso de energia elétrica. O presente trabalho de pesquisa envolve a análise e o estudo do consumo de energia elétrica do setor residencial, onde são analisados os múltiplos aspectos relacionados ao consumo de energia elétrica de dez diferentes tipologias de edificação de uso residencial, escolhidas em uma área de 1.500 ha, situada na zona sul da cidade de Porto Alegre. Procurou-se também estabelecer relações entre as tipologias de edificação escolhidas para análise e os respectivos consumos de energia elétrica. Buscou-se ainda verificar qual o peso desta relação frente aos demais aspectos relacionados com o consumo de energia elétrica, tais como renda familiar, densidade habitacional e hábitos de uso entre outros. Concluiu-se que a correlação, entre as variáveis relacionadas com as tipologias e o consumo de energia elétrica se apresentou muito baixa. No entanto a correlação entre os valores médios das diversas variáveis estudadas e o consumo de energia elétrica se apresentou bastante alto.
Resumo:
Neste trabalho, foram analisadas, implementadas e mostradas as características de uma interface com estrutura de programação genérica para o ambiente Windows, criando facilidades de rapidez, confiabilidade e a apresentação de resultados aos usuários do sistema matemático Maple na criação e uso de aplicações matemáticas. A interface utilizou como modelo de implementação cálculos modais de vigas clássicas de Euler-Bernoulli. O usuário encontra, em um único sistema, cálculo para vigas clássicas, terá uma entrada de dados facilitada de variáveis que serão substituídas automaticamente no programa fonte da viga e a geração de resultados em um ambiente amigável com dados e gráficos mostrados de forma organizados.
Resumo:
Este trabalho apresenta uma sistemática para realizar a otimização numérica de pré-formas e de matrizes em problemas de forjamento axissimétricos e em estado plano de deformações. Para este fim, desenvolveu-se um código computacional composto basicamente de três módulos: módulo de pré-processamento, módulo de análise e módulo de otimização. Cada um destes foi elaborado acrescentando rotinas em programas comerciais ou acadêmicos disponíveis no GMAp e no CEMACOM. Um programa gerenciador foi desenvolvido para controlar os módulos citados no processo de otimização. A abordagem proposta apresenta uma nova função objetivo a minimizar, a qual está baseada em uma operação booleana XOR (exclusive or) sobre os dois polígonos planos que representam a geometria desejada para o componente e a obtida na simulação, respectivamente. Esta abordagem visa eliminar possíveis problemas geométricos associados com as funções objetivo comumente utilizadas em pesquisas correlatas. O trabalho emprega análise de sensibilidade numérica, via método das diferenças finitas. As dificuldades associadas a esta técnica são estudadas e dois pontos são identificados como limitadores da abordagem para problemas de conformação mecânica (grandes deformações elastoplásticas com contato friccional): baixa eficiência e contaminação dos gradientes na presença de remalhamentos. Um novo procedimento de diferenças finitas é desenvolvido, o qual elimina as dificuldades citadas, possibilitando a sua aplicação em problemas quaisquer, com características competitivas com as da abordagem analítica Malhas não estruturadas são tratadas mediante suavizações Laplacianas, mantendo as suas topologias. No caso de otimização de pré-formas, o contorno do componente a otimizar é parametrizado por B-Splines cujos pontos de controle são adotados como variáveis de projeto. Por outro lado, no caso de otimização de matrizes, a parametrização é realizada em termos de segmentos de reta e arcos de circunferências. As variáveis de projeto adotadas são, então, as coordenadas das extremidades das retas, os raios e centros dos arcos, etc. A sistemática é fechada pela aplicação dos algoritmos de programação matemática de Krister Svanberg (Método das Assíntotas Móveis Globalmente Convergente) e de Klaus Schittkowski (Programação Quadrática Sequencial – NLPQLP). Resultados numéricos são apresentados mostrando a evolução das implementações adotadas e o ganho de eficiência obtido.
Resumo:
Neste trabalho é resolvido o problema da minimização do volume de estruturas bidimensionais contínuas submetidas a restrições sobre a flexibilidade (trabalho das forças externas) e sobre as tensões, utilizando a técnica chamada otimização topológica, que visa encontrar a melhor distribuição de material dentro de um domínio de projeto pré-estabelecido. As equações de equilíbrio são resolvidas através do método dos elementos finitos, discretizando a geometria e aproximando o campo de deslocamentos. Dessa forma, essas equações diferenciais são transformadas em um sistema de equações lineares, obtendo como resposta os deslocamentos nodais de cada elemento. A distribuição de material é discretizada como uma densidade fictícia constante por elemento finito. Esta densidade define um material isotrópico poroso de uma seqüência pré-estabelecida (SIMP). A otimização é feita através da Programação Linear Seqüencial. Para tal, a função objetivo e as restrições são sucessivamente linearizadas por expansão em Série de Taylor. A análise de sensibilidade para a restrição de flexibilidade é resolvida utilizando o cálculo da sensibilidade analítico adaptado para elementos finitos de elasticidade plana. Quando as restrições consideradas são as tensões, o problema torna-se mais complexo. Diferente da flexibilidade, que é uma restrição global, cada elemento finito deve ter sua tensão controlada. A tensão de Von Mises é o critério de falha considerado, cuja sensibilidade foi calculada de acordo com a metodologia empregada por Duysinx e Bendsøe [Duysinx e Bendsøe, 1998] Problemas como a instabilidade de tabuleiro e dependência da malha sempre aparecem na otimização topológica de estruturas contínuas. A fim de minimizar seus efeitos, um filtro de vizinhança foi implementado, restringindo a variação da densidade entre elementos adjacentes. Restrições sobre as tensões causam um problema adicional, conhecido como singularidade das tensões, fazendo com que os algoritmos não convirjam para o mínimo global. Para contornar essa situação, é empregada uma técnica matemática de perturbação visando modificar o espaço onde se encontra a solução, de forma que o mínimo global possa ser encontrado. Esse método desenvolvido por Cheng e Guo [Cheng e Guo, 1997] é conhecido por relaxação-ε e foi implementado nesse trabalho.