27 resultados para Otimização estrutural


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho consiste na interpretação de informações gravimétricas e aeromagnetométricas (Projeto Geofísico Brasil-Canadá - PGBC) da região setentrional da Faixa de Dobramentos Araguaia, envolvendo uma área de aproximadamente 129.000km2, compreendida entre os meridianos 47°50’W e 50°30’W e paralelos 4°50'S e 9°00'S. Abrange porções sudeste do Estado do Pará, noroeste de Goiás e oeste do Maranhão. Os trabalhos de campo constaram de levantamentos gravimétrico e altimétrico, ao longo de rodovias que constituem a rede viária regional, e os resultados obtidos, após correções e reduções, foram então organizados de forma a constituírem um mapa de anomalias Bouguer, apresentado em escala 1:500.000. O padrão gravimétrico da faixa de dobramentos Araguaia se caracteriza por mostrar feições predominantemente longitudinais, com curvas isoanômalas de direções submeridianas, concordante com o comportamento litológico-estrutural conhecido para a área. Na porção centro-meridional desse mapa aparece uma zona de anomalia negativa, alongada e intensa (menos de -100mgal), a qual sofre duas importantes inflexões para NW, sendo uma correlacionável ao Lineamento Carajás, e a outra na altura do paralelo 5°30'S. Apresenta zonas de altos gravimétricos, notadamente na porção noroeste (domínio cratônico), relacionada à influência das metavulcânicas do Grupo Grão Pará, e na porção nordeste, devida a massas densas introduzidas na crosta. Destaca-se também o relativo alto gravimétrico acompanhando o flanco oriental do eixo de ocorrência das braquidobras, podendo ser devido a massas excedentes colocadas sob essa região, através de esforços tectônicos, produzindo elevações do nível de base da crosta e consequentemente do embasamento. De forma genérica o flanco oriental da faixa mostra um gradiente mais intenso que o ocidental, devido principalmente à configuração geométrica das estruturas nesse setor. Da mesma forma merece destaque o gradiente regional ascendente de sul para norte. A análise das cartas de intensidade magnética do PGBC fornecem condições à individualização de diversos domínios magnéticos, perfeitamente correlacionáveis litológico e estruturalmente com as unidades geotectônicas que compõem o arcabouço regional, assim como suas subunidades. A execução de modelamento simples, quer para as informações gravimétricas como magnetométricas, objetivaram fornecer subsídios semi-quantitativos à interpretação, de forma a auxiliar no estabelecimento do padrão geométrico do embasamento da faixa de dobramentos Araguaia, assim como das estruturas a ela impostas. Assim, por meio do processamento das informações gravimétricas, verificou-se um padrão geométrico na forma de fatias imbricadas, estabelecidas sobre o substrato. A grande anomalia negativa da porção centro-meridional da faixa pode estar relacionada a uma deficiência de massa profunda (depressão na base da crosta) ou ainda a uma associação entre contraste de densidade e espessamento do pacote de supracrustais, nessa porção. O baixo gravimétrico da porção sudeste da área, entre Guarai e Tupirama, é devido a uma depressão do embasamento, da mesma forma como a anomalia negativa associada ao Lineamento Carajás está relacionada a uma estrutura sinformal conhecida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Devido às suas características únicas, redes de sensores ópticos têm encontrado aplicação em muitos campos, como em Engenharia Civil, Engenharia Geotécnica, Aeronáutica, Energia e Indústrias de Petróleo & Gás. Soluções de monitoramento baseadas nessa tecnologia têm se mostrado particularmente rentáveis e podem ser aplicadas às estruturas de grande porte, onde centenas de sensores devem ser implantados para medições a longo prazo de diferentes parâmetros mecânicos e físicos. Sensores baseados em Grades de Bragg em fibra (FBGs) são a solução mais comumente utilizada no Monitoramento de Saúde Estrutural (SHM) e as medições são realizadas por instrumentos especiais conhecidos como interrogadores ópticos. Taxas de aquisição cada vez mais elevadas têm sido possíveis utilizando interrogadores ópticos mais recentes, o que dá origem a um grande volume de dados cuja manipulação, armazenamento, gerenciamento e visualização podem demandar aplicações de software especiais. Este trabalho apresenta duas aplicações de software de tempo real desenvolvidas para esses fins: Interrogator Abstraction (InterAB) e Web-based System (WbS). As inovações neste trabalho incluem a integração, sincronização, independência, segurança, processamento e visualização em tempo real, e persistência de dados ou armazenamento proporcionados pelo trabalho conjunto das aplicações desenvolvidas. Os resultados obtidos durante testes em laboratório e ambiente real demonstraram a eficiência, robustez e flexibilidade desses softwares para diferentes tipos de sensores e interrogadores ópticos, garantindo atomicidade, consistência, isolamento e durabilidade dos dados persistidos pelo InterAB e apresentados pelo WbS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente Dissertação de Mestrado tem como objetivo o estudo do problema de inversão sísmica baseada em refletores planos para arranjo fonte-comum (FC) e ponto-médiocomum (PMC). O modelo direto é descrito por camadas homogêneas, isotrópicas com interfaces plano-horizontais. O problema é relacionado ao empilhamento NMO baseado na otimização da função semblance, para seções PMC corrigidas de sobretempo normal (NMO). O estudo foi baseado em dois princípios. O primeiro princípio adotado foi de combinar dois grupos de métodos de inversão: um Método Global e um Método Local. O segundo princípio adotado foi o de cascata, segundo a teoria Wichert-Herglotz-Bateman, que estabelece que para conhecer uma camada inferior tem-se que conhecer primeiro a camada superior (dissecação). A aplicação do estudo é voltada à simulação sísmica de Bacia Sedimentar do Solimões e de Bacia Marinha para se obter uma distribuição local 1D de velocidades e espessuras para a subsuperfície em horizontes alvo. Sendo assim, limitamos a inversão entre 4 e 11 refletores, uma vez que na prática a indústria limita uma interpretação realizada apenas em número equivalente de 3 a 4 refletores principais. Ressalta-se que este modelo é aplicável como condição inicial ao imageamento de seções sísmicas em regiões geologicamente complexas com variação horizontal suave de velocidades. Os dados sintéticos foram gerados a partir dos modelos relacionados a informações geológicas, o que corresponde a uma forte informação a priori no modelo de inversão. Para a construção dos modelos relacionados aos projetos da Rede Risco Exploratório (FINEP) e de formação de recursos humanos da ANP em andamento, analisamos os seguintes assuntos relevantes: (1) Geologia de bacias sedimentares terrestre dos Solimões e ma rinha (estratigráfica, estrutural, tectônica e petrolífera); (2) Física da resolução vertical e horizontal; e (3) Discretização temporal-espacial no cubo de multi-cobertura. O processo de inversão é dependente do efeito da discretização tempo-espacial do campo de ondas, dos parâmetros físicos do levantamento sísmico, e da posterior reamostragem no cubo de cobertura múltipla. O modelo direto empregado corresponde ao caso do operador do empilhamento NMO (1D), considerando uma topografia de observação plana. O critério básico tomado como referência para a inversão e o ajuste de curvas é a norma 2 (quadrática). A inversão usando o presente modelo simples é computacionalmente atrativa por ser rápida, e conveniente por permitir que vários outros recursos possam ser incluídos com interpretação física lógica; por exemplo, a Zona de Fresnel Projetada (ZFP), cálculo direto da divergência esférica, inversão Dix, inversão linear por reparametrização, informações a priori, regularização. A ZFP mostra ser um conceito út il para estabelecer a abertura da janela espacial da inversão na seção tempo-distância, e representa a influência dos dados na resolução horizontal. A estimativa da ZFP indica uma abertura mínima com base num modelo adotado, e atualizável. A divergência esférica é uma função suave, e tem base física para ser usada na definição da matriz ponderação dos dados em métodos de inversão tomográfica. A necessidade de robustez na inversão pode ser analisada em seções sísmicas (FC, PMC) submetida a filtragens (freqüências de cantos: 5;15;75;85; banda-passante trapezoidal), onde se pode identificar, comparar e interpretar as informações contidas. A partir das seções, concluímos que os dados são contaminados com pontos isolados, o que propõe métodos na classe dos considerados robustos, tendo-se como referência a norma 2 (quadrados- mínimos) de ajuste de curvas. Os algoritmos foram desenvolvidos na linguagem de programação FORTRAN 90/95, usando o programa MATLAB para apresentação de resultados, e o sistema CWP/SU para modelagem sísmica sintética, marcação de eventos e apresentação de resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em sistemas híbridos de geração de eletricidade (SHGEs) é fundamental avaliar corretamente o dimensionamento, a operação e a gestão do sistema, de forma a evitar seu colapso prematuro e garantir a continuidade do fornecimento de energia elétrica com a menor intervenção possível de usuários ou de empresas geradoras e distribuidoras de eletricidade. O presente trabalho apresenta propostas de otimização para as etapas de dimensionamento, operação e gestão de SHGEs atendendo minirredes de distribuição de eletricidade. É proposta uma estratégia de operação que visa otimizar o despacho de energia do sistema, identificando a melhor relação, sob aspectos técnicos e econômicos, entre o atendimento da carga exclusivamente via fontes renováveis e banco de baterias ou exclusivamente via grupo gerador, e o carregamento do banco de baterias somente pelas fontes renováveis ou também pelo grupo gerador. Desenvolve-se, também, um algoritmo de dimensionamento de SHGEs, com auxílio de algoritmos genéticos e simulated annealing, técnicas meta-heurísticas de otimização, visando apresentar a melhor configuração do sistema, em termos de equipamentos que resultem na melhor viabilidade técnica e econômica para uma dada condição de entrada definida pelo usuário. Por fim, é proposto um modelo de gestão do sistema, considerando formas de tarifação e sistemas de controle de carga, cujo objetivo é garantir uma relação adequada entre a disponibilidade energética do sistema de geração e a carga demandada. A estratégia de operação proposta combina as estratégias de operação descontínua do grupo gerador, da potência crítica e do ponto otimizado de contribuição do gerador no carregamento do banco de baterias, e seus resultados indicam que há redução nos custos de operação globais do sistema. Com relação ao dimensionamento ótimo, o algoritmo proposto, em comparação a outras ferramentas de otimização de SHGEs, apresenta bons resultados, sendo adequado à realidade nacional. O modelo de gestão do sistema propõe o estabelecimento de limites de consumo e demanda, adequados à realidade de comunidades isoladas atendidas por sistemas com fontes renováveis e, se corretamente empregados, podem ajudar a garantir a sustentabilidade dos sistemas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar do aumento significativo do uso de redes locais sem fio (WLAN) nos últimos anos, aspectos de projeto e planejamento de capacidade da rede são ainda sistematicamente negligenciados durante a implementação da rede. Tipicamente um projeto de rede local sem fio é feito e instalado por profissionais de rede. Esses profissionais são extremamente experientes com redes cabeadas, mas são ainda geralmente pouco experientes com redes sem fio. Deste modo, as instalações de redes locais sem fio são desvantajosas pela falta de um modelo de avaliação de desempenho e para determinar a localização do ponto de acesso (PA), além disso, fatores importantes do ambiente não são considerados no projeto. Esses fatores se tornam mais importante quando muitos pontos de acesso (PAs) são instalados para cobrir um único edifício, algumas vezes sem planejamento de freqüência. Falhas como essa podem causar interferência entre células geradas pelo mesmo PA. Por essa razão, a rede não obterá os padrões de qualidade de serviço (QoS) exigidos por cada serviço. O presente trabalho apresenta uma proposta para planejamento de redes sem fio levando em consideração a influência da interferência com o auxílio de inteligência computacional tais como a utilização de redes Bayesianas. Uma extensiva campanha de medição foi feita para avaliar o desempenho de dois pontos de acesso (PAs) sobre um cenário multiusuário, com e sem interferência. Os dados dessa campanha de medição foram usados como entrada das redes Bayesianas e confirmaram a influência da interferência nos parâmetros de QoS. Uma implementação de algoritmo genético foi utilizado permitindo uma abordagem híbrida para planejamento de redes sem fio. Como efeito de comparação para otimizar os parâmetros de QoS, de modo a encontrar a melhor distância do PA ao receptor garantindo as recomendações do International Telecomunication Union (ITU-T), a técnica de otimização por enxame de partículas foi aplicada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A recuperação e reforço de estruturas de concreto armado estão cada vez mais frequentes no Brasil, devido, principalmente, ao envelhecimento das estruturas construídas nas décadas de 60 e 70 do século XX, as quais estão prestes a atingir seu tempo de vida útil. Somam-se a isto, fatores como o uso de concretos com baixa resistência, falhas de execução, além do uso inadequado e da falta de manutenção. Devido a esses fatores que a sociedade deve se preocupar em reforçar e/ou recuperar essas construções, evitando assim, demolições das mesmas e até mesmo evitar acidentes fatais. Este trabalho apresenta um estudo de caso, que visa a recuperação de um edifício, que se encontra abandonado há cerca de duas décadas na cidade de Rio Branco, Estado do Acre. Atualmente, existem várias técnicas de reforço de estrutura de concreto armado. Tais como: reforço por meio de encamisamento de concreto armado, complementação ou reforço com adição de armadura, reforço com aplicação de chapas e perfis metálicos, reforço de pilares com polímeros reforçados com fibra de carbono (PRFC), dentre outras. Neste trabalho, o método adotado para a recuperação foi o reforço por meio de encamisamento de concreto armado. E para uma melhor compreensão da metodologia adotada o trabalho apresenta também detalhes da configuração do reforço adotado, detalhe construtivo e procedimentos executivos do método adotado. Além, das envoltórias mostrando os esforços atuantes e resistentes do antes e depois do reforço.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho visou a demonstrar o dimensionamento e verificação de cálculo da NBR 6118 (ABNT, 2007) com as suas características geométricas, cobrimento da armadura, armaduras, flambagem e a resistência de pilares à compressão centrada dos pilares em concreto armado, apresentando na revisão bibliográfica as principais técnicas de reforço estrutural de pilares de concreto armado para edificações antigas, identificando as principais metodologias e técnicas utilizadas no Brasil e apresentando os pontos positivos e negativos de cada técnica:encamisamento de concreto, perfis metálicos, chapa de aço colado, manta/tecido de carbono, aramida e vidro e polímeros reforçados com fibras de carbono (PRFC). Os pilares com aumento da seção transversal retangular, com adição de armação e concreto, sendo mais usual e prática a técnica apresenta dificuldades em obras antigas, geralmente devido à necessidade arquitetônica de permanecer o mais fiel a sua forma original. Justificando-se a necessidade de conhecimento das diversas técnicas de reforço estrutural descritas neste trabalho com aumento de capacidade de resistência, sem que haja aumento substancial, na seção transversal dos pilares e objetivando a análise do reforço proposto através dos cálculos do projeto, programa – PDOP 2.0 e parâmetros de cálculo da NBR 6118 (ABNT, 2007). Os resultados obtidos através da análise comparativa do reforço executado no estudo de caso “revitalização do casarão” - com relação à análise dos pilares retangulares submetidos à flexão composta oblíqua, esforços cortantes e torsores quanto à NBR 6118 (ABNT, 2007) utilizando o programa para dimensionamento otimizado de pilares – PDOP 2.0 - indicaram que a técnica de reforço estudada foi eficiente, pois todas as peças reforçadas tiveram uma capacidade portante maior que a do pilar original sem o reforço.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Novas técnicas de aprimoramento de resíduos tem se tornado cada vez mais importante na construção civil, principalmente quando se trata da utilização de resíduos de outros segmentos industriais e na redução de matérias primas naturais. O objetivo deste estudo foi avaliar a utilização de um resíduo proveniente da produção da alumina metalúrgica conhecido como lama vermelha (LV), no desempenho estrutural de blocos, prismas, mini-paredes e paredes confeccionados com blocos cerâmicos, com seções transversais, reticulada e circular, produzidos a partir da mistura de LV e argila. Foram realizados ensaios experimentais correspondentes à caracterização dos materiais empregados e ensaios de resistência à compressão das unidades, blocos, prismas, mini-paredes e paredes. Todos os materiais e unidades cumpriram com os requisitos normalizados para sua correta utilização nos testes experimentais. Os resultados obtidos dos ensaios a compressão dos elementos demonstraram que os blocos confeccionados com a mistura de LV e argila atenderam aos parâmetros normativos e apresentaram resultados satisfatórios e superiores aos componentes confeccionados com blocos cerâmicos compostos com 100% de argila, empregados usualmente nas construções.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A desidratação osmótica de filés de mapará tem sido utilizada como pré-tratamento antes da secagem e refrigeração de alimentos como um meio de reduzir a umidade dos produtos. O objetivo do trabalho foi otimizar a transferência de massa ocorrida durante a desidratação osmótica de mapará através da metodologia de superfície de resposta. A desidratação osmótica foi realizada de acordo com um planejamento fatorial completo 23, com oito pontos fatoriais, três centrais e seis axiais, totalizando 17 ensaios, em que o valor das variáveis dependentes, a perda de peso (PP), a perda de água (PA), o ganho de sólidos (GS), GS/PA e ácido tiobarbitúrico (TBA), são funções das variáveis independentes, temperatura, concentração de NaCl e tempo de imersão. A análise estatística aplicada aos dados experimentais foi realizada através do erro puro e pelo SS residual. Aplicando a metodologia de superfície de resposta, a condição ótima de convergência de menor perda de peso, maior perda de água e menor ganho de sal correspondeu a uma concentração de cloreto de sódio de 22%, temperatura de 46 °C e tempo de 7 horas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A localização de bancos de capacitores nas redes de distribuição de energia elétrica, corretamente dimensionados, busca compensar eventuais excessos de circulação de potência reativa pelas linhas, o que implica a redução de custos operacionais pela redução das perdas de energia e um aumento da capacidade de transmissão de potência ativa assegurando os níveis estabelecidos de tensão e fator de potência simultaneamente. A proliferação das cargas não lineares provocou uma mudança nos cenários de estudo dos sistemas elétricos de potência devido aos efeitos nocivos que os harmônicos gerados por elas ocasionam sobre a qualidade da energia elétrica. Considerando este novo cenário, esta tese tem como objetivo geral desenvolver uma ferramenta computacional utilizando técnicas de inteligência computacional apoiada em algoritmos genéticos (AG), para a otimização multiobjetivo da compensação da potência reativa em redes elétricas de distribuição capaz de localizar e dimensionar de forma ótima as unidades de compensação necessárias para obter os melhores benefícios econômicos e a manutenção dos índices de qualidade da energia estabelecidos pelas normas brasileiras. Como Inovação Tecnológica do trabalho a ferramenta computacional desenvolvida permite otimizar a compensação da potência reativa para melhorar do fator de potência em redes de distribuição contaminadas com harmônicos que, diferentemente de métodos anteriores, não só emprega bancos de capacitores, mas também filtros de harmônicos com esse objetivo. Utiliza-se o algoritmo NSGA-II, que determina as soluções ótimas de Pareto para o problema e permite ao especialista determinar as soluções mais efetivas. A proposta para a solução do problema apresenta várias inovações podendo-se destacar que a solução obtida permite determinar a compensação de potência reativa com capacitores em sistemas com certa penetração harmônica, atendendo a normas de qualidade de energia pertinentes, com relação aos níveis de distorção harmônica tolerados.