10 resultados para Heurísticas construtivas

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A ipseidade na ética argumentativa de Paul Ricoeur é a referência básica da hermenêutica do si ao qual sempre retorna. Ela estabelece a constante mediação reflexiva em oposição à pretensa posição imediata do sujeito. A mesmidade do si tem como contrapartida o outro. Na comparação, a mesmidade é sinônimo de identidade-idem em oposição à ipseidade-ipse que inclui a alteridade. Esta inclusão questiona a capacidade do si construtivo da ética e, portanto, responsável jurídica e moralmente nas várias injunções do outro. O projeto ético de Ricoeur é compreensível a partir e dentro de sua peculiar metodologia que ele denomina de dialética entre a ética teleológica e a moral deontológica. Esta dialética se fundamenta na tríade do desejo, do dever e da sabedoria prática em recíproca atividade, privilegiando a dimensão teleológica do desejo da vida boa com o outro e para o outro em instituições justas. A ética argumentativa tem a função de dar conteúdo as duas dialéticas pela inclusão do outro no si mesmo sem o qual a reflexão sobre a ipseidade perderia o sentido. A sabedoria prática da ética e do julgamento moral em situação inclui a discussão porque o conflito é insuperável e determina o argumento para o consenso eventual. Nossa tese é a afirmação da capacidade do si mesmo atuar ações construtivas. Além da critica à ideologia e à utopia, Ricoeur fundamenta a dialética entre o princípio-esperança e o princípio de responsabilidade mediante a via utópica do futuro e a via realista da preocupação com o presente diante dos casos inéditos em que a vida e o ecossistema se associam. A imputação pessoal e coletiva desde o passado, no presente para o futuro é devida à responsabilidade. A ipseidade constrói o futuro no presente através de decisões éticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese pretende contribuir para o desenvolvimento de respostas públicas rumo à diminuição do impacto do HIV/Aids nos campos, econômico, político e social tanto no nível coletivo quanto no individual. Discute aspectos téorico-conceituais das noções de risco e vulnerabilidade, mostrando que a atual aplicação e apropriação dessas noções na resposta à essa epidemia dificulta o reconhecimento dos problemas adicionais enfrentados após o diagnóstico. Apresenta as diversas formas de pobreza, desigualdade e exclusão a partir dos indicadores sociais comumente usados e respectivas lógicas construtivas. Questiona as afirmações recentes sobre a queda da desigualdade, da pobreza e da indigência no país; e considera que a desigualdade e a exclusão que afetam a população em geral é a mesma a afetar pessoas que vivem com HIV/Aids. Porém, aponta a existência de vulnerabilidade potencial, conceito desenvolvido nesta tese, na ausência de rede de suporte social. Para identificar e inferir sobre o que ocorre nas vidas das pessoas que vivem em situação de desigualdade ou exclusão após a infecção pelo HIV utiliza dados coletados em pesquisa de survey, discursos, estórias e memórias de casos reais da prática profissional desta autora. O objetivo desta tese é demonstrar que o conceito de vulnerabilidade aplicado após o diagnóstico é importante ferramenta para reconhecer e intervir sobre as dificuldades e problemas adicionais enfrentados. Ressalta a evolução da resposta brasileira à essa epidemia e demonstra as lacunas existentes como desafios a seu aperfeiçoamento. Conclui que o reconhecimento dos problemas adicionais após o diagnóstico e o uso do conceito de vulnerabilidade potencial abre novas possibilidades de enfrentamento do HIV/Aids e exige respostas públicas interligadas e intersetoriais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A captação de águas pluviais não constitui nova estratégia ou tecnologia. No entanto, recentemente tem sido proposta em regiões bem desenvolvidas ou em desenvolvimento (peri-urbanas) em resposta a grandes períodos de estiagens, aumento da demanda por água, maior conscientização pública das enchentes urbanas e sua gênese e, aumento do interesse em práticas de construções sustentáveis, que integram também o uso racional da água. As escolas constituem uma importante fundação da nação, e tem influência no desenvolvimento da sociedade e da sensibilização/ conscientização sobre as questões ambientais. Muitos dos usos da água nas escolas envolvem usos menos nobres da água. Neste contexto, nessa dissertação de mestrado além da análise de marcos legais nesse assunto, foi realizada pesquisa de opinião (entrevista e questionário) junto a atores que interferem no processo decisório da utilização das águas pluviais nas escolas para fins não potáveis. Foram observadas as condições físicas-construtivas das escolas do município do Rio de Janeiro, sobretudo na região da 7a. CRE, que abrange a região da Baixada de Jacarepaguá, área de expansão da cidade. Foi implementada uma unidade para coleta e caracterização da qualidade das águas pluviais, além da caracterização e estudo dos volumes de primeiro descarte (first flush). Os parâmetros de qualidade da água pH, T, OD, ORP, Tu, STD, Condutividade e Salinidade, foram observados com auxílio de sonda multiparâmetros e, através de análise laboratorial de acordo com o Standard Methods, os coliformes termotolerantes. No estudo de percepção foi verificada uma grande aceitação do aproveitamento de águas pluviais para fins não potáveis, embora diretores de escola tenham apresentado informações/percepção divergentes sobre consumo e contas de água das escolas, de sua coordenadoria. Na análise dos parâmetros de qualidade da água versus registros pluviométricos foi observada variabilidade nos eventos pluviométricos observados que limitaram a correlação entre os mesmos, e acabou limitando as conclusões dos estudos de volumes para primeira lavagem e descarte (first flush). Os resultados da pesquisa permitem recomendar a implementação de políticas públicas para aproveitamento de águas pluviais para fins não potáveis nas escolas, mas, com o devido apoio tecnológico. Recomenda-se o aperfeiçoamento e automatização do sistema de coleta de águas pluviais para os estudos de first-flush e otimização dos volumes de descarte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Passarelas de pedestres mistas (aço-concreto) e de aço são frequentemente submetidas a ações dinâmicas de magnitude variável, devido à travessia de pedestres sobre a laje de concreto. Estas ações dinâmicas podem produzir vibrações excessivas e dependendo de sua magnitude e intensidade, estes efeitos adversos podem comprometer a confiabilidade e a resposta do sistema estrutural e, também, podem levar a uma redução da expectativa de vida útil da passarela. Por outro lado, a experiência e o conhecimento dos engenheiros estruturais em conjunto com o uso de novos materiais e tecnologias construtivas têm produzido projetos de passarelas mistas (aço-concreto) bastante arrojados. Uma consequência direta desta tendência de projeto é um aumento considerável das vibrações estruturais. Com base neste cenário, esta dissertação visa investigar o comportamento dinâmico de três passarelas de pedestres mistas (aço-concreto) localizadas no Rio de Janeiro, submetidas ao caminhar humano. Estes sistemas estruturais são constituídos por uma estrutura principal de aço e laje em concreto e são destinados à travessia de pedestres. Deste modo, foram desenvolvidos modelos numérico-computacionais, adotando-se as técnicas tradicionais de refinamento presentes em simulações do método de elementos finitos, com base no uso do software ANSYS. Estes modelos numéricos permitiram uma completa avaliação dinâmica das passarelas investigadas, especialmente em termos de conforto humano. As respostas dinâmicas foram obtidas em termos de acelerações de pico e comparadas com valores limites propostas por diversos autores e normas de projeto. Os valores de aceleração de pico e aceleração rms encontrados na presente investigação indicaram que as passarelas analisadas apresentaram problemas relacionados com o conforto humano. Assim sendo, considerando-se que foi detectado que estas estruturas poderiam atingir níveis elevados de vibração que possam vir a comprometer o conforto dos usuários, foi verificado que uma estratégia para o controle estrutural era necessária, a fim de reduzir as vibrações excessivas nas passarelas. Finalmente, uma investigação foi realizada com base em alternativas de controle estrutural objetivando atenuar vibrações excessivas, a partir do emprego de sistemas de atenuadores dinâmicos sintonizados (ADS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Visando minimizar os impactos causados pelas ações antrópicas sobre o meio ambiente, mais especificamente sobre os recursos hídricos, torna-se imprescindível a busca por fontes alternativas para suprir as crescentes demandas de água para os mais diversos fins. Medidas como o reuso da água e a captação e aproveitamento de água das chuvas são fundamentais no contexto atual de busca por modelos sustentáveis de gestão dos recursos hídricos. No presente trabalho foi realizada extensa pesquisa bibliográfica sobre como o uso de telhados verdes pode contribuir para o uso racional da água potável e para a redução da ocorrência de enchentes. A área de estudo em questão foi Ilha Grande, localizada no litoral sul do Estado do Rio de Janeiro, uma Área de Preservação Permanente que, dentre outras Unidades de Conservação da Natureza, abriga o Parque Estadual de Ilha Grande. Para se analisar a viabilidade de implantação de um telhado verde na região, mais especificamente na Vila Dois Rios (23o11S, 44o12W), foi realizado o levantamento das séries históricas de chuvas da última década na região. Espécies vegetais compatíveis para uso em telhado verde foram encontradas na Ilha e, além disso, foram identificadas as premissas construtivas e operacionais relevantes. Para promover a conscientização dos visitantes e moradores locais foi elaborada uma cartilha informativa ilustrativa. Por fim, concluiu-se que existe a viabilidade de implantação de um telhado verde para captação e aproveitamento das águas das chuvas em Ilha Grande.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os recentes desastres ocorridos no país, como o rompimento da adutora em Campo Grande e os desastres relacionados às enchentes urbanas, mostram a necessidade de desenvolvimento de pesquisas científicas que auxiliem na compreensão e no dimensionamento das estruturas projetadas para atender a demanda da população. Os métodos analíticos e experimentais mais utilizados possuem algumas limitações de ordem teórica ou prática. Por outro lado, os métodos numéricos, capazes de simular etapas construtivas e envolver materiais com diferentes modelos constitutivos numa mesma análise, buscam atender às necessidades práticas dos projetos de geotecnia e, ao mesmo tempo, complementam os modelos analíticos e experimentais. Nesse trabalho foram realizadas comparações entre resultados obtidos em ensaios experimentais e resultados extraídos do modelo computacional, buscando aumentar a compreensão sobre a interação solo-estrutura em relação à distribuição de tensões mobilizadas e aos deslocamentos e deformações provocados. A simulação numérica foi feita com a utilização do PLAXIS/3D, software de análise geotécnica baseado no método dos elementos finitos. Os ensaios foram confeccionados na Escola de Engenharia de São Carlos/USP por Costa (2005) e envolveram dutos enterrados submetidos à perda de apoio ou elevação localizada. O estudo experimental foi realizado através de modelos físicos compostos por um maciço de areia pura, contendo um tubo repousando sobre um alçapão no centro do vão. Os modelos físicos foram equipados com instrumental capaz de medir as deflexões e as deformações específicas ao longo do duto, além das tensões totais no maciço de solo circundante e na base do equipamento.