91 resultados para Algoritmos de minimização
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).
Resumo:
Este trabalho apresenta uma arquitetura geral para evolução de circuitos eletrônicos analógicos baseada em algoritmos genéticos. A organização lógica privilegia a interoperabilidade de seus principais componentes, incluindo a possibilidade de substituição ou melhorias internas de suas funcionalidades. A plataforma implementada utiliza evolução extrínseca, isto é, baseada em simulação de circuitos, e visa facilidade e flexibilidade para experimentação. Ela viabiliza a interconexão de diversos componentes aos nós de um circuito eletrônico que será sintetizado ou adaptado. A técnica de Algoritmos Genéticos é usada para buscar a melhor forma de interconectar os componentes para implementar a função desejada. Esta versão da plataforma utiliza o ambiente MATLAB com um toolbox de Algoritmos Genéticos e o PSpice como simulador de circuitos. Os estudos de caso realizados apresentaram resultados que demonstram a potencialidade da plataforma no desenvolvimento de circuitos eletrônicos adaptativos.
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
Instituições de Ensino e Pesquisa possuem um papel fundamental na formação de seus profissionais considerando a ciência, tecnologia e o conhecimento que afetam toda a sociedade. A falta de um programa de gestão de resíduos, na maioria das instituições de ensino e pesquisa do país, tem levado, com certa frequência, a um descarte pouco responsável dos materiais residuais no ambiente, através das pias dos laboratórios ou do lixo comum, ou em muitos casos, resultando na geração de passivos ambientais acumulados precariamente por longo tempo à espera de um eventual tratamento. Entretanto, essas Instituições de Ensino Superior (IES), através de suas atividades de pesquisa, ensino e extensão, acabam gerando resíduos químicos perigosos, como os de laboratórios químicos. Nas Universidades, o volume de resíduos gerados é muito pequeno, porém a diversidade de resíduos é muito grande, o que dificulta o tratamento dos mesmos. Os resíduos químicos perigosos gerados no Instituto de Química situado no Pavilhão Reitor Haroldo Lisboa da Cunha da Universidade do Estado do Rio de Janeiro, necessitam de procedimentos seguros de manejo para a sua passivação e/ou disposição final, já que eles requerem um descarte distinto daquele dado ao lixo doméstico, conforme estabelecidos na legislação. Este trabalho objetiva estudar os aspectos de gestão, saúde e segurança do trabalho relacionado ao manejo de resíduos gerados em laboratórios químicos, potencialmente perigosos, enfocando ações preventivas de minimização dos resíduos e o seu tratamento, particularmente nas fontes geradoras, estudando o caso dos laboratórios de Química Geral e Inorgânica comparando-os com o laboratório de Engenharia e Tecnologia de Petróleo e Petroquímica. O trabalho classificou-se como pesquisa exploratória e empírica através do estudo de caso. A metodologia utilizada constituiu-se da aplicação de um questionário, dirigido aos técnicos dos laboratórios, e observações, para avaliação do manejo de resíduos químicos perigosos de forma a propor uma possível adequação dos laboratórios às legislações vigentes, como as resoluções NBR RDC 306/04, CONAMA 358/05, das Fichas de Informação de Segurança, das Normas Regulamentadoras e a OHSAS 18001/07. Os resultados obtidos demonstram que os dois laboratórios estudados de Química Geral e Inorgânica não atendem, ainda, o que preconiza a legislação RDC 306/04 da ANVISA. Observa-se que os resíduos químicos perigosos são manejados inadequadamente, expondo a graves riscos físicos, químicos e de acidentes para os usuários dos laboratórios, além da poluição ambiental gerado pelo lançamento dos efluentes nas redes de esgoto, sem tratamento. O estudo corrobora para a necessidade da implementação do Programa de Gerenciamento de Resíduos Químicos Perigosos, da criação de uma Coordenação de Gestão Ambiental presidida por um especialista da área, da construção de saídas de emergência, com escadas de escape externo para os laboratórios estudados e, sobretudo, de capacitação permanente dos funcionários e alunos.
Resumo:
A implantação de práticas de gestão ambiental nos canteiros de obras se tornou de fundamental importância para o setor da construção civil. Nas obras de edificação que visam obter a certificação LEED, são implementadas práticas que buscam a minimização e o reaproveitamento dos resíduos de construção civil, representando uma possibilidade de redução dos impactos ambientais produzidos pelo setor. Este trabalho apresenta um estudo comparativo sobre a geração de resíduos de quatro obras de edificações no município do Rio de Janeiro, sendo que duas delas implantaram práticas para obtenção da certificação LEED. Complementarmente, foi realizada uma pesquisa através de questionário com profissionais da construção civil buscando identificar a sua percepção sobre construções sustentáveis e gerenciamento de resíduos sólidos. Desconsiderando o solo de escavação, o entulho foi o resíduo mais gerado em todas as quatro obras, seguido pela sucata metálica, resíduos não recicláveis e madeira. A obra com certificação LEED apresentou o menor índice total de resíduos, 119,23 kg/m2, sendo este valor próximo às médias de países desenvolvidos.
Resumo:
O alto crescimento populacional tem desencadeado uma elevada ocupação das áreas urbanas com a expansão de edificações e estradas causando alterações no meio ambiente com a consequente minimização das áreas verdes e da infiltração de água no solo. Estes fenômenos acarretam problemas como enxurradas, inundações, aumento da temperatura local e diminuição da biodiversidade com inúmeros efeitos adversos, tanto econômicos quanto ambientais e sociais. Uma das alternativas para minimizar estes problemas é a construção de telhados verdes, que tem como uma das principais funções retardar o escoamento devido ao aumento da infiltração e retenção da água das chuvas atenuando o efeito avassalador das enchentes e das zonas de calor, principalmente em climas muito quentes, além de colaborar para recuperação de ecossistemas, através do replantio de mudas. Este projeto faz parte de um conjunto de ações integradas de cidadania e inclusão social na região hidrográfica da baixada de Jacarepaguá, especificamente envolvendo a Comunidade da Vila Cascatinha, em Vargem Grande, a fim de gerar subsídios para políticas públicas em áreas de assentamentos informais, integrado ao projeto HIDROCIDADES (CNPq, FAPERJ, FINEP), que visa a conservação da água em meios urbanos e periurbanos associado à cidadania, inclusão social e melhoria da qualidade de vida nas grandes cidades. Este trabalho utiliza uma tecnologia adaptada dos telhados verdes para edificação popular (telhado de fibrocimento) muito comum no Brasil, com o objetivo de verificar uma espécie com potencial de geração de renda (visando o social) de ecossistema regionais como restinga, em edificação; analisar o crescimento e biomassa da espécie de restinga cultivada em telhados; e avaliar qualidades das mídias em função do plantio em análise de armazenamento (retenção) de água no solo. A partir da metodologia empregada na implantação dos telhados verdes em habitações populares, os resultados obtidos são desenvolvimento da espécie Ipomoea pes caprae Brasiliensis, em três tipos de mídias de crescimento e também eficiência dessas mídias no escoamento superficial. Observou-se retenção de 69,24L de água para o bagaço de cana de açúcar e 64,7L para a fibra de coco. E foi observado também um retardo da ocorrência do pico de até 14 minutos no telhado vegetado em relação ao telhado controle (convencional).
Resumo:
Essa dissertação tem o objetivo de verificar a contribuição de diferentes abordagens para extração de linhas, à classificação de imagens multiespectrais, com o possível uso na discriminação e mapeamento de classes de cobertura da terra. Nesse contexto, é efetuada a comparação entre diferentes técnicas de extração de características para extração de linhas de transmissão em áreas rurais, a saber, técnicas de realce utilizando variação de contraste e filtragem morfológica, bem como detecção de bordas utilizando filtro Canny e detector SUSAN, citando como técnica de extração de linhas a Transformada de Hough e Transformada de Radon, utilizando diferentes algoritmos, em imagens aéreas e de sensoriamento remoto. O processo de análise de imagens, com diferentes abordagens leva a resultados variados em diferentes tipos de coberturas do solo. Tais resultados foram avaliados e comparados produzindo tabelas de eficiência para cada procedimento. Estas tabelas direcionam a diferentes encaminhamentos, que vão variar de abordagem dependendo do objetivo final da extração das Linhas de Transmissão.
Resumo:
Redes embutidas (NoC, Network-on-Chip) vêm sendo adotadas como uma solução interessante para o projeto de infraestruturas de comunicação em sistemas embutidos (SoC, System-on-Chip). Estas redes são em geral parametrizadas, podendo assim ser utilizadas em vários projetos de SoCs, cada qual com diferentes quantidades de núcleos. NoCs permitem uma escalabilidade dos sistemas, ao mesmo tempo que balanceiam a comunicação entre núcleos. Projetos baseados em NoC visam a implementação de uma aplicação específica. Neste contexto, ferramentas de auxílio de projeto são essenciais. Estas ferramentas são projetadas para, a partir de uma descrição simples da aplicação, realizar sucessivos processos de otimização que irão modelar as várias características do sistema. Estes algoritmos de otimização são necessários para que a rede atenda a um conjunto de restrições, como área, consumo de energia e tempo de execução. Dentre estas etapas, pode ser incluído o roteamento estático. As rotas através da rede por onde os núcleos irão se comunicar são otimizadas, de forma a minimizar o tempo de comunicação e os atrasos na transmissão de pacotes ocasionados por congestionamentos nas chaves que compõem a NoC. Nesta dissertação, foi utilizada a otimização por colônia de formigas no cálculo dos percursos. Esta é uma meta-heurística interessante para a solução de problemas de busca em grafos, inspirada no comportamento de formigas reais. Para os algoritmos propostos, múltiplas colônias são utilizadas, cada uma encarregada pela otimização do percurso de uma mensagem. Os diferentes testes realizados mostram o roteamento baseado no Elitist Ant System obtendo resultados superiores a outros algoritmos de roteamento.
Resumo:
Este trabalho apresenta um método para reconhecimento do padrão na biodisponibilidade do ferro, através da interação com substâncias que auxiliam a absorção como vitamina C e vitamina A e nutrientes inibidores como cálcio, fitato, oxalato, tanino e cafeína. Os dados foram obtidos através de inquérito alimentar, almoço e jantar, em crianças de 2 a 5 anos da única Creche Municipal de Paraty-RJ entre 2007 e 2008. A Análise de Componentes Principais (ACP) foi aplicada na seleção dos nutrientes e utilizou-se o Algoritmo Fuzzy C-Means (FCM) para criar os agrupamentos classificados de acordo com a biodisponibilidade do ferro. Uma análise de sensibilidade foi desenvolvida na tentativa de buscar quantidades limítrofes de cálcio a serem consumidas nas refeições. A ACP mostrou que no almoço os nutrientes que explicavam melhor a variabilidade do modelo foram ferro, vitamina C, fitato e oxalato, enquanto no jantar o cálcio se mostrou eficaz na determinação da variabilidade do modelo devido ao elevado consumo de leite e derivados. Para o almoço, a aplicação do FCM na interação dos nutrientes, notou-se que a ingestão de vitamina C foi determinante na classificação dos grupos. No jantar, a classificação de grupos foi determinada pela quantidade de ferro heme na interação com o cálcio. Na análise de sensibilidade realizada no almoço e no jantar, duas iterações do algoritmo determinaram a interferência total do cálcio na biodisponibilidade do ferro.
Resumo:
Este estudo tem como objeto de pesquisa as ações de cuidar da enfermeira na Estratégia de Saúde da Família (ESF) diante da vulnerabilidade feminina para o Vírus da Imunodeficiência Humana (HIV) considerando o contexto familiar. Discutir a vulnerabilidade para o HIV, ainda constitui um desafio social, principalmente considerando a mesma, a partir das relações de gênero existente em nossa sociedade no que diz respeito ao papel social e sexual de homens e mulheres no interior de suas famílias. Esta pesquisa tem como objetivos: descrever a percepção sobre o HIV no contexto familiar para a enfermeira da ESF; compreender a percepção da enfermeira da ESF sobre a vulnerabilidade feminina para o HIV no contexto familiar e analisar as ações de cuidar da enfermeira da ESF acerca da vulnerabilidade feminina. Trata-se de uma pesquisa exploratória com abordagem qualitativa, a qual teve como sujeitos da pesquisa onze enfermeiras que foram selecionadas e atuavam na ESF no ano 2012, na Área Programática 2.2 do município do Rio de Janeiro. A coleta de dados foi realizada através de entrevistas semi-estruturadas. A técnica de análise do conteúdo foi baseada em Bardin. Emergiram três categorias: a) Percepções das enfermeiras em relação ao HIV e o contexto de familiar; b) Percepções das enfermeiras em relação à vulnerabilidade feminina para o HIV; c) Ações de cuidar das enfermeiras relacionadas à vulnerabilidade feminina para o HIV considerando o contexto familiar. Constatamos que o HIV é para as enfermeiras, o determinante de uma doença grave, de difícil acompanhamento, que não tem cura, de caráter complexo e também como um agravo que impõe limites em relação a sobrevida. As enfermeiras pouco valorizam as questões de gênero e o contexto social sobre a condição de vulnerabilidade das mulheres, responsabilizando-as por sua contaminação. A prevenção do HIV é realizada em grande parte nas atividades de educação em saúde desenvolvidas pelas enfermeiras da ESF, entretanto ela não é abordada considerando especificamente cada contexto familiar e social da mulher. Os valores pessoais ainda interferem nas ações das enfermeiras, e o HIV é apontado como um agravo possuidor de estigmas tanto sociais quanto culturais. Considerando a ESF uma ação governamental que tem por objetivo a autonomia do sujeito, as mudanças de paradigmas em relação à saúde dos indivíduos, e importante aliada na minimização dos problemas de saúde pública como a vulnerabilidade para o HIV é necessário que as enfermeiras estejam mais sensibilizadas e capacitadas (educação permanente), nas questões sociais (gênero) especificas da população feminina, para que suas ações possam minimizar a vulnerabilidade ao HIV nessa população.
Resumo:
Nesta Tese desenvolvemos várias abordagens "Darbouxianas"para buscar integrais primeiras (elementares e Liouvillianas) de equações diferenciais ordinárias de segunda ordem (2EDOs) racionais. Os algoritmos (semi-algoritmos) que desenvolvemos seguem a linha do trabalho de Prelle e Singer. Basicamente, os métodos que buscam integrais primeiras elementares são uma extensão da técnica desenvolvida por Prelle e Singer para encontrar soluções elementares de equações diferenciais ordinárias de primeira ordem (1EDOs) racionais. O procedimento que lida com 2EDOs racionais que apresentam integrais primeiras Liouvillianas é baseado em uma extensão ao nosso método para encontrar soluções Liouvillianas de 1EDOs racionais. A ideia fundamental por tras do nosso trabalho consiste em que os fatores integrantes para 1-formas polinomiais geradas pela diferenciação de funções elementares e Liouvillianas são formados por certos polinômios denominados polinômios de Darboux. Vamos mostrar como combinar esses polinômios de Darboux para construir fatores integrantes e, de posse deles, determinar integrais primeiras. Vamos ainda discutir algumas implementações computacionais dos semi-algoritmos.
Resumo:
A previsão de valores futuros em séries temporais produzidas por sistemas caóticos pode ser aplicada em diversas áreas do conhecimento como Astronomia, Economia, Física, Medicina, Meteorologia e Oceanografia. O método empregado consiste na reconstrução do espaço de fase seguido de um termo de melhoria da previsão. As rotinas utilizadas para a previsão e análise nesta linha de pesquisa fazem parte do pacote TimeS, que apresenta resultados encorajadores nas suas aplicações. O aperfeiçoamento das rotinas computacionais do pacote com vistas à melhoria da acurácia obtida e à redução do tempo computacional é construído a partir da investigação criteriosa da minimização empregada na obtenção do mapa global. As bases matemáticas são estabelecidas e novas rotinas computacionais são criadas. São ampliadas as possibilidades de funções de ajuste que podem incluir termos transcendentais nos componentes dos vetores reconstruídos e também possuir termos lineares ou não lineares nos parâmetros de ajuste. O ganho de eficiência atingido permite a realização de previsões e análises que respondem a perguntas importantes relacionadas ao método de previsão e ampliam a possibilidade de aplicações a séries reais.
Resumo:
Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.
Resumo:
Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.