995 resultados para Hiker Dice. Algoritmo Exato. Algoritmos Heurísticos
Resumo:
A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.
Resumo:
El objetivo de este trabajo es proporcionar un marco general y teórico para la personalización de rutas en sistemas de turismo y ocio. Además, se verán técnicas que utilizan Realidad Aumentada para mejorar la experiencia del usuario que recorra esas rutas. Para ello, se introducirán los conceptos necesarios de teoría de grafos, así como los algoritmos para recorrerlos. Posteriormente, describiremos el problema de personalización de rutas para individuos y grupos, proponiendo tres enfoques distintos para su resolución: utilizando el algoritmo A*, el algoritmo voraz, y el razonamiento basado en casos respectivamente. Además, se realizará un análisis sobre Realidad Aumentada, explicando los distintos dispositivos y técnicas que se utilizan en ella. Con el objetivo de ver un ejemplo del marco general definido en este trabajo, estudiaremos dos casos en los que aplicaremos los algoritmos de personalización y técnicas de Realidad Aumentada explicadas anteriormente. Dichos casos de uso estarán centrados en el Museo de Informática García Santesmases y en el ámbito del turismo en Madrid.
Resumo:
Large scale disasters, such as the one caused by the Typhoon Haiyan, which devastated portions of the Philippines in 2013, or the catastrophic 2010 Haiti earthquake, which caused major damage in Port-au-Prince and other settlements in the region, have massive and lasting effects on populations. Nowadays, disasters can be considered as a consequence of inappropriately managed risk. These risks are the product of hazards and vulnerability, which refers to the extent to which a community can be affected by the impact of a hazard. In this way, developing countries, due to their greater vulnerability, suffer the highest costs when a disaster occurs. Disaster relief is a challenge for politics, economies, and societies worldwide. Humanitarian organizations face multiple decision problems when responding to disasters. In particular, once a disaster strikes, the distribution of humanitarian aid to the population affected is one of the most fundamental operations in what is called humanitarian logistics. This term is defined as the process of planning, implementing and controlling the effcient, cost-effective ow and storage of goods and materials as well as related information, from the point of origin to the point of consumption, for the purpose of meeting the end bene- ciaries' requirements and alleviate the suffering of vulnerable people, [the Humanitarian Logistics Conference, 2004 (Fritz Institute)]. During the last decade there has been an increasing interest in the OR/MS community in studying this topic, pointing out the similarities and differences between humanitarian and business logistics, and developing models suited to handle the special characteristics of these problems. Several authors have pointed out that traditional logistic objectives, such as minimizing operation cost, are not the most relevant goals in humanitarian operations. Other factors, such as the time of operation, or the design of safe and equitable distribution plans, come to the front, and new models and algorithms are needed to cope with these special features. Up to six attributes related to the distribution plan are considered in our multi-criteria approach. Even though there are usually simple ways to measure the cost of an operation, the evaluation of some other attributes such as security or equity is not easy. As a result, several attribute measures are proposed and developed, focusing on different aspects of the solutions. Furthermore, when metaheuristic solution methods are used, considering non linear objective functions does not increase the complexity of the algorithms significantly, and thus more accurate measures can be utilized...
Resumo:
Nesta dissertação apresentamos um trabalho de desenvolvimento e utilização de pulsos de radiofreqüência modulados simultaneamente em freqüência, amplitude e fase (pulsos fortemente modulados, SMP, do inglês Strongly Modulated Pulses) para criar estados iniciais e executar operações unitárias que servem como blocos básicos para processamento da informação quântica utilizando Ressonância Magnética Nuclear (RMN). As implementações experimentais foram realizas em um sistema de 3 q-bits constituído por spins nucleares de Césio 133 (spin nuclear 7/2) em uma amostra de cristal líquido em fase nemática. Os pulsos SMP´s foram construídos teoricamente utilizando um programa especialmente desenvolvido para esse fim, sendo o mesmo baseado no processo de otimização numérica Simplex Nelder-Mead. Através deste programa, os pulsos SMP foram otimizados de modo a executarem as operações lógicas desejadas com durações consideravelmente menores que aquelas realizadas usando o procedimento usual de RMN, ou seja, seqüências de pulsos e evoluções livres. Isso tem a vantagem de reduzir os efeitos de descoerência decorrentes da relaxação do sistema. Os conceitos teóricos envolvidos na criação dos SMPs são apresentados e as principais dificuldades (experimentais e teóricas) que podem surgir devido ao uso desses procedimentos são discutidas. Como exemplos de aplicação, foram produzidos os estados pseudo-puros usados como estados iniciais de operações lógicas em RMN, bem como operações lógicas que foram posteriormente aplicadas aos mesmos. Utilizando os SMP\'s também foi possível realizar experimentalmente os algoritmos quânticos de Grover e Deutsch-Jozsa para 3 q-bits. A fidelidade das implementações experimentais foi determinadas utilizando as matrizes densidade experimentais obtidas utilizando um método de tomografia da matriz densidade previamente desenvolvido.
Resumo:
Esta dissertação apresenta um trabalho sobre codificação de vídeo 3D compatível com vídeo 2D. Tem por base o desenvolvimento de um método para melhorar, no descodificador, a reconstrução de uma vista subamostrada resultante de uma transmissão simulcast usando a norma de codificação de vídeo H.265 (informalmente denominada de High Efficiency Video Coding (HEVC)). Apesar de manter a compatibilidade com vídeo 2D a transmissão simulcast normalmente requer uma taxa de transmissão elevada. Na ausência de ferramentas de codificação 3D adequadas é possível reduzir a taxa de transmissão utilizando compressão assimétrica do vídeo, onde a vista base é codificada com a resolução espacial original, enquanto que a vista auxiliar é codificada com uma resolução espacial menor, sendo sobreamostrada no descodificador. O método desenvolvido visa melhorar a vista auxiliar sobreamostrada no descodificador utilizando informação dos detalhes da vista base, ou seja, as componentes de alta frequência. Este processo depende de transformadas Afim para realizar um mapeamento geométrico entre a informação de alta frequência da vista base de resolução completa e a vista auxiliar de menor resolução. Adicionalmente, de modo a manter a continuidade do conteúdo da imagem entre regiões, evitando artefatos de blocos, o mapeamento utiliza uma malha de triangulação da vista auxiliar aplicado à imagem de detalhes obtida a partir da vista base. A técnica proposta é comparada com um método de estimação de disparidade por correspondência de blocos, sendo que os resultados mostram que para algumas sequências a técnica desenvolvida melhora não só a qualidade objetiva (PSNR) até 2.2 dB, mas também a qualidade subjetiva, para a mesma taxa de compressão global.
Resumo:
Hoje em dia, a área de codificação de dados é transversal a diversos tipos de engenharias devido à sua grande importância. Com o aumento exponencial na criação de dados digitais, o campo da compressão de dados ganhou uma grande visibilidade nesta área. São constantemente desenvolvidos e melhorados algoritmos de compressão por forma a obter a maior compressão de dados possível seja com ou sem perda de dados, permitindo sustentar o rápido e constante crescimento dos mesmos. Um dos grandes problemas deste tipo de algoritmos deve-se ao grande poder computacional que por vezes é necessário para obter uma boa taxa de compressão mantendo a qualidade dos dados quando descompactados. Este documento descreve uma estratégia para tentar reduzir o impacto do poder computacional necessário à codificação de imagens utilizando uma implementação heterogénea. O objetivo é tentar efetuar a paralelização das secções que requerem elevado poder computacional reduzindo assim o tempo necessário à compressão de dados. Este documento baseia-se na implementação desta estratégia para o algoritmo de codificação de imagens MMP-Intra. Utilizando inicialmente uma análise teórica, demonstramos que é viável efetuar a paralelização do algoritmo, sendo possível obter elevados ganhos de desempenho. Por forma a provar que o algoritmo MMP-Intra era paralelizavel e identificar os ganhos reais foi desenvolvido um protótipo inicial, o qual obteve um desempenho muito inferiore ao do algoritmo original, necessitando de muito mais tempo para obter os mesmo resultados. Utilizando um processo de otimização iterativo o protótipo passou por várias etapas de refinação. O protótipo refinado final obteve resultados muito superiores ao algoritmo sequencial no qual o mesmo foi baseado chegando a obter desempenhos quatro vezes superior ao original.
Resumo:
Esta dissertação apresenta o trabalho sobre sincronização de receção para sistemas OFDM. Tendo como objetivo a integração da arquitetura desenvolvida no projeto de investigação \CROWN - Co-operative Radio over Fibre for Wireless Networks" atualmente em curso no Instituto de Telecomunicações. Esta arquitetura de receção foi implementada numa plataforma de desenvolvimento baseada em dispositivos programáveis FPGA, recorrendo as ferramentas de desenvolvimento MatLab, System Generator e ISE. O sistema implementado tem a particularidade de ter um princípio de funcionamento assíncrono e recorre aos algoritmos de Van de Beek [1] e Carlos Ribeiro [2] para proceder a estimação e consequente sincronização. Ambos os algoritmos foram utilizados para estimação do CFO, tendo o algoritmo de Van de Beek sido também utilizado para estimação do início de trama. Foram realizadas análises do desempenho do sistema para diferentes condições, sendo o objectivo de analisar o desempenho dos estimadores implementados. A performance foi então analisada de acordo com BER resultante e do erro de estimação do início de trama e do valor do CFO. Para além da análise individual dos resultados, e também feita uma comparação da precisão de ambos os estimadores.
Resumo:
La tesi presenta un'attività di ottimizzazione per forme di dirigibili non convenzionali al fine di esaltarne alcune prestazioni. Il loop di ottimizzazione implementato comporta il disegno automatico in ambiente CAD del dirigibile, il salvataggio in formato STL, la elaborazione del modello al fine di ridurre il numero di triangoli della mesh, la valutazione delle masse aggiunte della configurazione, la stima approssimata dell'aerodinamica del dirigibile, ed infine il calcolo della prestazione di interesse. Questa tesi presenta inoltre la descrizione di un codice di ottimizzazione euristica (Particle Swarm Optimization) che viene messo in loop con il precedente ciclo di calcolo, e un caso di studio per dimostrare la funzionalità della metodologia.
Resumo:
A predição de links em redes sociais tem sido objeto de estudo em um crescente número de artigos científicos e comerciais devido à grande oferta de bases de dados com representações das relações entre pessoas e também devido à facilidade de acesso a recursos computacionais para análise dessas redes. Prever conexões em redes sociais acadêmicas contribui para o crescimento científico, facilitando a colaboração entre pesquisadores com potencial de contribuição mútua. Este trabalho busca identificar as características das redes levam a uma maior eficiência na predição de links feita por algoritmos baseados na topologia. As características serão isoladas conjuntos de dados e alguns experimentos serão repetidos com diferentes algoritmos para buscar identificar tendências. As análises feitas neste trabalho poderão ajudar a compreender melhor a dinâmica das redes sociais acadêmicas e também contribuir na escolha dos melhores algoritmos de predição de link para cada tipo de rede social.
Resumo:
Dada la importancia que hoy día presenta dentro del ámbito de la óptica, la implementación y conocimiento de dispositivos capaces tanto de generar aberraciones ópticas bien caracterizadas como de censarlas, se presenta a lo largo de este trabajo el desarrollo de una interfaz gráfica en MATLAB, que permita simular el funcionamiento tanto de un sensor de frente de onda de Hartamnn-Shack (HS), así como la simulación de dispositivos capaces de modificar frentes de onda como los SLM, adicionando algoritmos de propagación y cálculo de centroides -- Para ello, se implementarán en primer lugar máscaras de fase que generen frentes de onda aberrados a partir de la modulación en fase de moduladores espaciales de luz o SLM, tanto a través de funciones lente de primer orden en representación de las aberraciones constantes, como de fase cuadrática en representación de las aberraciones de bajo orden y adicionalmente como combinaciones lineales de polinomios de Zernike -- Todo lo anterior se simulará teniendo en cuenta las características técnicas de los SLM, como lo son el número de pixeles en x y en y, el tamaño de estos y la curva de calibración de los moduladores espaciales, tanto para una relación lineal como para una relación no lineal -- Posteriormente se simularán las dos propagaciones sufridas por los haces de luz desde el SLM hasta el CCD (dispositivo de carga acoplada), pasando a través de la matriz de multilentes del HS (MLA), a partir de la implementación de algoritmos de propagación de un solo paso, que nos permitirán observar sobre el plano del CDD el mapa de spots necesario para el censado de las superficies -- Continuaremos con la construcción de algoritmos para determinar los centroides de dicho mapa y sus respectivas coordenadas, seguiremos con la implementación de algoritmos de reconstrucción modal empleados por sensores de frente de onda de Hartmann-Shack, y finalmente compararemos el grado de error existente entre las superficies generadas y las superficies censadas a través del cálculo de su error cuadrático medio
Resumo:
En este artículo presentamos un algoritmo híbrido para una variante del problema de la siguiente versión (NRP). En esta variante existe un conjunto de requisitos para los que se dispone de una estimación del esfuerzo necesario para su implementación y de la satisfacción percibida por los potenciales clientes con la inclusión de dichos requisitos. Entre estos requisitos existen relaciones de interdependencia, que establecen a ciertos requisitos como prerequisitos de otros, o que obligan a implementar determinados requisitos simultáneamente en caso de incluirse alguno de ellos en la siguiente versión del producto a desarrollar. Dado un límite superior de esfuerzo prefijado, el objetivo es seleccionar un subconjunto de requisitos que cumpla todas las restricciones y maximice la satisfacción global de los clientes. La propuesta combina heurísticas con técnicas exactas para una versión simplificada del problema. El rendimiento del algoritmo resultante en distintos escenarios realistas se compara con el de otras técnicas metaheurísticas previamente empleadas
O problema de alocação de berços: um estudo das heurísticas simulated annealing e algoritmo genético
Resumo:
Este trabalho apresenta um estudo de caso das heurísticas Simulated Annealing e Algoritmo Genético para um problema de grande relevância encontrado no sistema portuário, o Problema de Alocação em Berços. Esse problema aborda a programação e a alocação de navios às áreas de atracação ao longo de um cais. A modelagem utilizada nesta pesquisa é apresentada por Mauri (2008) [28] que trata do problema como uma Problema de Roteamento de Veículos com Múltiplas Garagens e sem Janelas de Tempo. Foi desenvolvido um ambiente apropriado para testes de simulação, onde o cenário de análise foi constituido a partir de situações reais encontradas na programação de navios de um terminal de contêineres. Os testes computacionais realizados mostram a performance das heurísticas em relação a função objetivo e o tempo computacional, a m de avaliar qual das técnicas apresenta melhores resultados.
Resumo:
O problema de planejamento de rotas de robôs móveis consiste em determinar a melhor rota para um robô, em um ambiente estático e/ou dinâmico, que seja capaz de deslocá-lo de um ponto inicial até e um ponto final, também em conhecido como estado objetivo. O presente trabalho emprega o uso de uma abordagem baseada em Algoritmos Genéticos para o planejamento de rotas de múltiplos robôs em um ambiente complexo composto por obstáculos fixos e obstáculos moveis. Através da implementação do modelo no software do NetLogo, uma ferramenta utilizada em simulações de aplicações multiagentes, possibilitou-se a modelagem de robôs e obstáculos presentes no ambiente como agentes interativos, viabilizando assim o desenvolvimento de processos de detecção e desvio de obstáculos. A abordagem empregada busca pela melhor rota para robôs e apresenta um modelo composto pelos operadores básicos de reprodução e mutação, acrescido de um novo operador duplo de refinamento capaz de aperfeiçoar as melhores soluções encontradas através da eliminação de movimentos inúteis. Além disso, o calculo da rota de cada robô adota um método de geração de subtrechos, ou seja, não calcula apenas uma unica rota que conecta os pontos inicial e final do cenário, mas sim várias pequenas subrotas que conectadas formam um caminho único capaz de levar o robô ao estado objetivo. Neste trabalho foram desenvolvidos dois cenários, para avaliação da sua escalabilidade: o primeiro consiste em um cenário simples composto apenas por um robô, um obstáculo movel e alguns obstáculos fixos; já o segundo, apresenta um cenário mais robusto, mais amplo, composto por múltiplos robôs e diversos obstáculos fixos e moveis. Ao final, testes de desempenho comparativos foram efetuados entre a abordagem baseada em Algoritmos Genéticos e o Algoritmo A*. Como critério de comparação foi utilizado o tamanho das rotas obtidas nas vinte simulações executadas em cada abordagem. A analise dos resultados foi especificada através do Teste t de Student.
Resumo:
En este artículo se presentan los mecanismos y procesos necesarios que realizan los enrutadores para ofrecer calidad de servicio en redes de paquetes y se hace especial énfasis en el estudio del estado del arte en lo referente a los algoritmos de planificación utilizados en este tipo de redes.
Resumo:
Investigación clínica descrptiva para determinar cuáles son las principales características clínicas e inmunológicas que se presentan en pacientes diagnosticados de Lupus Eritematoso Sistémico (LES)en los hospitales: Vicente Corral Moscoso y José Carrasco Arteaga, áreas de medicina interna y reumatología, en el período comprendido entre octubre de 1993 a octubre de 2003, a quiénes se les aplica un formulario (Anexo Nª 1), el que contiene información acerca de datos de filiación epidemiológicos antecedentes patológicos y los Criterios para el diagnóstico de LES según la Asociación Americana de Reumatoloría (ARA) 1982. Resultados: 96 pacientes con diagnóstico de LES; el 34.4sexo femenino, y el 15.6sexo masculino, manteniendo una relación mujer-hombre de 5.4 a 1, la edad de presentación más frecuente estuvo entre los 20 a 29 años, la ocupación principal de este grupo fueron los quehaceres domésticos y el mayor porcentaje de pacientes procedían de la provincia del Azuay. Según los criterios diagnosticados de LES, (ARA 1982) del total de pacientes, el 78.1presentaron artritis, el 97-9anticuerpos (ANA) y complemento (C4) disminuido en el 82.3anemia hemolítica en el 12.5; proteinuria en 81.3; VSG acelerada en un 85depresión 50, y pleuritis en 31.3de los pacientes. La prevalencia hospitalaria del LES fue de 3.87X 1000 pacientes. Esta investigación reune el mayor número de pacientes diagnosticados de LES en el medio tomando como centros de referencia y concentración las dos principales casas de salud de la Provincia del Azuay, para pacientes de otras provincias principalmente a la provincia de El Oro y la provincia de Loja, constituyendo una base de datos sólida para investigaciones futuras, puesto que hasta el día de hoy no se disponían de estadísticas reales de esta enfermedad, y únicamente se regla a literaturas extranjeras. El estudio dice demostrar que cada día se detectan más casos de LES, porque se han mejorado las técnicas diagnosticadas y se conoce mejor la enfermedad, de esta investigación se logró establecer un algoritmo para el diagnóstico de LES, que traerá como consecuencia, la instauración rápida del tratamiento y obviamente un pronóstico aceptable