767 resultados para Algoritmo de optimización
Resumo:
La asignatura Matemáticas II aporta los conocimientos básicos de Análisis y Optimización clásica que son necesarios en los estudios en Economía (L.E.) y Administración y Dirección de Empresas (L.A.D.E.). En éstas, como en las demás Matemáticas de ambas licenciaturas, se proporcionan al estudiante los conocimientos básicos, manteniendo un adecuado equilibrio conceptual/práctico. Esta publicación recoge los problemas planteados en los exámenes de Matemáticas II en las distintas convocatorias comprendidas entre los años 2006 y 2010.
Resumo:
El objeto del presente trabajo, titulado “Aplicación de redes neuronales artificiales para la caracterización del error en trayectorias circulares por WEDM”, es el estudio y posterior optimización del error en trayectorias circulares mecanizadas mediante electroerosión por hilo. Se pretende desarrollar un modelo predictivo de dicho error a través de la implementación de una Red Neuronal Artificial (RNA), que deberá ser alimentada con resultados empíricos resultantes de una batería de ensayos. El modelo desarrollado permitirá conocer a priori los errores que se producirán al cortar formas circulares en distintos espesores y con distintos radios sin necesidad de recurrir a costosas baterías de ensayos.
Resumo:
Este trabalho de pesquisa descreve três estudos de utilização de métodos quimiométricos para a classificação e caracterização de óleos comestíveis vegetais e seus parâmetros de qualidade através das técnicas de espectrometria de absorção molecular no infravermelho médio com transformada de Fourier e de espectrometria no infravermelho próximo, e o monitoramento da qualidade e estabilidade oxidativa do iogurte usando espectrometria de fluorescência molecular. O primeiro e segundo estudos visam à classificação e caracterização de parâmetros de qualidade de óleos comestíveis vegetais utilizando espectrometria no infravermelho médio com transformada de Fourier (FT-MIR) e no infravermelho próximo (NIR). O algoritmo de Kennard-Stone foi usado para a seleção do conjunto de validação após análise de componentes principais (PCA). A discriminação entre os óleos de canola, girassol, milho e soja foi investigada usando SVM-DA, SIMCA e PLS-DA. A predição dos parâmetros de qualidade, índice de refração e densidade relativa dos óleos, foi investigada usando os métodos de calibração multivariada dos mínimos quadrados parciais (PLS), iPLS e SVM para os dados de FT-MIR e NIR. Vários tipos de pré-processamentos, primeira derivada, correção do sinal multiplicativo (MSC), dados centrados na média, correção do sinal ortogonal (OSC) e variação normal padrão (SNV) foram utilizados, usando a raiz quadrada do erro médio quadrático de validação cruzada (RMSECV) e de predição (RMSEP) como parâmetros de avaliação. A metodologia desenvolvida para determinação de índice de refração e densidade relativa e classificação dos óleos vegetais é rápida e direta. O terceiro estudo visa à avaliação da estabilidade oxidativa e qualidade do iogurte armazenado a 4C submetido à luz direta e mantido no escuro, usando a análise dos fatores paralelos (PARAFAC) na luminescência exibida por três fluoróforos presentes no iogurte, onde pelo menos um deles está fortemente relacionado com as condições de armazenamento. O sinal fluorescente foi identificado pelo espectro de emissão e excitação das substâncias fluorescentes puras, que foram sugeridas serem vitamina A, triptofano e riboflavina. Modelos de regressão baseados nos escores do PARAFAC para a riboflavina foram desenvolvidos usando os escores obtidos no primeiro dia como variável dependente e os escores obtidos durante o armazenamento como variável independente. Foi visível o decaimento da curva analítica com o decurso do tempo da experimentação. Portanto, o teor de riboflavina pode ser considerado um bom indicador para a estabilidade do iogurte. Assim, é possível concluir que a espectroscopia de fluorescência combinada com métodos quimiométricos é um método rápido para monitorar a estabilidade oxidativa e a qualidade do iogurte
Resumo:
221 p.
Resumo:
138 p.
Resumo:
221 p.
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
Os métodos espectrais são ferramentas úteis na análise de dados, sendo capazes de fornecer informações sobre a estrutura organizacional de dados. O agrupamento de dados utilizando métodos espectrais é comumente baseado em relações de similaridade definida entre os dados. O objetivo deste trabalho é estudar a capacidade de agrupamento de métodos espectrais e seu comportamento, em casos limites. Considera-se um conjunto de pontos no plano e usa-se a similaridade entre os nós como sendo o inverso da distância Euclidiana. Analisa-se a qual distância mínima, entre dois pontos centrais, o agrupamento espectral é capaz de reagrupar os dados em dois grupos distintos. Acessoriamente, estuda-se a capacidade de reagrupamento caso a dispersão entre os dados seja aumentada. Inicialmente foram realizados experimentos considerando uma distância fixa entre dois pontos, a partir dos quais os dados são gerados e, então, reduziu-se a distância entre estes pontos até que o método se tornasse incapaz de efetuar a separação dos pontos em dois grupos distintos. Em seguida, retomada a distância inicial, os dados foram gerados a partir da adição de uma perturbação normal, com variância crescente, e observou-se até que valor de variância o método fez a separação dos dados em dois grupos distintos de forma correta. A partir de um conjunto de pontos obtidos com a execução do algoritmo de evolução diferencial, para resolver um problema multimodal, testa-se a capacidade do método em separar os indivíduos em grupos diferentes.
Resumo:
A lo largo de este Proyecto de Fin de Carrera se ha implementado una versión paralela mediante OpenMP de una aproximación al algoritmo de seg- mentación de imágenes level set. El fin de esta segmentación es la extracción de ciertas características de las imágenes necesarias para el cliente con el que se trabaja a lo largo de este proyecto. Además, se ha realizado un estudio previo de los tipos de técnicas de segmentación existentes y se han realizado pruebas experimentales con la paralelización realizada, con el fin de analizar la mejora realizada frente al algoritmo en serie.
Resumo:
170 p.
Resumo:
250 p. + anexos
Resumo:
Kolisiotik gertuko egoera bat dugunean, N-gorputzen ekuazio diferentzialen singularitateek zenbakizko integrazioaren kalkuluen doitasun galera eta konputazio denbora handitzea eragiten dituzte. Ekuazio transformazioaren bidez singularitateak ezabatzeko teknikari erregularizazioa deritzen zaio. Lehen zatian, erregularizazio teknika deskribatu eta Taylor integrazio metodoan ikertuko dugu. Bigarren zatian, Urabe metodoan oinarritutako soluzio periodikoen jarraipen algoritmo berri bat inplementatuko dugu. Erregularizazioa soluzio periodikoen jarraipenean ikertu eta gure inplementazioa AUTO softwarearekin konparatuko dugu.
Resumo:
El proyecto realizado se basa la puesta en marcha de distintos procedimientos quimiométricos aplicados al control de los lubricantes presentes en sistemas de propulsión, para dos ensayos muy demandados por la importancia de las decisiones relacionadas con su análisis, el contenido de insolubles y el BN. Los sistemas de mantenimiento industrial se pueden dividir en varias etapas bajo la denominación de primera, segunda y tercera generación. La primera generación respondía a “reparar” en caso de avería. Una segunda generación se enfocaba a las “revisiones cíclicas” y una tercera generación iba enfocada al “análisis de las causas” y los efectos de los fallos. Es en esta tercera generación en donde tuvo el punto de arranque mi proyecto, habiendo enfocado mi atención en “optimizar el análisis de las causas” en función de la adaptación de las técnicas analíticas al siglo XXI. La herramienta usada para la puesta en marcha y la optimización de métodos alternativos a las normas usadas en el control y seguimiento de los lubricantes marinos en motores diesel para el análisis del contenido de insolubles y para la determinación del BN es la quimiometría, es decir, modelos matemáticos desarrollados a través de programas informáticos. Para el análisis de las muestras y la obtención de los modelos se ha utilizado la espectroscopía infrarroja mediante FTIR.
Resumo:
[ES]En este TFG se obtendrá un algoritmo de generación de trayectorias para el cuadricóptero AR-Drone capaz de conseguir trazados lo más rápidos posibles teniendo en cuenta la dinámica del modelo y las limitaciones del entorno. Así mismo se propondrá un control primitivo para la detección de obstáculos. Mediante las comunicaciones con el cuadricóptero y el control de los parámetros característicos del medio, se establecerá usando el lenguaje C# los bucles de programación necesarios para discriminar todas las trayectorias desfavorables y obtener una que se adecue a nuestros criterios.
Resumo:
[ES]En las últimas décadas, la optimización de las instalaciones eléctricas se ha convertido en una de las prioridades más importantes de las empresas. En este sentido, la corrección del factor de potencia supone un importante tema a analizar y resolver. Hoy en día, se dispone de muchos métodos de compensación, pero en la mayoría de los casos, la implementación de baterías de condensadores resulta la mejor opción. Por otra parte, dependiendo de la distribución elegida en la instalación de los condensadores, se consiguen ciertas ventajas y desventajas en cuanto a componentes reactivas en el sistema eléctrico y costes finales de la compensación se refiere. Además del desarrollo teórico, se dispondrá de simulaciones realizadas en herramientas de cálculo que ayudarán a la comprobación de estas ideas.