767 resultados para Algoritmo de optimización


Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]En la situación actual, en que las empresas han tenido que automatizar los procesos a nivel mundial para hacer frente a los nuevos retos de la competitividad, pone de manifiesto la necesidad de nuevas tecnologías para innovar y redefinir sus procesos. Este proyecto se centra en la aplicación de las nuevas tecnologías en un proceso de laminación en caliente para así a aumentar la capacidad de producción y la calidad de la empresa. Para ello, en primer lugar, se analiza la planta y el proceso a automatizar, se señalan los problemas y se procede a estudiar la solución más adecuada. Después de seleccionar la solución, se colocan sensores y actuadores a lo largo del proceso en función de los pasos a seguir por la fabricación. Con todo ello se ha diseñado una secuencia de control para que el proceso sea autónomo. Además, se diseña un algoritmo para controlar el arranque de los motores, reduciendo así el consumo de energía. En conclusión, se desea mejorar un viejo proceso de producción a través de la automatización y las nuevas tecnologías. Breve descripción del trabajo (cinco líneas). Esta descripción debe destacar los puntos más relevantes del trabajo: su objetivo principal, los métodos a emplear para su desarrollo y los resultados que se pretenden conseguir, o que se han conseguido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Se trata de diseñar, programar, fabricar y montar un manipulador paralelo de 5 pares de revolución, que sirva para el atrape y posterior desplazamiento de objetos pequeños en un área de trabajo determinado. Este proyecto se centra exclusivamente en el análisis cinemático, resistente y posterior optimización del diseño del mecanismo de barras del manipulador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[EU]Gradu amaierako lan honetan, baskulatzaile baten orejeten diseinua eta optimizazio erresistentea burutuko dira. Orejeta horien betebeharra, esekidura-triangeluaren eta baskulatzailearen arteko lotura izatea izango da. Diseinua eta optimizazio erresistentea garatzeko egin behar diren elementu finituen analisiak, PTC Creo Parametric softwarearen bidez gauzatuko dira. Proiektu honen abiapuntua, motostudent lehiaketako motozikleta baten baskulatzailea da. Honi aipatutako orejetak gehitu beharko zaizkio, eta horien optimizazio erresistentea lortu. Optimizazioa bilatzeko orejeten lehen bertsio bat diseinatuko da. Behin orejetak baskulatzaileari erantsita, elementu finituen analisiak burutuko dira orejeten bariazio geometriko desberdinekin. Analisi horien helburua, orejetek geometria optimoena izatea da, agertzen diren tentsioak neke-tentsio onargarria baino txikiagoak izanik.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Este Trabajo Fin de Grado consiste en el diseño de una herramienta gráfica para el desarrollo de prácticas de laboratorio basadas en el procesado de señales electrocardiográficas (ECG) para la asignatura de Procesado de Señales Biomédicas. El proyecto se concreta en la aplicación de la herramienta para tres prácticas de laboratorio diferentes basadas en ECG, las cuales tendrán objetivos y técnicas de procesado diferentes. El objetivo final es que los docentes y los estudiantes sean capaces de trabajar con señales de ECG, analizar sus principales características y comprender distintas técnicas y algoritmos de procesado típicas de este ámbito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Es]En este proyecto se analizan el diseño y la evaluación de dos métodos para la supresión de la interferencia generada por las compresiones torácicas proporcionadas por el dispositivo mecánico LUCAS, en el electrocardiograma (ECG) durante el masaje de resucitación cardiopulmonar. El objetivo es encontrar un método que elimine el artefacto generado en el ECG de una manera efectiva, que permita el diagnóstico fiable del ritmo cardiaco. Encontrar un método eficaz sería de gran ayuda para no tener que interrumpir el masaje de resucitación para el análisis correcto del ritmo cardiaco, lo que supondría un aumento en las probabilidades de resucitación. Para llevar a cabo el proyecto se ha generado una base de datos propia partiendo de registros de paradas cardiorrespiratorias extra-hospitalarias. Esta nueva base de datos contiene 410 cortes correspondientes a 86 pacientes, siendo todos los episodios de 30 segundos de duración y durante los cuales el paciente, recibe masaje cardiaco. Por otro lado, se ha desarrollado una interfaz gráfica para caracterizar los métodos de supresión del artefacto. Esta, muestra las señales del ECG, de impedancia torácica y del ECG tras eliminar el artefacto en tiempo. Mediante esta herramienta se han procesado los registros aplicando un filtro adaptativo y un filtro de coeficientes constantes. La evaluación de los métodos se ha realizado en base a la sensibilidad y especificidad del algoritmo de clasificación de ritmos con las señales ECG filtradas. La mayor aportación del proyecto, por tanto, es el desarrollo de una potente herramienta eficaz para evaluar métodos de supresión del artefacto causado en el ECG por las compresiones torácicas al realizar el masaje de resucitación cardiopulmonar, y su posterior diagnóstico. Un instrumento que puede ser implementado para analizar episodios de resucitación de cualquier tipo de procedencia y capaz de integrar nuevos métodos de supresión del artefacto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[EN]Hyperventilation, which is common both in-hospital and out-of-hospital cardiac arrest, decreases coronary and cerebral perfusion contributing to poorer survival rates in both animals and humans. Current resucitation guidelines recommend continuous monitoring of exhaled carbon dioxide (CO2) during cardiopulmonary resucitation (CPR) and emphasize good quality of CPR, including ventilations at 8-10 min1. Most of commercial monitors/de- brilators incorporate methods to compute the respiratory rate based on capnography since it shows uctuations caused by ventilations. Chest compressions may induce artifacts in this signal making the calculation of the respiratory rate di cult. Nevertheless, the accuracy of these methods during CPR has not been documented yet. The aim of this project is to analyze whether the capnogram is reliable to compute ventilation rate during CPR. A total of 91 episodes, 63 out-of-hospital cardiac arrest episodes ( rst database) and 28 in-hospital cardiac arrest episodes (second database) were used to develop an algorithm to detect ventilations in the capnogram, and the nal aim is to provide an accurate ventilation rate for feedback purposes during CPR. Two graphic user interfaces were developed to make the analysis easier and another two were adapted to carry out this project. The use of this interfaces facilitates the managment of the databases and the calculation of the algorithm accuracy. In the rst database, as gold standard every ventilation was marked by visual inspection of both the impedance, which shows uctuations with every ventilation, and the capnography signal. In the second database, volume of the respiratory ow signal was used as gold standard to mark ventilation instants since it is not a ected by chest compressions. The capnogram was preprocessed to remove high frequency noise, and the rst di erence was computed to de ne the onset of inspiration and expiration. Then, morphological features were extracted and a decission algorithm built based on the extracted features to detect ventilation instants. Finally, ventilation rate was calculated using the detected instants of ventilation. According to the results obtained in this project, the capnogram can be reliably used to give feedback ventilation rate, and therefore, on hyperventilation in a resucitation scenario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos um estudo preliminar da produção difrativa de mésons utilizando dados obtidos da colisão próton-próton, a energias de centro de massa de 7 TeV, com o experimento CMS-LHC. O trabalho inclui o desenvolvimento do algoritmo de reconstrução dos mésons D* através do canal de decaimento D*->D0 + pion (lento) ->K+pion, a medida da eficiência de detecção e reconstrução, e uma análise do comportamento de variáveis cinemáticas na produção difrativa dessas partículas, particularmente, das lacunas de rapidez. Para isso, foi utilizada uma luminosidade integrada de 3,171pb^(-1) de dados coletados no ano de 2010. As análises com os dados experimentais foram comparadas com os resultados obtidos com geradores de Monte Carlo PYTHIA6, PYTHIA8 e POMPYT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo es la creación de una plantilla para el análisis estadístico de los jugadores de futbol. Para el desarrollo y optimización de esa plantilla se ha llevado acabo un análisis con ella de los jugadores suplentes del Sestao River, equipo militante en la segunda división B española. Analizando 65 sujetos en 22 partidos de la temporada 2014/2015. Es una plantilla sencilla y de coste cero pensada para ser utilizada por equipos de futbol amateur y semiprofesional que no disponen de presupuesto suficiente para contar con un servicio de análisis de partidos. La búsqueda de esta sencillez también acarrea unos limites a esta herramienta, las variables analizados son todas acciones con balón porque son las mas fáciles de analizar a primera vista; también existe la limitación de que no se determina en que zona del campo, ni en que momento se desarrolla dicha acción. En cuanto a las limitaciones del análisis llevado a cabo en este trabajo, la principal es que al ser el primer trabajo llevado a cabo con esta plantilla existe una ausencia de datos con los que poder comparar los aquí obtenidos. Por lo tanto en este trabajo se ha realizado un análisis mas descriptivo que se espera en el futuro pueda ser empleado para comparar datos y sacar conclusiones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Realización de un proceso inicial para la optimización de un sistema de formatos de campo que en base a los niveles descriptivos adecuados permita la evaluación de las actividades acuáticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[CASTELLANO] Análisis sobre la viabilidad económico-financiera de un proyecto empresarial basado en la localización y seguimiento de vehículos para su posterior optimización de costes y ofrecimiento de garantías de seguridad, orientado tanto a la gestión de flotas como a particulares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES] La necesidad de gestionar y repartir eficazmente los recursos escasos entre las diferentes operaciones de las empresas, hacen que éstas recurran a aplicar técnicas de la Investigación de Operaciones. Éste es el caso de los centros de llamadas, un sector emergente y dinámico que se encuentra en constante desarrollo. En este sector, la administración del trabajo requiere de técnicas predictivas para determinar el número de trabajadores adecuado y así evitar en la medida de lo posible tanto el exceso como la escasez del mismo. Este trabajo se centrará en el estudio del centro de llamadas de emergencias 112 de Andalucía. Partiendo de los datos estadísticos del número medio de llamadas que se realiza en cada franja horaria, facilitados por la Junta de esta Comunidad Autónoma, formularemos y modelizaremos el problema aplicando la Programación Lineal. Posteriormente, lo resolveremos con dos programas de software, con la finalidad de obtener una distribución óptima de agentes que minimice el coste salarial, ya que supone un 65% del gasto de explotación total. Finalmente, mediante la teoría de colas, observaremos los tiempos de espera en cola y calcularemos el número objetivo de agentes que permita no sólo minimizar el coste salarial sino mejorar la calidad de servicio teniendo unos tiempos de espera razonables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]El presente trabajo es un estudio sobre un problema de optimización matemático. En él, recabamos información de la Optimización Matemática como tal, y se analizan los modelos de optimización más relevantes, además de plantear y resolver un caso práctico. Primero, distinguiremos dos ramas principales: los métodos clásicos, en donde destacamos las denominadas Optimización Lineal y No Lineal; y los métodos metaheurísticos. Además, clasificaremos y plantearemos los modelos matemáticos en función de la presencia o no de restricciones. En la segunda parte del trabajo, con la finalidad de encuadrar el caso práctico, hablaremos sobre el problema, común a muchas zonas fuertemente industrializadas, de eliminación de las aguas residuales: sus antecedentes, situación actual y nuevas tendencias. Por último, plantearemos un problema práctico en este campo, lo modelizaremos matemáticamente y lo resolveremos con la ayuda de la herramienta Excel Solver. Al final del trabajo, expondremos las conclusiones derivadas del análisis del problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Presente dissertação apresenta uma aplicação de Inteligência Computacional na área de Geotecnia, com a utilização da Técnica de Neuro-Fuzzy para indicar a suscetibilidade de escorregamento de taludes no município do Rio de Janeiro, a partir de inspeção visual. Neste trabalho, a suscetibilidade corresponde à possibilidade de ocorrência de escorregamento sem considerar os danos relacionados ao evento. Adotou-se como variável de saída a Previsão de Escorregamento (PE) com três adjetivos que correspondem a Suscetibilidades Alta, Média e Baixa. A metodologia utilizada consistiu em, inicialmente, montar um banco de dados com informações preliminares de análise de estabilidade, com a indicação dos condicionantes de escorregamento relacionados à geomorfologia, pluviosidade, capacidade de drenagem, vegetação e ocupação com seus respectivos graus de suscetibilidades de escorregamento obtidos em um conjunto de Laudos de Vistoria da Geo Rio. O banco de dados foi aplicado em um algoritmo de Neuro-Fuzzy. Diversos testes foram realizados com as alterações dos parâmetros do modelo Neuro-Fuzzy para uma combinação de fatores condicionantes de escorregamento e refinamento do banco de dados. Os testes apresentaram diminuição do erro fornecido pelo programa com o aumento de tipos de condicionantes utilizados no treinamento, o que permite inferir que o escorregamento ocorre por uma complexa relação entre diversos fatores condicionantes. O banco de dados utilizado nos testes apresenta descontinuidades nas relações entre os diversos condicionantes, ou seja, para uma mesma faixa de valores de Altura do talude, não é possível obter uma relação para todas as faixas de outro condicionante e, até mesmo, para todas as faixas da Previsão de Escorregamento. As PEs obtidas na validação do modelo tiveram seus valores próximos aos desejados somente nos conjuntos de variáveis utilizadas para o treinamento. O modelo não foi capaz de apresentar valores de suscetibilidades dentro da faixa de valores utilizados no treinamento para combinação de variáveis com pequenos ruídos, o que indica a necessidade de ampliação do banco de dados tanto quantitativamente quanto qualitativamente de modo a cobrir as descontinuidades apresentadas nas relações entre as variáveis.