9 resultados para algoritmoak


Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]La fibrilación ventricular (VF) es el primer ritmo registrado en el 40\,\% de las muertes súbitas por paro cardiorrespiratorio extrahospitalario (PCRE). El único tratamiento eficaz para la FV es la desfibrilación mediante una descarga eléctrica. Fuera del hospital, la descarga se administra mediante un desfibrilador externo automático (DEA), que previamente analiza el electrocardiograma (ECG) del paciente y comprueba si presenta un ritmo desfibrilable. La supervivencia en un caso de PCRE depende fundamentalmente de dos factores: la desfibrilación temprana y la resucitación cardiopulmonar (RCP) temprana, que prolonga la FV y por lo tanto la oportunidad de desfibrilación. Para un correcto análisis del ritmo cardiaco es necesario interrumpir la RCP, ya que, debido a las compresiones torácicas, la RCP introduce artefactos en el ECG. Desafortunadamente, la interrupción de la RCP afecta negativamente al éxito en la desfibrilación. En 2003 se aprobó el uso del DEA en pacientes entre 1 y 8 años. Los DEA, que originalmente se diseñaron para pacientes adultos, deben discriminar de forma precisa las arritmias pediátricas para que su uso en niños sea seguro. Varios DEAs se han adaptado para uso pediátrico, bien demostrando la precisión de los algoritmos para adultos con arritmias pediátricas, o bien mediante algoritmos específicos para arritmias pediátricas. Esta tesis presenta un nuevo algoritmo DEA diseñado conjuntamente para pacientes adultos y pediátricos. El algoritmo se ha probado exhaustivamente en bases de datos acordes a los requisitos de la American Heart Association (AHA), y en registros de resucitación con y sin artefacto RCP. El trabajo comenzó con una larga fase experimental en la que se recopilaron y clasificaron retrospectivamente un total de 1090 ritmos pediátricos. Además, se revisó una base de arritmias de adultos y se añadieron 928 nuevos ritmos de adultos. La base de datos final contiene 2782 registros, 1270 se usaron para diseñar el algoritmo y 1512 para validarlo. A continuación, se diseñó un nuevo algoritmo DEA compuesto de cuatro subalgoritmos. Estos subalgoritmos están basados en un conjunto de nuevos parámetros para la detección de arritmias, calculados en diversos dominios de la señal, como el tiempo, la frecuencia, la pendiente o la función de autocorrelación. El algoritmo cumple las exigencias de la AHA para la detección de ritmos desfibrilables y no-desfibrilables tanto en pacientes adultos como en pediátricos. El trabajo concluyó con el análisis del comportamiento del algoritmo con episodios reales de resucitación. En los ritmos que no contenían artefacto RCP se cumplieron las exigencias de la AHA. Posteriormente, se estudió la precisión del algoritmo durante las compresiones torácicas, antes y después de filtrar el artefacto RCP. Para suprimir el artefacto se utilizó un nuevo método desarrollado a lo largo de la tesis. Los ritmos desfibrilables se detectaron de forma precisa tras el filtrado, los no-desfibrilables sin embargo no.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Este proyecto investigador tiene como objetivo el ayudar con la calibración del mecanismo de cinco pares de rotación montado en el taller de Ingeniería Mecánica de la ETSI de Bilbao. En primer lugar se estudiarán los algoritmos de optimización prestando especial atención a la comparativa entre Levenberg-Marquart y Gauss-Newton. Se realizarán estudios en Matlab para concluir cuál de los dos es más eficaz tanto en rapidez como en precisión. El que sea más adecuado se implementará en un programa para la calibración del mecanismo 5R. En segundo lugar se estudiarán los índices de observabilidad. Los estudios que se han realizado sobre ellos hasta ahora son poco concluyentes asique se intentará aclarar su utilidad y determinar cuál es el que conviene utilizar en este caso. Para ello se deberá programar la resolución del problema cinemático inverso. Por último se presentarán los resultados y las conclusiones correspondientes. Se propondrá también un plan de desarrollo de una línea de investigación futura que partirá con este trabajo como base.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]En la situación actual, en que las empresas han tenido que automatizar los procesos a nivel mundial para hacer frente a los nuevos retos de la competitividad, pone de manifiesto la necesidad de nuevas tecnologías para innovar y redefinir sus procesos. Este proyecto se centra en la aplicación de las nuevas tecnologías en un proceso de laminación en caliente para así a aumentar la capacidad de producción y la calidad de la empresa. Para ello, en primer lugar, se analiza la planta y el proceso a automatizar, se señalan los problemas y se procede a estudiar la solución más adecuada. Después de seleccionar la solución, se colocan sensores y actuadores a lo largo del proceso en función de los pasos a seguir por la fabricación. Con todo ello se ha diseñado una secuencia de control para que el proceso sea autónomo. Además, se diseña un algoritmo para controlar el arranque de los motores, reduciendo así el consumo de energía. En conclusión, se desea mejorar un viejo proceso de producción a través de la automatización y las nuevas tecnologías. Breve descripción del trabajo (cinco líneas). Esta descripción debe destacar los puntos más relevantes del trabajo: su objetivo principal, los métodos a emplear para su desarrollo y los resultados que se pretenden conseguir, o que se han conseguido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[EU]Proiektu honen helburua sare ezberdinetan algoritmo metaheuristikoen erabileraren bitartez bideratze arazoak ebaztea eta aztertzea da. Helburu honetarako erabiliko diren algoritmoak Coral Reefs Optimization eta Firefly Algorithm dira. Bi algoritmoak Python erabiliz inplementatuko dira, baita sareak simulatzen dituen programa ere. Modu honetan, algoritmo bakoitzaren gaitasuna aztertuko da sareko bi punturen arteko bide bideragarri bat, zeinek ezarritako murrizketak betetzen dituen, aurkitzeko; prozesu hau ausaz sortutako simulatutako sare batean oinarrituz garatuko da. Honen bitartez, arazo honen ebazpenerako algoritmo bakoitza egokia den eta bietariko zein den egokiena ondorioztatu ahalko da.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Konputagarritasunaren Teoriaren oinarriak lehenengo ordenadoreak azaldu aurretik (40. hamarkadaren bukaera aldera) ezarri ziren, eta ziztu biziko eta etenik gabeko eraldaketek aldatzea lortu ez duten oinarriak dira. Alan Mathison Turing-ek jadanik garai hartan frogatu zuen, ahalik eta potentzia handienekoa imajinatuta ere, inolako ordenadorek ebatzi ezingo zituen zenbait gai edo arazo bazeudela. Balizko algoritmorik ez duten problema horiek, konputaezinak deitzen ditugunak, ez dira salbuespenak eta adibide ugari aurki dezakegu. Programen portaeraren inguruan planteatzen diren problemen artean, asko konputaezinak dira. Familia horretako kide ezagunena, zalantzarik gabe, geratze problema da: sarrerako datu zehatz batzuk hartzerakoan, programa bat begizta infinituan geratuko ote den era orokorrean erabakitzeko algoritmorik ez dago. Problema baten konputaezintasuna frogatzeko, hau ebatziko duen algoritmo zehatz bat existitzen ez dela ziurtatuko duen argumentu logikoa behar dugu, edo beste era batera esanda, existitzen diren algoritmoak problema hori ebazteko gai izango ez direla egiaztatuko duen argumentua. Izaera unibertsaleko argumentu hori ezartzea ez da batere erraza izaten, eta normalean, absurduraino eramandako frogapen batekin erlazionatuta egon ohi da. Helburu hori lortzeko zenbait teknika daude. Diagonalizazioaren teknika horien artean oinarrizkoena da, eta nahiko ezaguna, ez baita Informatika Teorikoaren tresna espezifikoa. Dokumentu honen helburua ez da teknika bera azaldu edo deskribatzea, ezaguntzat hartzen baita, zailtasun maila desberdineko hainbat adibideren bitartez argitzea baizik.