1000 resultados para Algoritmo multiobjetivo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con el fin de conocer mejor a las bacterias, en la actualidad se han desarrollado aplicaciones que permite simular el comportamiento de las colonias formadas por este tipo de organismos. Una de las piezas más importantes que tienen estos simuladores es el motor de físicas. Éste es el encargado de resolver todas las fuerzas producidas entre las bacterias y conseguir que todas queden correctamente colocadas y distribuidas a lo largo de la colonia, tratando de asemejarse lo más posible a la realidad. En una simulación de éstas características, todas las bacterias, además de estar en contacto entre sí, crecen en un pequeño porcentaje durante cada fotograma. Ello produce una gran cantidad de solapamiento a lo largo de toda la colonia que el motor de físicas tiene que resolver. El trabajo que se describe en este documento surge de la ineficiencia del proceso actual para distribuir el solapamiento originado en el interior de la colonia, hasta su exterior. Es importante señalar que la física se lleva el 99% del tiempo de procesado de la simulación de una colonia, con lo que una mejora en el motor de físicas conseguiría incrementar en gran medida la capacidad de simulación. El objetivo no es otro que poder simular más cantidad de bacterias en menos tiempo, facilitando el estudio de esta área tan reciente como es la biología sintética. ---ABSTRACT---In order to better understand bacteria, new applications have been developed to simulate the behavior of colonies formed by these organisms. One of the most important parts of these simulators is the physics engine. This module is responsible for solving all the forces produced between bacteria and ensure that they are properly located and distributed throughout the colony, trying to be as close as possible to reality. In a simulation with these features, all bacteria, besides being in contact with each other, grow in a small percentage at each frame. This produces a large amount of overlap along the entire colony that the physics engine must solve. The work described in this document arises from the inefficiency of the current process to distribute the overlap originated at the core of the colony outwards. Importantly, physics takes up 99% of the processing time of the simulation of a colony. Therefore, improving the physics engine would translate in a drastic increase in the throughput of the simulation. The goal is simply to be able to simulate more bacteria in less time, making the study of the recent area, synthetic biology, much easier.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vivimos en una época en la que cada vez existe una mayor cantidad de información. En el dominio de la salud la historia clínica digital ha permitido digitalizar toda la información de los pacientes. Estas historias clínicas digitales contienen una gran cantidad de información valiosa escrita en forma narrativa que sólo podremos extraer recurriendo a técnicas de procesado de lenguaje natural. No obstante, si se quiere realizar búsquedas sobre estos textos es importante analizar que la información relativa a síntomas, enfermedades, tratamientos etc. se puede refererir al propio paciente o a sus antecentes familiares, y que ciertos términos pueden aparecer negados o ser hipotéticos. A pesar de que el español ocupa la segunda posición en el listado de idiomas más hablados con más de 500 millones de hispano hablantes, hasta donde tenemos de detección de la negación, probabilidad e histórico en textos clínicos en español. Por tanto, este Trabajo Fin de Grado presenta una implementación basada en el algoritmo ConText para la detección de la negación, probabilidad e histórico en textos clínicos escritos en español. El algoritmo se ha validado con 454 oraciones que incluían un total de 1897 disparadores obteniendo unos resultado de 83.5 %, 96.1 %, 96.9 %, 99.7% y 93.4% de exactitud con condiciones afirmados, negados, probable, probable negado e histórico respectivamente. ---ABSTRACT---We live in an era in which there is a huge amount of information. In the domain of health, the electronic health record has allowed to digitize all the information of the patients. These electronic health records contain valuable information written in narrative form that can only be extracted using techniques of natural language processing. However, if you want to search on these texts is important to analyze if the relative information about symptoms, diseases, treatments, etc. are referred to the patient or family casework, and that certain terms may appear negated or be hypothesis. Although Spanish is the second spoken language with more than 500 million speakers, there seems to be no method of detection of negation, hypothesis or historical in medical texts written in Spanish. Thus, this bachelor’s final degree presents an implementation based on the ConText algorithm for the detection of negation, hypothesis and historical in medical texts written in Spanish. The algorithm has been validated with 454 sentences that included a total of 1897 triggers getting a result of 83.5 %, 96.1 %, 96.9 %, 99.7% and 93.4% accuracy with affirmed, negated, hypothesis, negated hypothesis and historical respectively.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis se ha realizado en el contexto del proyecto UPMSat-2, que es un microsatélite diseñado, construido y operado por el Instituto Universitario de Microgravedad "Ignacio Da Riva" (IDR / UPM) de la Universidad Politécnica de Madrid. Aplicación de la metodología Ingeniería Concurrente (Concurrent Engineering: CE) en el marco de la aplicación de diseño multidisciplinar (Multidisciplinary Design Optimization: MDO) es uno de los principales objetivos del presente trabajo. En los últimos años, ha habido un interés continuo en la participación de los grupos de investigación de las universidades en los estudios de la tecnología espacial a través de sus propios microsatélites. La participación en este tipo de proyectos tiene algunos desafíos inherentes, tales como presupuestos y servicios limitados. Además, debido al hecho de que el objetivo principal de estos proyectos es fundamentalmente educativo, por lo general hay incertidumbres en cuanto a su misión en órbita y cargas útiles en las primeras fases del proyecto. Por otro lado, existen limitaciones predeterminadas para sus presupuestos de masa, volumen y energía, debido al hecho de que la mayoría de ellos están considerados como una carga útil auxiliar para el lanzamiento. De este modo, el costo de lanzamiento se reduce considerablemente. En este contexto, el subsistema estructural del satélite es uno de los más afectados por las restricciones que impone el lanzador. Esto puede afectar a diferentes aspectos, incluyendo las dimensiones, la resistencia y los requisitos de frecuencia. En la primera parte de esta tesis, la atención se centra en el desarrollo de una herramienta de diseño del subsistema estructural que evalúa, no sólo las propiedades de la estructura primaria como variables, sino también algunas variables de nivel de sistema del satélite, como la masa de la carga útil y la masa y las dimensiones extremas de satélite. Este enfoque permite que el equipo de diseño obtenga una mejor visión del diseño en un espacio de diseño extendido. La herramienta de diseño estructural se basa en las fórmulas y los supuestos apropiados, incluyendo los modelos estáticos y dinámicos del satélite. Un algoritmo genético (Genetic Algorithm: GA) se aplica al espacio de diseño para optimizaciones de objetivo único y también multiobjetivo. El resultado de la optimización multiobjetivo es un Pareto-optimal basado en dos objetivo, la masa total de satélites mínimo y el máximo presupuesto de masa de carga útil. Por otro lado, la aplicación de los microsatélites en misiones espaciales es de interés por su menor coste y tiempo de desarrollo. La gran necesidad de las aplicaciones de teledetección es un fuerte impulsor de su popularidad en este tipo de misiones espaciales. Las misiones de tele-observación por satélite son esenciales para la investigación de los recursos de la tierra y el medio ambiente. En estas misiones existen interrelaciones estrechas entre diferentes requisitos como la altitud orbital, tiempo de revisita, el ciclo de vida y la resolución. Además, todos estos requisitos puede afectar a toda las características de diseño. Durante los últimos años la aplicación de CE en las misiones espaciales ha demostrado una gran ventaja para llegar al diseño óptimo, teniendo en cuenta tanto el rendimiento y el costo del proyecto. Un ejemplo bien conocido de la aplicación de CE es la CDF (Facilidad Diseño Concurrente) de la ESA (Agencia Espacial Europea). Está claro que para los proyectos de microsatélites universitarios tener o desarrollar una instalación de este tipo parece estar más allá de las capacidades del proyecto. Sin embargo, la práctica de la CE a cualquier escala puede ser beneficiosa para los microsatélites universitarios también. En la segunda parte de esta tesis, la atención se centra en el desarrollo de una estructura de optimización de diseño multidisciplinar (Multidisciplinary Design Optimization: MDO) aplicable a la fase de diseño conceptual de microsatélites de teledetección. Este enfoque permite que el equipo de diseño conozca la interacción entre las diferentes variables de diseño. El esquema MDO presentado no sólo incluye variables de nivel de sistema, tales como la masa total del satélite y la potencia total, sino también los requisitos de la misión como la resolución y tiempo de revisita. El proceso de diseño de microsatélites se divide en tres disciplinas; a) diseño de órbita, b) diseño de carga útil y c) diseño de plataforma. En primer lugar, se calculan diferentes parámetros de misión para un rango práctico de órbitas helio-síncronas (sun-synchronous orbits: SS-Os). Luego, según los parámetros orbitales y los datos de un instrumento como referencia, se calcula la masa y la potencia de la carga útil. El diseño de la plataforma del satélite se estima a partir de los datos de la masa y potencia de los diferentes subsistemas utilizando relaciones empíricas de diseño. El diseño del subsistema de potencia se realiza teniendo en cuenta variables de diseño más detalladas, como el escenario de la misión y diferentes tipos de células solares y baterías. El escenario se selecciona, de modo de obtener una banda de cobertura sobre la superficie terrestre paralelo al Ecuador después de cada intervalo de revisita. Con el objetivo de evaluar las interrelaciones entre las diferentes variables en el espacio de diseño, todas las disciplinas de diseño mencionados se combinan en un código unificado. Por último, una forma básica de MDO se ajusta a la herramienta de diseño de sistema de satélite. La optimización del diseño se realiza por medio de un GA con el único objetivo de minimizar la masa total de microsatélite. Según los resultados obtenidos de la aplicación del MDO, existen diferentes puntos de diseños óptimos, pero con diferentes variables de misión. Este análisis demuestra la aplicabilidad de MDO para los estudios de ingeniería de sistema en la fase de diseño conceptual en este tipo de proyectos. La principal conclusión de esta tesis, es que el diseño clásico de los satélites que por lo general comienza con la definición de la misión y la carga útil no es necesariamente la mejor metodología para todos los proyectos de satélites. Un microsatélite universitario, es un ejemplo de este tipo de proyectos. Por eso, se han desarrollado un conjunto de herramientas de diseño para encarar los estudios de la fase inicial de diseño. Este conjunto de herramientas incluye diferentes disciplinas de diseño centrados en el subsistema estructural y teniendo en cuenta una carga útil desconocida a priori. Los resultados demuestran que la mínima masa total del satélite y la máxima masa disponible para una carga útil desconocida a priori, son objetivos conflictivos. En este contexto para encontrar un Pareto-optimal se ha aplicado una optimización multiobjetivo. Según los resultados se concluye que la selección de la masa total por satélite en el rango de 40-60 kg puede considerarse como óptima para un proyecto de microsatélites universitario con carga útil desconocida a priori. También la metodología CE se ha aplicado al proceso de diseño conceptual de microsatélites de teledetección. Los resultados de la aplicación del CE proporcionan una clara comprensión de la interacción entre los requisitos de diseño de sistemas de satélites, tales como la masa total del microsatélite y la potencia y los requisitos de la misión como la resolución y el tiempo de revisita. La aplicación de MDO se hace con la minimización de la masa total de microsatélite. Los resultados de la aplicación de MDO aclaran la relación clara entre los diferentes requisitos de diseño del sistema y de misión, así como que permiten seleccionar las líneas de base para el diseño óptimo con el objetivo seleccionado en las primeras fase de diseño. ABSTRACT This thesis is done in the context of UPMSat-2 project, which is a microsatellite under design and manufacturing at the Instituto Universitario de Microgravedad “Ignacio Da Riva” (IDR/UPM) of the Universidad Politécnica de Madrid. Application of Concurrent Engineering (CE) methodology in the framework of Multidisciplinary Design application (MDO) is one of the main objectives of the present work. In recent years, there has been continuing interest in the participation of university research groups in space technology studies by means of their own microsatellites. The involvement in such projects has some inherent challenges, such as limited budget and facilities. Also, due to the fact that the main objective of these projects is for educational purposes, usually there are uncertainties regarding their in orbit mission and scientific payloads at the early phases of the project. On the other hand, there are predetermined limitations for their mass and volume budgets owing to the fact that most of them are launched as an auxiliary payload in which the launch cost is reduced considerably. The satellite structure subsystem is the one which is most affected by the launcher constraints. This can affect different aspects, including dimensions, strength and frequency requirements. In the first part of this thesis, the main focus is on developing a structural design sizing tool containing not only the primary structures properties as variables but also the satellite system level variables such as payload mass budget and satellite total mass and dimensions. This approach enables the design team to obtain better insight into the design in an extended design envelope. The structural design sizing tool is based on the analytical structural design formulas and appropriate assumptions including both static and dynamic models of the satellite. A Genetic Algorithm (GA) is applied to the design space for both single and multiobejective optimizations. The result of the multiobjective optimization is a Pareto-optimal based on two objectives, minimum satellite total mass and maximum payload mass budget. On the other hand, the application of the microsatellites is of interest for their less cost and response time. The high need for the remote sensing applications is a strong driver of their popularity in space missions. The satellite remote sensing missions are essential for long term research around the condition of the earth resources and environment. In remote sensing missions there are tight interrelations between different requirements such as orbital altitude, revisit time, mission cycle life and spatial resolution. Also, all of these requirements can affect the whole design characteristics. During the last years application of the CE in the space missions has demonstrated a great advantage to reach the optimum design base lines considering both the performance and the cost of the project. A well-known example of CE application is ESA (European Space Agency) CDF (Concurrent Design Facility). It is clear that for the university-class microsatellite projects having or developing such a facility seems beyond the project capabilities. Nevertheless practicing CE at any scale can be beneficiary for the university-class microsatellite projects. In the second part of this thesis, the main focus is on developing a MDO framework applicable to the conceptual design phase of the remote sensing microsatellites. This approach enables the design team to evaluate the interaction between the different system design variables. The presented MDO framework contains not only the system level variables such as the satellite total mass and total power, but also the mission requirements like the spatial resolution and the revisit time. The microsatellite sizing process is divided into the three major design disciplines; a) orbit design, b) payload sizing and c) bus sizing. First, different mission parameters for a practical range of sun-synchronous orbits (SS-Os) are calculated. Then, according to the orbital parameters and a reference remote sensing instrument, mass and power of the payload are calculated. Satellite bus sizing is done based on mass and power calculation of the different subsystems using design estimation relationships. In the satellite bus sizing, the power subsystem design is realized by considering more detailed design variables including a mission scenario and different types of solar cells and batteries. The mission scenario is selected in order to obtain a coverage belt on the earth surface parallel to the earth equatorial after each revisit time. In order to evaluate the interrelations between the different variables inside the design space all the mentioned design disciplines are combined in a unified code. The integrated satellite system sizing tool developed in this section is considered as an application of the CE to the conceptual design of the remote sensing microsatellite projects. Finally, in order to apply the MDO methodology to the design problem, a basic MDO framework is adjusted to the developed satellite system design tool. Design optimization is done by means of a GA single objective algorithm with the objective function as minimizing the microsatellite total mass. According to the results of MDO application, there exist different optimum design points all with the minimum satellite total mass but with different mission variables. This output demonstrates the successful applicability of MDO approach for system engineering trade-off studies at the conceptual design phase of the design in such projects. The main conclusion of this thesis is that the classical design approach for the satellite design which usually starts with the mission and payload definition is not necessarily the best approach for all of the satellite projects. The university-class microsatellite is an example for such projects. Due to this fact an integrated satellite sizing tool including different design disciplines focusing on the structural subsystem and considering unknown payload is developed. According to the results the satellite total mass and available mass for the unknown payload are conflictive objectives. In order to find the Pareto-optimal a multiobjective GA optimization is conducted. Based on the optimization results it is concluded that selecting the satellite total mass in the range of 40-60 kg can be considered as an optimum approach for a university-class microsatellite project with unknown payload(s). Also, the CE methodology is applied to the remote sensing microsatellites conceptual design process. The results of CE application provide a clear understanding of the interaction between satellite system design requirements such as satellite total mass and power and the satellite mission variables such as revisit time and spatial resolution. The MDO application is done with the total mass minimization of a remote sensing satellite. The results from the MDO application clarify the unclear relationship between different system and mission design variables as well as the optimum design base lines according to the selected objective during the initial design phases.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El problema inverso de la búsqueda de fuentes MEG consiste en la obtención de la distribución de los dipolos de corriente (fuentes) en el interior de la cabeza de un paciente a partir de las mediciones de campo electromagnético obtenidas en la superficie (magnetoencefalograma, MEG). Para obtener estos datos, en el ámbito científico se utiliza el algoritmo beamforming, comúnmente aceptado, cuyos resultados ofrecen un pequeño margen de error debido a la naturaleza del problema. Esta memoria desarrolla el trabajo realizado para optimizar un algoritmo de búsqueda aleatoria, Solis-Wets, utilizado para investigar la posibilidad de su aplicación en el ámbito científico, en sustitución del anteriormente mencionado, beamforming. También se estudiará la acción de encadenar ambos algoritmos, tomando como datos de entrada del algoritmo Solis-Wets aquellos proporcionados como solución por el algoritmo beamforming con objeto de minimizar el error en el que éste incurre. Esta optimización es necesaria para que la alternativa sea viable debido al tiempo necesario en su ejecución, e incluye el uso de bibliotecas auxiliares, así como la paralelización del código. Para la evaluación del algoritmo se han medido tanto la velocidad de generación de soluciones como el error de la mejor solución tras un número determinado de soluciones generadas. Como variables para esta evaluación se han tomado distintos compiladores, distintas soluciones de partida, precisión de los datos, así como el uso de distintas bibliotecas matemáticas disponibles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

(SPA) En este trabajo, se propone un nuevo índice basado en el método directo de Lyapunov para el diseño de un algoritmo de reprogramación en tiempo real para líneas de metro. En este estudio se utiliza una versión modificada de un modelo de espacio de estados en tiempo real discreto, que considera los efectos de saturación en la línea de metro. Una vez que el modelo de espacio de estados se ha obtenido, el método directo de Lyapunov se aplica con el fin de analizar la estabilidad del sistema de la línea de metro. Como resultado de este análisis no sólo se propone un nuevo índice de estabilidad, sino también la creación de tres zonas de estabilidad para indicar el estado actual del sistema. Finalmente, se presenta un nuevo algoritmo que permite la reprogramación del calendario de los trenes en tiempo real en presencia de perturbaciones medianas. (ENG) A new Lyapunov-based index for designing a rescheduling algorithm in real time for metro lines has been proposed in this paper. A modified real time discrete space state model which considers saturation effects in the metro line has been utilized in this study. Once the space state model has been obtained, the direct method of Lyapunov is applied in order to analyze the stability of the metro line system. As a result of this analysis not only a new stability index is proposed, but also the establishment of three stability zones to indicate the current state of the system. Finally, a new algorithm which allows the rescheduling of the timetable in the real time of the trains under presence of medium disturbances has been presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las glorietas se han convertido en los últimos años en un tipo de intersección muy popular. Un apartado esencial del diseño de glorietas es la seguridad de circulación, aspecto muy relacionado con la distribución de velocidades. La geometría debe limitar las diferentes posibilidades de trayectoria de tal forma que los conductores moderen su velocidad y exista una adecuada consistencia de velocidades. Las guías de diseño tradicionalmente han propuesto una serie de indicadores geométricos (radio de entrada de la trayectoria, radio de la deflexión y ángulo ?, entre los principales) suponiendo que unos valores adecuados para estos indicadores favorecen el control de la velocidad y la seguridad en la intersección. Un enfoque más moderno, se basa en modelar las trayectorias de los vehículos y analizar el perfil de velocidades. En cualquier caso, siguiendo los indicadores denominados tradicionales o los enfoques más modernos, se requiere establecer las trayectorias con mayor o menor detalle. Esto define una tarea compleja, laboriosa y no exenta de cierta subjetividad. Para su definición no existe consenso internacional en cuanto a la metodología a emplear. En la presente investigación se propone una nueva metodología para abordar el cálculo de trayectorias. El modelo se centra en glorietas de un carril con cualquier configuración en las alineaciones de acceso. El dato básico es la geometría de la glorieta. A partir de ella, y en base a la definición de una serie de retranqueos respecto de los bordes de calzada, se han desarrollado una serie de construcciones geométricas que permiten establecer de forma automática las trayectorias aproximadas de los vehículos más rápidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las listas de espera son un problema para la mayor parte de los países que cuentan con un Sistema Nacional de Salud. El presente trabajo propone analizar el problema de las listas de espera desde una perspectiva de Decisión Multicriterio. Tras un análisis de las diferentes metodologías existentes, hemos elaborado un modelo de decisión basado en el método AHP (Analytic Hierarchy Process) para la gestión de listas de espera y lo hemos aplicado a un Hospital de la Comunidad de Madrid. La decisión multicriterio MCDM (Multiple Criteria Decision Making) es la teoría que estudia y analiza los problemas de decisión que involucran diferentes criterios. La MCDM enmarca con precisión problemas reales de toma de decisiones, planteados usualmente haciendo uso de varios criterios en conflicto; en los cuales, no será posible obtener en general una solución que asigne a todos los criterios su mejor valor sino que el decisor, aplicando distintas técnicas, deberá decidir la mejor solución a escoger del conjunto de soluciones factibles. El fundamento del AHP radica en descomponer problemas complejos en otros más sencillos y agregar las soluciones de los mismos. Según la propuesta de Saaty, el primer paso para la aplicación de este método es estructurar jerárquicamente el problema en niveles con distintos nodos interconectados. El primer nivel de la jerarquía corresponde al propósito del problema, el nivel/niveles intermedios a los criterios/subcriterios en base a los cuales se forma la decisión y el último corresponde a las alternativas o soluciones factibles del problema. La aplicación del método AHP requiere: -Realizar comparaciones por pares entre los entes de cada nivel jerárquico, en base a la importancia que presentan para el nodo del nivel superior de la jerarquía al que están ligados. Los resultados de estas comparaciones se recogen en forma de matrices de comparación por pares. -Obtener los vectores de prioridad correspondientes a cada una de las matrices de comparación por pares. -Calcular la contribución de cada alternativa al propósito del problema, mediante una agregación multiplicativa entre los niveles jerárquicos y en función de estos valores, ordenar las alternativas y seleccionar lo más conveniente como solución del problema. Como último paso en la metodología AHP debemos señalar que, cualquiera que sea el método empleado para sintetizar la información de dichas matrices para determinar los vectores de prioridad de los entes que se comparan, es posible realizar un análisis de sensibilidad del resultado alcanzado, visualizando y analizando otras posibles soluciones a obtener haciendo cambios en los juicios de valor emitidos por la unidad decisora al construir dichas matrices. El software Expert-Choice permite realizar el análisis de sensibilidad de 5 formas diferentes. En estos análisis se realizan variaciones en el valor de un peso o prioridad y se observa numérica y gráficamente como este cambio afecta a la puntuación de las alternativas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tesis tiene como objetivo principal el desarrollo de métodos de identificación del daño que sean robustos y fiables, enfocados a sistemas estructurales experimentales, fundamentalmente a las estructuras de hormigón armado reforzadas externamente con bandas fibras de polímeros reforzados (FRP). El modo de fallo de este tipo de sistema estructural es crítico, pues generalmente es debido a un despegue repentino y frágil de la banda del refuerzo FRP originado en grietas intermedias causadas por la flexión. La detección de este despegue en su fase inicial es fundamental para prevenir fallos futuros, que pueden ser catastróficos. Inicialmente, se lleva a cabo una revisión del método de la Impedancia Electro-Mecánica (EMI), de cara a exponer sus capacidades para la detección de daño. Una vez la tecnología apropiada es seleccionada, lo que incluye un analizador de impedancias así como novedosos sensores PZT para monitorización inteligente, se ha diseñado un procedimiento automático basado en los registros de impedancias de distintas estructuras de laboratorio. Basándonos en el hecho de que las mediciones de impedancias son posibles gracias a una colocación adecuada de una red de sensores PZT, la estimación de la presencia de daño se realiza analizando los resultados de distintos indicadores de daño obtenidos de la literatura. Para que este proceso sea automático y que no sean necesarios conocimientos previos sobre el método EMI para realizar un experimento, se ha diseñado e implementado un Interfaz Gráfico de Usuario, transformando la medición de impedancias en un proceso fácil e intuitivo. Se evalúa entonces el daño a través de los correspondientes índices de daño, intentando estimar no sólo su severidad, sino también su localización aproximada. El desarrollo de estos experimentos en cualquier estructura genera grandes cantidades de datos que han de ser procesados, y algunas veces los índices de daño no son suficientes para una evaluación completa de la integridad de una estructura. En la mayoría de los casos se pueden encontrar patrones de daño en los datos, pero no se tiene información a priori del estado de la estructura. En este punto, se ha hecho una importante investigación en técnicas de reconocimiento de patrones particularmente en aprendizaje no supervisado, encontrando aplicaciones interesantes en el campo de la medicina. De ahí surge una idea creativa e innovadora: detectar y seguir la evolución del daño en distintas estructuras como si se tratase de un cáncer propagándose por el cuerpo humano. En ese sentido, las lecturas de impedancias se emplean como información intrínseca de la salud de la propia estructura, de forma que se pueden aplicar las mismas técnicas que las empleadas en la investigación del cáncer. En este caso, se ha aplicado un algoritmo de clasificación jerárquica dado que ilustra además la clasificación de los datos de forma gráfica, incluyendo información cualitativa y cuantitativa sobre el daño. Se ha investigado la efectividad de este procedimiento a través de tres estructuras de laboratorio, como son una viga de aluminio, una unión atornillada de aluminio y un bloque de hormigón reforzado con FRP. La primera ayuda a mostrar la efectividad del método en sencillos escenarios de daño simple y múltiple, de forma que las conclusiones extraídas se aplican sobre los otros dos, diseñados para simular condiciones de despegue en distintas estructuras. Demostrada la efectividad del método de clasificación jerárquica de lecturas de impedancias, se aplica el procedimiento sobre las estructuras de hormigón armado reforzadas con bandas de FRP objeto de esta tesis, detectando y clasificando cada estado de daño. Finalmente, y como alternativa al anterior procedimiento, se propone un método para la monitorización continua de la interfase FRP-Hormigón, a través de una red de sensores FBG permanentemente instalados en dicha interfase. De esta forma, se obtienen medidas de deformación de la interfase en condiciones de carga continua, para ser implementadas en un modelo de optimización multiobjetivo, cuya solución se haya por medio de una expansión multiobjetivo del método Particle Swarm Optimization (PSO). La fiabilidad de este último método de detección se investiga a través de sendos ejemplos tanto numéricos como experimentales. ABSTRACT This thesis aims to develop robust and reliable damage identification methods focused on experimental structural systems, in particular Reinforced Concrete (RC) structures externally strengthened with Fiber Reinforced Polymers (FRP) strips. The failure mode of this type of structural system is critical, since it is usually due to sudden and brittle debonding of the FRP reinforcement originating from intermediate flexural cracks. Detection of the debonding in its initial stage is essential thus to prevent future failure, which might be catastrophic. Initially, a revision of the Electro-Mechanical Impedance (EMI) method is carried out, in order to expose its capabilities for local damage detection. Once the appropriate technology is selected, which includes impedance analyzer as well as novel PZT sensors for smart monitoring, an automated procedure has been design based on the impedance signatures of several lab-scale structures. On the basis that capturing impedance measurements is possible thanks to an adequately deployed PZT sensor network, the estimation of damage presence is done by analyzing the results of different damage indices obtained from the literature. In order to make this process automatic so that it is not necessary a priori knowledge of the EMI method to carry out an experimental test, a Graphical User Interface has been designed, turning the impedance measurements into an easy and intuitive procedure. Damage is then assessed through the analysis of the corresponding damage indices, trying to estimate not only the damage severity, but also its approximate location. The development of these tests on any kind of structure generates large amounts of data to be processed, and sometimes the information provided by damage indices is not enough to achieve a complete analysis of the structural health condition. In most of the cases, some damage patterns can be found in the data, but none a priori knowledge of the health condition is given for any structure. At this point, an important research on pattern recognition techniques has been carried out, particularly on unsupervised learning techniques, finding interesting applications in the medicine field. From this investigation, a creative and innovative idea arose: to detect and track the evolution of damage in different structures, as if it were a cancer propagating through a human body. In that sense, the impedance signatures are used to give intrinsic information of the health condition of the structure, so that the same clustering algorithms applied in the cancer research can be applied to the problem addressed in this dissertation. Hierarchical clustering is then applied since it also provides a graphical display of the clustered data, including quantitative and qualitative information about damage. The performance of this approach is firstly investigated using three lab-scale structures, such as a simple aluminium beam, a bolt-jointed aluminium beam and an FRP-strengthened concrete specimen. The first one shows the performance of the method on simple single and multiple damage scenarios, so that the first conclusions can be extracted and applied to the other two experimental tests, which are designed to simulate a debonding condition on different structures. Once the performance of the impedance-based hierarchical clustering method is proven to be successful, it is then applied to the structural system studied in this dissertation, the RC structures externally strengthened with FRP strips, where the debonding failure in the interface between the FRP and the concrete is successfully detected and classified, proving thus the feasibility of this method. Finally, as an alternative to the previous approach, a continuous monitoring procedure of the FRP-Concrete interface is proposed, based on an FBGsensors Network permanently deployed within that interface. In this way, strain measurements can be obtained under controlled loading conditions, and then they are used in order to implement a multi-objective model updating method solved by a multi-objective expansion of the Particle Swarm Optimization (PSO) method. The feasibility of this last proposal is investigated and successfully proven on both numerical and experimental RC beams strengthened with FRP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quizás el Código Morse, inventado en 1838 para su uso en la telegrafía, es uno de los primeros ejemplos de la utilización práctica de la compresión de datos [1], donde las letras más comunes del alfabeto son codificadas con códigos más cortos que las demás. A partir de 1940 y tras el desarrollo de la teoría de la información y la creación de los primeros ordenadores, la compresión de la información ha sido un reto constante y fundamental entre los campos de trabajo de investigadores de todo tipo. Cuanto mayor es nuestra comprensión sobre el significado de la información, mayor es nuestro éxito comprimiéndola. En el caso de la información multimedia, su naturaleza permite la compresión con pérdidas, alcanzando así cotas de compresión imposibles para los algoritmos sin pérdidas. Estos “recientes” algoritmos con pérdidas han estado mayoritariamente basados en transformación de la información al dominio de la frecuencia y en la eliminación de parte de la información en dicho dominio. Transformar al dominio de la frecuencia posee ventajas pero también involucra unos costes computacionales inevitables. Esta tesis presenta un nuevo algoritmo de compresión multimedia llamado “LHE” (Logarithmical Hopping Encoding) que no requiere transformación al dominio de la frecuencia, sino que trabaja en el dominio del espacio. Esto lo convierte en un algoritmo lineal de reducida complejidad computacional. Los resultados del algoritmo son prometedores, superando al estándar JPEG en calidad y velocidad. Para ello el algoritmo utiliza como base la respuesta fisiológica del ojo humano ante el estímulo luminoso. El ojo, al igual que el resto de los sentidos, responde al logaritmo de la señal de acuerdo a la ley de Weber. El algoritmo se compone de varias etapas. Una de ellas es la medición de la “Relevancia Perceptual”, una nueva métrica que nos va a permitir medir la relevancia que tiene la información en la mente del sujeto y en base a la misma, degradar en mayor o menor medida su contenido, a través de lo que he llamado “sub-muestreado elástico”. La etapa de sub-muestreado elástico constituye una nueva técnica sin precedentes en el tratamiento digital de imágenes. Permite tomar más o menos muestras en diferentes áreas de una imagen en función de su relevancia perceptual. En esta tesis se dan los primeros pasos para la elaboración de lo que puede llegar a ser un nuevo formato estándar de compresión multimedia (imagen, video y audio) libre de patentes y de alto rendimiento tanto en velocidad como en calidad. ABSTRACT The Morse code, invented in 1838 for use in telegraphy, is one of the first examples of the practical use of data compression [1], where the most common letters of the alphabet are coded shorter than the rest of codes. From 1940 and after the development of the theory of information and the creation of the first computers, compression of information has been a constant and fundamental challenge among any type of researchers. The greater our understanding of the meaning of information, the greater our success at compressing. In the case of multimedia information, its nature allows lossy compression, reaching impossible compression rates compared with lossless algorithms. These "recent" lossy algorithms have been mainly based on information transformation to frequency domain and elimination of some of the information in that domain. Transforming the frequency domain has advantages but also involves inevitable computational costs. This thesis introduces a new multimedia compression algorithm called "LHE" (logarithmical Hopping Encoding) that does not require transformation to frequency domain, but works in the space domain. This feature makes LHE a linear algorithm of reduced computational complexity. The results of the algorithm are promising, outperforming the JPEG standard in quality and speed. The basis of the algorithm is the physiological response of the human eye to the light stimulus. The eye, like other senses, responds to the logarithm of the signal according with Weber law. The algorithm consists of several stages. One is the measurement of "perceptual relevance," a new metric that will allow us to measure the relevance of information in the subject's mind and based on it; degrade accordingly their contents, through what I have called "elastic downsampling". Elastic downsampling stage is an unprecedented new technique in digital image processing. It lets take more or less samples in different areas of an image based on their perceptual relevance. This thesis introduces the first steps for the development of what may become a new standard multimedia compression format (image, video and audio) free of patents and high performance in both speed and quality.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La toma de decisiones en el sector energético se torna compleja frente a las disímiles opciones y objetivos a cumplir. Para minimizar esta complejidad, se han venido desarrollando una gama amplia de métodos de apoyo a la toma de decisiones en proyectos energéticos. En la última década, las energización de comunidades rurales aisladas ha venido siendo prioridad de muchos gobiernos para mitigar las migraciones del campo para la ciudad. Para la toma de decisiones en los proyectos energéticos de comunidades rurales aisladas se necesitan proyectar la influencia que estos tendrás sobre los costes económicos, medioambientales y sociales. Es por esta razón que el presente trabajo tuvo como objetivo diseñar un modelo original denominado Generación Energética Autóctona Y Limpia (GEAYL) aplicado a una comunidad rural aislada de la provincia de Granma en Cuba. Este modelo parte dos modelos que le preceden el PAMER y el SEMA. El modelo GEAYL constituye un procedimiento multicriterio-multiobjetivo de apoyo a la planificación energética para este contexto. Se plantearon cinco funciones objetivos: F1, para la minimización de los costes energéticos; F2 para la minimización de las emisiones de CO2, F3, para la minimización de las emisiones de NOx; F4, para la minimización de las emisiones de SOx (cuyos coeficientes fueron obtenidos a través de la literatura especializada) y F5, para la maximización de la Aceptación Social de la Energía. La función F5 y la manera de obtener sus coeficientes constituye la novedad del presente trabajo. Estos coeficientes se determinaron aplicando el método AHP (Proceso Analítico Jerárquico) con los datos de partidas derivados de una encuesta a los usuarios finales de la energía y a expertos. Para determinar el suministro óptimo de energía se emplearon varios métodos: la suma ponderada, el producto ponderado, las distancias de Manhattan L1, la distancia Euclidea L2 y la distancia L3. Para estas métricas se aplicaron distintos vectores de pesos para determinar las distintas estructuras de preferencias de los decisores. Finalmente, se concluyó que tener en consideración a Aceptación Social de la Energía como una función del modelo influye en el suministro de energía de cada alternativa energética. ABSTRACT Energy planning decision making is a complex task due to the multiple options to follow and objectives to meet. In order to minimize this complexity, a wide variety of methods and supporting tools have been designed. Over the last decade, rural energization has been a priority for many governments, aiming to alleviate rural to urban migration. Rural energy planning decision making must rely on financial, environmental and social costs. The purpose of this work is to define an original energy planning model named Clean and Native Energy Generation (Generación Energética Autóctona Y Limpia, GEAYL), and carry out a case study on Granma Province, Cuba. This model is based on two previous models: PAMER & SEMA. GEAYL is a multiobjective-multicriteria energy planning model, which includes five functions to be optimized: F1, to minimize financial costs; F2, to minimize CO2 emissions; F3, to minimize NOx emissions; F4, to minimize SOx emissions; and F5, to maximize energy Social Acceptability. The coefficients corresponding to the first four functions have been obtained through specialized papers and official data, and the ones belonging to F5 through an Analytic Hierarchy Process (AHP), built as per a statistical enquiry carried out on energy users and experts. F5 and the AHP application are considered to be the novelty of this model. In order to establish the optimal energy supply, several methods have been applied: weighted sum, weighted product, Manhattan distance L1, Euclidean distance L2 and L3. Several weight vectors have been applied to the mentioned distances in order to conclude the decision makers potential preference structure. Among the conclusions of this work, it must be noted that function F5, Social Acceptability, has a clear influence on every energy supply alternative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El siguiente proyecto versa sobre la programación en lenguaje java del algoritmo de humanización MIDI desarrollado por Jorge Grundman en su tesis La Humanización de la Interpretación Virtual: Tres ejemplos significativos de la obra de Chopin. Este algoritmo, denominado Zig-Zag tiene como finalidad lograr que una partitura interpretada por un ordenador tenga unas características similares a la lectura a primera vista de la misma por un pianista. Para ello, basa su funcionamiento en una aleatorización del tempo en base a una serie de parámetros, a una modificación de la dinámica acorde a la modificación de tempo y a una segunda aleatorización para cada figura de la partitura. Este algoritmo tiene un gran campo de aplicación como complemento a los diversos secuenciadores y editores de partituras que existen en la actualidad, proporcionando nuevas características a los mismos. La programación del algoritmo se ha llevado a cabo empleando el Java SDK (Standard Developement Kit) 7 y las herramientas que proporciona esta plataforma para el manejo y modificación de los mensajes MIDI. ABSTRACT. The next project is about the programming in Java language of the MIDI humanization algorithm developed by Jorge Grundman in his thesis La Humanización de la Interpretación Virtual: Tres ejemplos significativos de la obra de Chopin. This algorithm, called Zig-Zag aims to have similar characteristics in a score performed by a computer than in the sight reading by a pianist. To this end, it bases its process in a randomization of the tempo from several parameters, a modification of the dynamic according to the change of tempo and a second randomization for each figure in the score. This algorithm has a big scope of application as complement for the different sequencers and score editors that already exist, providing new features to them. The algorithm has been programmed using the Java SDK (Standard Development Kit) 7 and the tools that this platform provides to handle and modify MIDI messages.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El empleo de refuerzos de FRP en vigas de hormigón armado es cada vez más frecuente por sus numerosas ventajas frente a otros métodos más tradicionales. Durante los últimos años, la técnica FRP-NSM, consistente en introducir barras de FRP sobre el recubrimiento de una viga de hormigón, se ha posicionado como uno de los mejores métodos de refuerzo y rehabilitación de estructuras de hormigón armado, tanto por su facilidad de montaje y mantenimiento, como por su rendimiento para aumentar la capacidad resistente de dichas estructuras. Si bien el refuerzo a flexión ha sido ampliamente desarrollado y estudiado hasta la fecha, no sucede lo mismo con el refuerzo a cortante, debido principalmente a su gran complejidad. Sin embargo, se debería dedicar más estudio a este tipo de refuerzo si se pretenden conservar los criterios de diseño en estructuras de hormigón armado, los cuales están basados en evitar el fallo a cortante por sus consecuencias catastróficas Esta ausencia de información y de normativa es la que justifica esta tesis doctoral. En este pro-yecto se van a desarrollar dos metodologías alternativas, que permiten estimar la capacidad resistente de vigas de hormigón armado, reforzadas a cortante mediante la técnica FRP-NSM. El primer método aplicado consiste en la implementación de una red neuronal artificial capaz de predecir adecuadamente la resistencia a cortante de vigas reforzadas con este método a partir de experimentos anteriores. Asimismo, a partir de la red se han llevado a cabo algunos estudios a fin de comprender mejor la influencia real de algunos parámetros de la viga y del refuerzo sobre la resistencia a cortante con el propósito de lograr diseños más seguros de este tipo de refuerzo. Una configuración óptima de la red requiere discriminar adecuadamente de entre los numerosos parámetros (geométricos y de material) que pueden influir en el compor-tamiento resistente de la viga, para lo cual se han llevado a cabo diversos estudios y pruebas. Mediante el segundo método, se desarrolla una ecuación de proyecto que permite, de forma sencilla, estimar la capacidad de vigas reforzadas a cortante con FRP-NSM, la cual podría ser propuesta para las principales guías de diseño. Para alcanzar este objetivo, se plantea un pro-blema de optimización multiobjetivo a partir de resultados de ensayos experimentales llevados a cabo sobre vigas de hormigón armado con y sin refuerzo de FRP. El problema multiobjetivo se resuelve mediante algoritmos genéticos, en concreto el algoritmo NSGA-II, por ser más apropiado para problemas con varias funciones objetivo que los métodos de optimización clásicos. Mediante una comparativa de las predicciones realizadas con ambos métodos y de los resulta-dos de ensayos experimentales se podrán establecer las ventajas e inconvenientes derivadas de la aplicación de cada una de las dos metodologías. Asimismo, se llevará a cabo un análisis paramétrico con ambos enfoques a fin de intentar determinar la sensibilidad de aquellos pa-rámetros más sensibles a este tipo de refuerzo. Finalmente, se realizará un análisis estadístico de la fiabilidad de las ecuaciones de diseño deri-vadas de la optimización multiobjetivo. Con dicho análisis se puede estimar la capacidad resis-tente de una viga reforzada a cortante con FRP-NSM dentro de un margen de seguridad espe-cificado a priori. ABSTRACT The use of externally bonded (EB) fibre-reinforced polymer (FRP) composites has gained acceptance during the last two decades in the construction engineering community, particularly in the rehabilitation of reinforced concrete (RC) structures. Currently, to increase the shear resistance of RC beams, FRP sheets are externally bonded (EB-FRP) and applied on the external side surface of the beams to be strengthened with different configurations. Of more recent application, the near-surface mounted FRP bar (NSM-FRP) method is another technique successfully used to increase the shear resistance of RC beams. In the NSM method, FRP rods are embedded into grooves intentionally prepared in the concrete cover of the side faces of RC beams. While flexural strengthening has been widely developed and studied so far, the same doesn´t occur to shearing strength mainly due to its great complexity. Nevertheless, if design criteria are to be preserved more research should be done to this sort of strength, which are based on avoiding shear failure and its catastrophic consequences. However, in spite of this, accurately calculating the shear capacity of FRP shear strengthened RC beams remains a complex challenge that has not yet been fully resolved due to the numerous variables involved in the procedure. The objective of this Thesis is to develop methodologies to evaluate the capacity of FRP shear strengthened RC beams by dealing with the problem from a different point of view to the numerical modeling approach by using artificial intelligence techniques. With this purpose two different approaches have been developed: one concerned with the use of artificial neural networks and the other based on the implementation of an optimization approach developed jointly with the use of artificial neural networks (ANNs) and solved with genetic algorithms (GAs). With these approaches some of the difficulties concerned regarding the numerical modeling can be overcome. As an alternative tool to conventional numerical techniques, neural networks do not provide closed form solutions for modeling problems but do, however, offer a complex and accurate solution based on a representative set of historical examples of the relationship. Furthermore, they can adapt solutions over time to include new data. On the other hand, as a second proposal, an optimization approach has also been developed to implement simple yet accurate shear design equations for this kind of strengthening. This approach is developed in a multi-objective framework by considering experimental results of RC beams with and without NSM-FRP. Furthermore, the results obtained with the previous scheme based on ANNs are also used as a filter to choose the parameters to include in the design equations. Genetic algorithms are used to solve the optimization problem since they are especially suitable for solving multi-objective problems when compared to standard optimization methods. The key features of the two proposed procedures are outlined and their performance in predicting the capacity of NSM-FRP shear strengthened RC beams is evaluated by comparison with results from experimental tests and with predictions obtained using a simplified numerical model. A sensitivity study of the predictions of both models for the input parameters is also carried out.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Propõe-se método novo e completo para análise de acetona em ar exalado envolvendo coleta com pré-concentração em água, derivatização química e determinação eletroquímica assistida por novo algoritmo de processamento de sinais. Na literatura recente a acetona expirada vem sendo avaliada como biomarcador para monitoramento não invasivo de quadros clínicos como diabetes e insuficiência cardíaca, daí a importância da proposta. Entre as aminas que reagem com acetona para formar iminas eletroativas, estudadas por polarografia em meados do século passado, a glicina apresentou melhor conjunto de características para a definição do método de determinação por voltametria de onda quadrada sem a necessidade de remoção de oxigênio (25 Hz, amplitude de 20 mV, incremento de 5 mV, eletrodo de gota de mercúrio). O meio reacional, composto de glicina (2 mol·L-1) em meio NaOH (1 mol·L-1), serviu também de eletrólito e o pico de redução da imina em -1,57 V vs. Ag|AgCl constituiu o sinal analítico. Para tratamento dos sinais, foi desenvolvido e avaliado um algoritmo inovador baseado em interpolação de linha base por ajuste de curvas de Bézier e ajuste de gaussiana ao pico. Essa combinação permitiu reconhecimento e quantificação de picos relativamente baixos e largos sobre linha com curvatura acentuada e ruído, situação em que métodos convencionais falham e curvas do tipo spline se mostraram menos apropriadas. A implementação do algoritmo (disponível em http://github.com/batistagl/chemapps) foi realizada utilizando programa open source de álgebra matricial integrado diretamente com software de controle do potenciostato. Para demonstrar a generalidade da extensão dos recursos nativos do equipamento mediante integração com programação externa em linguagem Octave (open source), implementou-se a técnica da cronocoulometria tridimensional, com visualização de resultados já tratados em projeções de malha de perspectiva 3D sob qualquer ângulo. A determinação eletroquímica de acetona em fase aquosa, assistida pelo algoritmo baseado em curvas de Bézier, é rápida e automática, tem limite de detecção de 3,5·10-6 mol·L-1 (0,2 mg·L-1) e faixa linear que atende aos requisitos da análise em ar exalado. O acetaldeído, comumente presente em ar exalado, em especial, após consumo de bebidas alcoólicas, dá origem a pico voltamétrico em -1,40 V, contornando interferência que prejudica vários outros métodos publicados na literatura e abrindo possibilidade de determinação simultânea. Resultados obtidos com amostras reais são concordantes com os obtidos por método espectrofotométrico, em uso rotineiro desde o seu aperfeiçoamento na dissertação de mestrado do autor desta tese. Em relação à dissertação, também se otimizou a geometria do dispositivo de coleta, de modo a concentrar a acetona num volume menor de água gelada e prover maior conforto ao paciente. O método completo apresentado, englobando o dispositivo de amostragem aperfeiçoado e o novo e efetivo algoritmo para tratamento automático de sinais voltamétricos, está pronto para ser aplicado. Evolução para um analisador portátil depende de melhorias no limite de detecção e facilidade de obtenção eletrodos sólidos (impressos) com filme de mercúrio, vez que eletrodos de bismuto ou diamante dopado com boro, entre outros, não apresentaram resposta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese propõe um modelo de regeneração de energia metroviária, baseado no controle de paradas e partidas do trem ao longo de sua viagem, com o aproveitamento da energia proveniente da frenagem regenerativa no sistema de tração. O objetivo é otimizar o consumo de energia, promover maior eficiência, na perspectiva de uma gestão sustentável. Aplicando o Algoritmo Genético (GA) para obter a melhor configuração de tráfego dos trens, a pesquisa desenvolve e testa o Algoritmo de Controle de Tração para Regeneração de Energia Metroviária (ACTREM), usando a Linguagem de programação C++. Para analisar o desempenho do algoritmo de controle ACTREM no aumento da eficiência energética, foram realizadas quinze simulações da aplicação do ACTREM na linha 4 - Amarela do metrô da cidade de São Paulo. Essas simulações demonstraram a eficiência do ACTREM para gerar, automaticamente, os diagramas horários otimizados para uma economia de energia nos sistemas metroviários, levando em consideração as restrições operacionais do sistema, como capacidade máxima de cada trem, tempo total de espera, tempo total de viagem e intervalo entre trens. Os resultados mostram que o algoritmo proposto pode economizar 9,5% da energia e não provocar impactos relevantes na capacidade de transporte de passageiros do sistema. Ainda sugerem possíveis continuidades de estudos.