959 resultados para Redes neuronales
Resumo:
El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.
Resumo:
In the last few years there has been a heightened interest in data treatment and analysis with the aim of discovering hidden knowledge and eliciting relationships and patterns within this data. Data mining techniques (also known as Knowledge Discovery in Databases) have been applied over a wide range of fields such as marketing, investment, fraud detection, manufacturing, telecommunications and health. In this study, well-known data mining techniques such as artificial neural networks (ANN), genetic programming (GP), forward selection linear regression (LR) and k-means clustering techniques, are proposed to the health and sports community in order to aid with resistance training prescription. Appropriate resistance training prescription is effective for developing fitness, health and for enhancing general quality of life. Resistance exercise intensity is commonly prescribed as a percent of the one repetition maximum. 1RM, dynamic muscular strength, one repetition maximum or one execution maximum, is operationally defined as the heaviest load that can be moved over a specific range of motion, one time and with correct performance. The safety of the 1RM assessment has been questioned as such an enormous effort may lead to muscular injury. Prediction equations could help to tackle the problem of predicting the 1RM from submaximal loads, in order to avoid or at least, reduce the associated risks. We built different models from data on 30 men who performed up to 5 sets to exhaustion at different percentages of the 1RM in the bench press action, until reaching their actual 1RM. Also, a comparison of different existing prediction equations is carried out. The LR model seems to outperform the ANN and GP models for the 1RM prediction in the range between 1 and 10 repetitions. At 75% of the 1RM some subjects (n = 5) could perform 13 repetitions with proper technique in the bench press action, whilst other subjects (n = 20) performed statistically significant (p < 0:05) more repetitions at 70% than at 75% of their actual 1RM in the bench press action. Rate of perceived exertion (RPE) seems not to be a good predictor for 1RM when all the sets are performed until exhaustion, as no significant differences (p < 0:05) were found in the RPE at 75%, 80% and 90% of the 1RM. Also, years of experience and weekly hours of strength training are better correlated to 1RM (p < 0:05) than body weight. O'Connor et al. 1RM prediction equation seems to arise from the data gathered and seems to be the most accurate 1RM prediction equation from those proposed in literature and used in this study. Epley's 1RM prediction equation is reproduced by means of data simulation from 1RM literature equations. Finally, future lines of research are proposed related to the problem of the 1RM prediction by means of genetic algorithms, neural networks and clustering techniques. RESUMEN En los últimos años ha habido un creciente interés en el tratamiento y análisis de datos con el propósito de descubrir relaciones, patrones y conocimiento oculto en los mismos. Las técnicas de data mining (también llamadas de \Descubrimiento de conocimiento en bases de datos\) se han aplicado consistentemente a lo gran de un gran espectro de áreas como el marketing, inversiones, detección de fraude, producción industrial, telecomunicaciones y salud. En este estudio, técnicas bien conocidas de data mining como las redes neuronales artificiales (ANN), programación genética (GP), regresión lineal con selección hacia adelante (LR) y la técnica de clustering k-means, se proponen a la comunidad del deporte y la salud con el objetivo de ayudar con la prescripción del entrenamiento de fuerza. Una apropiada prescripción de entrenamiento de fuerza es efectiva no solo para mejorar el estado de forma general, sino para mejorar la salud e incrementar la calidad de vida. La intensidad en un ejercicio de fuerza se prescribe generalmente como un porcentaje de la repetición máxima. 1RM, fuerza muscular dinámica, una repetición máxima o una ejecución máxima, se define operacionalmente como la carga máxima que puede ser movida en un rango de movimiento específico, una vez y con una técnica correcta. La seguridad de las pruebas de 1RM ha sido cuestionada debido a que el gran esfuerzo requerido para llevarlas a cabo puede derivar en serias lesiones musculares. Las ecuaciones predictivas pueden ayudar a atajar el problema de la predicción de la 1RM con cargas sub-máximas y son empleadas con el propósito de eliminar o al menos, reducir los riesgos asociados. En este estudio, se construyeron distintos modelos a partir de los datos recogidos de 30 hombres que realizaron hasta 5 series al fallo en el ejercicio press de banca a distintos porcentajes de la 1RM, hasta llegar a su 1RM real. También se muestra una comparación de algunas de las distintas ecuaciones de predicción propuestas con anterioridad. El modelo LR parece superar a los modelos ANN y GP para la predicción de la 1RM entre 1 y 10 repeticiones. Al 75% de la 1RM algunos sujetos (n = 5) pudieron realizar 13 repeticiones con una técnica apropiada en el ejercicio press de banca, mientras que otros (n = 20) realizaron significativamente (p < 0:05) más repeticiones al 70% que al 75% de su 1RM en el press de banca. El ínndice de esfuerzo percibido (RPE) parece no ser un buen predictor del 1RM cuando todas las series se realizan al fallo, puesto que no existen diferencias signifiativas (p < 0:05) en el RPE al 75%, 80% y el 90% de la 1RM. Además, los años de experiencia y las horas semanales dedicadas al entrenamiento de fuerza están más correlacionadas con la 1RM (p < 0:05) que el peso corporal. La ecuación de O'Connor et al. parece surgir de los datos recogidos y parece ser la ecuación de predicción de 1RM más precisa de aquellas propuestas en la literatura y empleadas en este estudio. La ecuación de predicción de la 1RM de Epley es reproducida mediante simulación de datos a partir de algunas ecuaciones de predicción de la 1RM propuestas con anterioridad. Finalmente, se proponen futuras líneas de investigación relacionadas con el problema de la predicción de la 1RM mediante algoritmos genéticos, redes neuronales y técnicas de clustering.
Resumo:
Actualmente se están utilizando supercomputadores para resolver problemas intensivos en cálculo tales como las previsiones meteorológicas, el aprendizaje de redes neuronales artificiales o incluso aplicaciones lúdicas como el ajedrez. El uso de esta tecnología queda limitado a las grandes corporaciones con medios financieros suficientes como para abordar la adquisición de tales ordenadores. La distribución del cálculo entre varios ordenadores es una solución más barata para aquellos casos en los que la aplicación es susceptible de ser distribuida. De hecho, es la única solución para muchas empresas que no pueden adquirir supercomputadores y que sin embargo soportan aplicaciones que precisan de mucha potencia de cálculo (por ejemplo, el análisis de imágenes). En este artículo mostraremos cómo utilizando un middelware, CORBA (Common Object Request Broker Architecture), y una implementación concreta de este, DST (Distributed Smalltalk), es posible distribuir una aplicación entre varios ordenadores de una manera elegante y escalable y cómo el trabajo cooperativo de varios ordenadores disminuye significativamente el tiempo total de cómputo. Creemos que esta forma de distribución puede solucionar muchos de los problemas de tiempos de ejecución con los que se enfrentan actualmente las empresas de desarrollo software
Resumo:
El objetivo principal de esta tesis doctoral es profundizar en el análisis y diseño de un sistema inteligente para la predicción y control del acabado superficial en un proceso de fresado a alta velocidad, basado fundamentalmente en clasificadores Bayesianos, con el prop´osito de desarrollar una metodolog´ıa que facilite el diseño de este tipo de sistemas. El sistema, cuyo propósito es posibilitar la predicción y control de la rugosidad superficial, se compone de un modelo aprendido a partir de datos experimentales con redes Bayesianas, que ayudar´a a comprender los procesos dinámicos involucrados en el mecanizado y las interacciones entre las variables relevantes. Dado que las redes neuronales artificiales son modelos ampliamente utilizados en procesos de corte de materiales, también se incluye un modelo para fresado usándolas, donde se introdujo la geometría y la dureza del material como variables novedosas hasta ahora no estudiadas en este contexto. Por lo tanto, una importante contribución en esta tesis son estos dos modelos para la predicción de la rugosidad superficial, que se comparan con respecto a diferentes aspectos: la influencia de las nuevas variables, los indicadores de evaluación del desempeño, interpretabilidad. Uno de los principales problemas en la modelización con clasificadores Bayesianos es la comprensión de las enormes tablas de probabilidad a posteriori producidas. Introducimos un m´etodo de explicación que genera un conjunto de reglas obtenidas de árboles de decisión. Estos árboles son inducidos a partir de un conjunto de datos simulados generados de las probabilidades a posteriori de la variable clase, calculadas con la red Bayesiana aprendida a partir de un conjunto de datos de entrenamiento. Por último, contribuimos en el campo multiobjetivo en el caso de que algunos de los objetivos no se puedan cuantificar en números reales, sino como funciones en intervalo de valores. Esto ocurre a menudo en aplicaciones de aprendizaje automático, especialmente las basadas en clasificación supervisada. En concreto, se extienden las ideas de dominancia y frontera de Pareto a esta situación. Su aplicación a los estudios de predicción de la rugosidad superficial en el caso de maximizar al mismo tiempo la sensibilidad y la especificidad del clasificador inducido de la red Bayesiana, y no solo maximizar la tasa de clasificación correcta. Los intervalos de estos dos objetivos provienen de un m´etodo de estimación honesta de ambos objetivos, como e.g. validación cruzada en k rodajas o bootstrap.---ABSTRACT---The main objective of this PhD Thesis is to go more deeply into the analysis and design of an intelligent system for surface roughness prediction and control in the end-milling machining process, based fundamentally on Bayesian network classifiers, with the aim of developing a methodology that makes easier the design of this type of systems. The system, whose purpose is to make possible the surface roughness prediction and control, consists of a model learnt from experimental data with the aid of Bayesian networks, that will help to understand the dynamic processes involved in the machining and the interactions among the relevant variables. Since artificial neural networks are models widely used in material cutting proceses, we include also an end-milling model using them, where the geometry and hardness of the piecework are introduced as novel variables not studied so far within this context. Thus, an important contribution in this thesis is these two models for surface roughness prediction, that are then compared with respecto to different aspects: influence of the new variables, performance evaluation metrics, interpretability. One of the main problems with Bayesian classifier-based modelling is the understanding of the enormous posterior probabilitiy tables produced. We introduce an explanation method that generates a set of rules obtained from decision trees. Such trees are induced from a simulated data set generated from the posterior probabilities of the class variable, calculated with the Bayesian network learned from a training data set. Finally, we contribute in the multi-objective field in the case that some of the objectives cannot be quantified as real numbers but as interval-valued functions. This often occurs in machine learning applications, especially those based on supervised classification. Specifically, the dominance and Pareto front ideas are extended to this setting. Its application to the surface roughness prediction studies the case of maximizing simultaneously the sensitivity and specificity of the induced Bayesian network classifier, rather than only maximizing the correct classification rate. Intervals in these two objectives come from a honest estimation method of both objectives, like e.g. k-fold cross-validation or bootstrap.
Resumo:
El rebase se define como el transporte de una cantidad importante de agua sobre la coronación de una estructura. Por tanto, es el fenómeno que, en general, determina la cota de coronación del dique dependiendo de la cantidad aceptable del mismo, a la vista de condicionantes funcionales y estructurales del dique. En general, la cantidad de rebase que puede tolerar un dique de abrigo desde el punto de vista de su integridad estructural es muy superior a la cantidad permisible desde el punto de vista de su funcionalidad. Por otro lado, el diseño de un dique con una probabilidad de rebase demasiado baja o nula conduciría a diseños incompatibles con consideraciones de otro tipo, como son las estéticas o las económicas. Existen distintas formas de estudiar el rebase producido por el oleaje sobre los espaldones de las obras marítimas. Las más habituales son los ensayos en modelo físico y las formulaciones empíricas o semi-empíricas. Las menos habituales son la instrumentación en prototipo, las redes neuronales y los modelos numéricos. Los ensayos en modelo físico son la herramienta más precisa y fiable para el estudio específico de cada caso, debido a la complejidad del proceso de rebase, con multitud de fenómenos físicos y parámetros involucrados. Los modelos físicos permiten conocer el comportamiento hidráulico y estructural del dique, identificando posibles fallos en el proyecto antes de su ejecución, evaluando diversas alternativas y todo esto con el consiguiente ahorro en costes de construcción mediante la aportación de mejoras al diseño inicial de la estructura. Sin embargo, presentan algunos inconvenientes derivados de los márgenes de error asociados a los ”efectos de escala y de modelo”. Las formulaciones empíricas o semi-empíricas presentan el inconveniente de que su uso está limitado por la aplicabilidad de las fórmulas, ya que éstas sólo son válidas para una casuística de condiciones ambientales y tipologías estructurales limitadas al rango de lo reproducido en los ensayos. El objetivo de la presente Tesis Doctoral es el contrate de las formulaciones desarrolladas por diferentes autores en materia de rebase en distintas tipologías de diques de abrigo. Para ello, se ha realizado en primer lugar la recopilación y el análisis de las formulaciones existentes para estimar la tasa de rebase sobre diques en talud y verticales. Posteriormente, se llevó a cabo el contraste de dichas formulaciones con los resultados obtenidos en una serie de ensayos realizados en el Centro de Estudios de Puertos y Costas. Para finalizar, se aplicó a los ensayos de diques en talud seleccionados la herramienta neuronal NN-OVERTOPPING2, desarrollada en el proyecto europeo de rebases CLASH (“Crest Level Assessment of Coastal Structures by Full Scale Monitoring, Neural Network Prediction and Hazard Analysis on Permissible Wave Overtopping”), contrastando de este modo la tasa de rebase obtenida en los ensayos con este otro método basado en la teoría de las redes neuronales. Posteriormente, se analizó la influencia del viento en el rebase. Para ello se han realizado una serie de ensayos en modelo físico a escala reducida, generando oleaje con y sin viento, sobre la sección vertical del Dique de Levante de Málaga. Finalmente, se presenta el análisis crítico del contraste de cada una de las formulaciones aplicadas a los ensayos seleccionados, que conduce a las conclusiones obtenidas en la presente Tesis Doctoral. Overtopping is defined as the volume of water surpassing the crest of a breakwater and reaching the sheltered area. This phenomenon determines the breakwater’s crest level, depending on the volume of water admissible at the rear because of the sheltered area’s functional and structural conditioning factors. The ways to assess overtopping processes range from those deemed to be most traditional, such as semi-empirical or empirical type equations and physical, reduced scale model tests, to others less usual such as the instrumentation of actual breakwaters (prototypes), artificial neural networks and numerical models. Determining overtopping in reduced scale physical model tests is simple but the values obtained are affected to a greater or lesser degree by the effects of a scale model-prototype such that it can only be considered as an approximation to what actually happens. Nevertheless, physical models are considered to be highly useful for estimating damage that may occur in the area sheltered by the breakwater. Therefore, although physical models present certain problems fundamentally deriving from scale effects, they are still the most accurate, reliable tool for the specific study of each case, especially when large sized models are adopted and wind is generated Empirical expressions obtained from laboratory tests have been developed for calculating the overtopping rate and, therefore, the formulas obtained obviously depend not only on environmental conditions – wave height, wave period and water level – but also on the model’s characteristics and are only applicable in a range of validity of the tests performed in each case. The purpose of this Thesis is to make a comparative analysis of methods for calculating overtopping rates developed by different authors for harbour breakwater overtopping. First, existing equations were compiled and analysed in order to estimate the overtopping rate on sloping and vertical breakwaters. These equations were then compared with the results obtained in a number of tests performed in the Centre for Port and Coastal Studies of the CEDEX. In addition, a neural network model developed in the European CLASH Project (“Crest Level Assessment of Coastal Structures by Full Scale Monitoring, Neural Network Prediction and Hazard Analysis on Permissible Wave Overtopping“) was also tested. Finally, the wind effects on overtopping are evaluated using tests performed with and without wind in the physical model of the Levante Breakwater (Málaga).
Resumo:
Este trabajo presenta un clasificador de medidas de glucemia en función de las ingestas asociadas para pacientes con diabetes gestacional. Se presentan los resultados obtenidos al comparar la relevancia de diferentes atributos así como del uso de dos de los algoritmos más populares en el mundo del aprendizaje automático: las redes neuronales y los árboles de decisión. El estudio se ha realizado con los datos de 53 pacientes pertenecientes al Hospital de Sabadell y al Hospital Mutua de Terrassa obteniendo un 91,72% de precisión en el caso de la red neuronal, y un 95.92% con el árbol de decisión. La clasificación automática de medidas de glucemia permitirá a los especialistas pautar un tratamiento más acertado en base a la información obtenida directamente del glucómetro de las pacientes, contribuyendo así al desarrollo de los sistemas automáticos de ayuda a la decisión para diabetes gestacional.
Resumo:
El incremento de la esperanza de vida en los países desarrollados (más de 80 años en 2013), está suponiendo un crecimiento considerable en la incidencia y prevalencia de enfermedades discapacitantes, que si bien pueden aparecer a edades tempranas, son más frecuentes en la tercera edad, o en sus inmediaciones. Enfermedades neuro-degenerativas que suponen un gran hándicap funcional, pues algunas de ellas están asociadas a movimientos involuntarios de determinadas partes del cuerpo, sobre todo de las extremidades. Tareas cotidianas como la ingesta de alimento, vestirse, escribir, interactuar con el ordenador, etc… pueden llegar a ser grandes retos para las personas que las padecen. El diagnóstico precoz y certero resulta fundamental para la prescripción de la terapia o tratamiento óptimo. Teniendo en cuenta incluso que en muchos casos, por desgracia la mayoría, sólo se puede actuar para mitigar los síntomas, y no para sanarlos, al menos de momento. Aun así, acertar de manera temprana en el diagnóstico supone proporcionar al enfermo una mayor calidad de vida durante mucho más tiempo, por lo cual el esfuerzo merece, y mucho, la pena. Los enfermos de Párkinson y de temblor esencial suponen un porcentaje importante de la casuística clínica en los trastornos del movimiento que impiden llevar una vida normal, que producen una discapacidad física y una no menos importante exclusión social. Las vías de tratamiento son dispares de ahí que sea crítico acertar en el diagnóstico lo antes posible. Hasta la actualidad, los profesionales y expertos en medicina, utilizan unas escalas cualitativas para diferenciar la patología y su grado de afectación. Dichas escalas también se utilizan para efectuar un seguimiento clínico y registrar la historia del paciente. En esta tesis se propone una serie de métodos de análisis y de identificación/clasificación de los tipos de temblor asociados a la enfermedad de Párkinson y el temblor esencial. Empleando técnicas de inteligencia artificial basadas en clasificadores inteligentes: redes neuronales (MLP y LVQ) y máquinas de soporte vectorial (SVM), a partir del desarrollo e implantación de un sistema para la medida y análisis objetiva del temblor: DIMETER. Dicho sistema además de ser una herramienta eficaz para la ayuda al diagnóstico, presenta también las capacidades necesarias para proporcionar un seguimiento riguroso y fiable de la evolución de cada paciente. ABSTRACT The increase in life expectancy in developed countries in more than 80 years (data belongs to 2013), is assuming considerable growth in the incidence and prevalence of disabling diseases. Although they may appear at an early age, they are more common in the elderly ages or in its vicinity. Nuero-degenerative diseases that are a major functional handicap, as some of them are associated with involuntary movements of certain body parts, especially of the limbs. Everyday tasks such as food intake, dressing, writing, interact with the computer, etc ... can become large debris for people who suffer. Early and accurate diagnosis is crucial for prescribing optimal therapy or treatment. Even taking into account that in many cases, unfortunately the majority, can only act to mitigate the symptoms, not to cure them, at least for now. Nevertheless, early diagnosis may provide the patient a better quality of life for much longer time, so the effort is worth, and much, grief. Sufferers of Parkinson's and essential tremor represent a significant percentage of clinical casuistry in movement disorders that prevent a normal life, leading to physical disability and not least social exclusion. There are various treatment methods, which makes it necessary the immediate diagnosis. Up to date, professionals and medical experts, use a qualitative scale to differentiate the disease and degree of involvement. Therefore, those scales are used in clinical follow-up. In this thesis, several methods of analysis and identification / classification of types of tremor associated with Parkinson's disease and essential tremor are proposed. Using artificial intelligence techniques based on intelligent classification: neural networks (MLP and LVQ) and support vector machines (SVM), starting from the development and implementation of a system for measuring and objective analysis of the tremor: DIMETER. This system besides being an effective tool to aid diagnosis, it also has the necessary capabilities to provide a rigorous and reliable monitoring of the evolution of each patient.
Resumo:
Una de las barreras para la aplicación de las técnicas de monitorización de la integridad estructural (SHM) basadas en ondas elásticas guiadas (GLW) en aeronaves es la influencia perniciosa de las condiciones ambientales y de operación (EOC). En esta tesis se ha estudiado dicha influencia y la compensación de la misma, particularizando en variaciones del estado de carga y temperatura. La compensación de dichos efectos se fundamenta en Redes Neuronales Artificiales (ANN) empleando datos experimentales procesados con la Transformada Chirplet. Los cambios en la geometría y en las propiedades del material respecto al estado inicial de la estructura (lo daños) provocan cambios en la forma de onda de las GLW (lo que denominamos característica sensible al daño o DSF). Mediante técnicas de tratamiento de señal se puede buscar una relación entre dichas variaciones y los daños, esto se conoce como SHM. Sin embargo, las variaciones en las EOC producen también cambios en los datos adquiridos relativos a las GLW (DSF) que provocan errores en los algoritmos de diagnóstico de daño (SHM). Esto sucede porque las firmas de daño y de las EOC en la DSF son del mismo orden. Por lo tanto, es necesario cuantificar y compensar el efecto de las EOC sobre la GLW. Si bien existen diversas metodologías para compensar los efectos de las EOC como por ejemplo “Optimal Baseline Selection” (OBS) o “Baseline Signal Stretching” (BSS), estas, se emplean exclusivamente en la compensación de los efectos térmicos. El método propuesto en esta tesis mezcla análisis de datos experimentales, como en el método OBS, y modelos basados en Redes Neuronales Artificiales (ANN) que reemplazan el modelado físico requerido por el método BSS. El análisis de datos experimentales consiste en aplicar la Transformada Chirplet (CT) para extraer la firma de las EOC sobre la DSF. Con esta información, obtenida bajo diversas EOC, se entrena una ANN. A continuación, la ANN actuará como un interpolador de referencias de la estructura sin daño, generando información de referencia para cualquier EOC. La comparación de las mediciones reales de la DSF con los valores simulados por la ANN, dará como resultado la firma daño en la DSF, lo que permite el diagnóstico de daño. Este esquema se ha aplicado y verificado, en diversas EOC, para una estructura unidimensional con un único camino de daño, y para una estructura representativa de un fuselaje de una aeronave, con curvatura y múltiples elementos rigidizadores, sometida a un estado de cargas complejo, con múltiples caminos de daños. Los efectos de las EOC se han estudiado en detalle en la estructura unidimensional y se han generalizado para el fuselaje, demostrando la independencia del método respecto a la configuración de la estructura y el tipo de sensores utilizados para la adquisición de datos GLW. Por otra parte, esta metodología se puede utilizar para la compensación simultánea de una variedad medible de EOC, que afecten a la adquisición de datos de la onda elástica guiada. El principal resultado entre otros, de esta tesis, es la metodología CT-ANN para la compensación de EOC en técnicas SHM basadas en ondas elásticas guiadas para el diagnóstico de daño. ABSTRACT One of the open problems to implement Structural Health Monitoring techniques based on elastic guided waves in real aircraft structures at operation is the influence of the environmental and operational conditions (EOC) on the damage diagnosis problem. This thesis deals with the compensation of these environmental and operational effects, specifically, the temperature and the external loading, by the use of the Chirplet Transform working with Artificial Neural Networks. It is well known that the guided elastic wave form is affected by the damage appearance (what is known as the damage sensitive feature or DSF). The DSF is modified by the temperature and by the load applied to the structure. The EOC promotes variations in the acquired data (DSF) and cause mistakes in damage diagnosis algorithms. This effect promotes changes on the waveform due to the EOC variations of the same order than the damage occurrence. It is difficult to separate both effects in order to avoid damage diagnosis mistakes. Therefore it is necessary to quantify and compensate the effect of EOC over the GLW forms. There are several approaches to compensate the EOC effects such as Optimal Baseline Selection (OBS) or Baseline Signal Stretching (BSS). Usually, they are used for temperature compensation. The new method proposed here mixes experimental data analysis, as in the OBS method, and Artificial Neural Network (ANN) models to replace the physical modelling which involves the BSS method. The experimental data analysis studied is based on apply the Chirplet Transform (CT) to extract the EOC signature on the DSF. The information obtained varying EOC is employed to train an ANN. Then, the ANN will act as a baselines interpolator of the undamaged structure. The ANN generates reference information at any EOC. By comparing real measurements of the DSF against the ANN simulated values, the damage signature appears clearly in the DSF, enabling an accurate damage diagnosis. This schema has been applied in a range of EOC for a one-dimensional structure containing single damage path and two dimensional real fuselage structure with stiffener elements and multiple damage paths. The EOC effects tested in the one-dimensional structure have been generalized to the fuselage showing its independence from structural arrangement and the type of sensors used for GLW data acquisition. Moreover, it can be used for the simultaneous compensation of a variety of measurable EOC, which affects the guided wave data acquisition. The main result, among others, of this thesis is the CT-ANN methodology for the compensation of EOC in GLW based SHM technique for damage diagnosis.
Resumo:
El desarrollo de nuevas estructuras aeroespaciales optimizadas, utilizan materiales compuestos, para los componentes críticos y subsistemas, principalmente polímeros reforzados con fibra de carbono (CFRP). Un conocimiento profundo del estado de daño por fatiga de estructuras de CFRP avanzado, es esencial para predecir la vida residual y optimizar los intervalos de inspección estructural, reparaciones y/o sustitución de componentes. Las técnicas actuales se basan principalmente en la medición de cargas estructurales a lo largo de la vida útil de la estructura mediante galgas extensométricas eléctricas. Con esos datos, se estima la vida a fatiga utilizando modelos de acumulación de daño. En la presente tesis, se evalúa la metodología convencional para la estimación de la vida a fatiga de un CFRP aeronáutico. Esta metodología está basada en la regla de acumulación de daño lineal de Palmgren-Miner, y es aplicada para determinar la vida a fatiga de estructuras sometidas a cargas de amplitud variable. Se ha realizado una campaña de ensayos con cargas de amplitud constante para caracterizar un CFRP aeronáutico a fatiga, obteniendo las curvas clásicas S-N, en diferentes relaciones de esfuerzo. Se determinaron los diagramas de vida constante, (CLD), también conocidos como diagramas de Goodman, utilizando redes neuronales artificiales debido a la ausencia de modelos coherentes para materiales compuestos. Se ha caracterizado la degradación de la rigidez debido al daño por fatiga. Se ha ensayado un segundo grupo de probetas con secuencias estandarizadas de cargas de amplitud variable, para obtener la vida a fatiga y la degradación de rigidez en condiciones realistas. Las cargas aplicadas son representativas de misiones de aviones de combate (Falstaff), y de aviones de transporte (Twist). La vida a fatiga de las probetas cicladas con cargas de amplitud variable, se comparó con el índice de daño teórico calculado en base a la regla de acumulación de daño lineal convencional. Los resultados obtenidos muestran predicciones no conservativas. Esta tesis también presenta el estudio y desarrollo, de una nueva técnica de no contacto para evaluar el estado de daño por fatiga de estructuras de CFRP por medio de cambios de los parámetros de rugosidad. La rugosidad superficial se puede medir fácilmente en campo con métodos sin contacto, mediante técnicas ópticas tales como speckle y perfilómetros ópticos. En el presente estudio, se han medido parámetros de rugosidad superficial, y el factor de irregularidad de la superficie, a lo largo de la vida de las probetas cicladas con cargas de amplitud constante y variable, Se ha obtenido una buena tendencia de ajuste al correlacionar la magnitud de la rugosidad y el factor de irregularidad de la superficie con la degradación de la rigidez de las probetas fatigadas. Estos resultados sugieren que los cambios en la rugosidad superficial medida en zonas estratégicas de componentes y estructuras hechas de CFRP, podrían ser indicativas del nivel de daño interno debido a cargas de fatiga. Los resultados también sugieren que el método es independiente del tipo de carga de fatiga que ha causado el daño. Esto último hace que esta técnica de medición sea aplicable como inspección para una amplia gama de estructuras de materiales compuestos, desde tanques presurizados con cargas de amplitud constante, estructuras aeronáuticas como alas y colas de aeronaves cicladas con cargas de amplitud variable, hasta aplicaciones industriales como automoción, entre otros. ABSTRACT New optimized aerospace structures use composite materials, mainly carbon fiber reinforced polymer composite (CFRP), for critical components and subsystems. A strong knowledge of the fatigue state of highly advanced (CFRP) structures is essential to predict the residual life and optimize intervals of structural inspection, repairs, and/or replacements. Current techniques are based mostly on measurement of structural loads throughout the service life by electric strain gauge sensors. These sensors are affected by extreme environmental conditions and by fatigue loads in such a way that the sensors and their systems require exhaustive maintenance throughout system life. In the present thesis, the conventional methodology based on linear damage accumulation rules, applied to determine the fatigue life of structures subjected to variable amplitude loads was evaluated for an aeronautical CFRP. A test program with constant amplitude loads has been performed to obtain the classical S-N curves at different stress ratios. Constant life diagrams, CLDs, where determined by means of Artificial Neural Networks due to the absence of consistent models for composites. The stiffness degradation due to fatigue damage has been characterized for coupons under cyclic tensile loads. A second group of coupons have been tested until failure with a standardized sequence of variable amplitude loads, representative of missions for combat aircraft (Falstaff), and representative of commercial flights (Twist), to obtain the fatigue life and the stiffness degradation under realistic conditions. The fatigue life of the coupons cycled with variable amplitude loads were compared to the theoretical damage index calculated based on the conventional linear damage accumulation rule. The obtained results show non-conservative predictions. This thesis also presents the evaluation of a new non-contact technique to evaluate the fatigue damage state of CFRP structures by means of measuring roughness parameters to evaluate changes in the surface topography. Surface roughness can be measured easily on field with non-contact methods by optical techniques such as speckle and optical perfilometers. In the present study, surface roughness parameters, and the surface irregularity factor, have been measured along the life of the coupons cycled with constant and variable amplitude loads of different magnitude. A good agreement has been obtained when correlating the magnitude of the roughness and the surface irregularity factor with the stiffness degradation. These results suggest that the changes on the surface roughness measured in strategic zones of components and structures made of CFRP, could be indicative of the level of internal damage due to fatigue loads. The results also suggest that the method is independent of the type of fatigue load that have caused the damage. It makes this measurement technique applicable for a wide range of inspections of composite materials structures, from pressurized tanks with constant amplitude loads, to variable amplitude loaded aeronautical structures like wings and empennages, up to automotive and other industrial applications.
Resumo:
Durante el desarrollo del proyecto he aprendido sobre Big Data, Android y MongoDB mientras que ayudaba a desarrollar un sistema para la predicción de las crisis del trastorno bipolar mediante el análisis masivo de información de diversas fuentes. En concreto hice una parte teórica sobre bases de datos NoSQL, Streaming Spark y Redes Neuronales y después diseñé y configuré una base de datos MongoDB para el proyecto del trastorno bipolar. También aprendí sobre Android y diseñé y desarrollé una aplicación de móvil en Android para recoger datos para usarlos como entrada en el sistema de predicción de crisis. Una vez terminado el desarrollo de la aplicación también llevé a cabo una evaluación con usuarios.
Resumo:
El 5º Informe del IPCC (Panel Intergubernamental de Cambio Climático, 2014) señala que el turismo será una de las actividades económicas que mayores efectos negativos experimentará en las próximas décadas debido al calentamiento térmico del planeta. En España, el turismo es una fuente principal de ingresos y de creación de puestos de trabajo en su economía. De ahí que sea necesaria la puesta en marcha de medidas de adaptación a la nueva realidad climática que, en nuestro país, va a suponer cambios en el confort climático de los destinos e incremento de extremos atmosféricos. Frente a los planes de adaptación al cambio climático en la actividad turística, elaborados por los gobiernos estatal y regional, que apenas se han desarrollado en España, la escala local muestra interesantes ejemplos de acciones de adaptación al cambio climático, desarrolladas tanto por los municipios (energía, transporte, vivienda, planificación urbanística) como por la propia empresa turística (hoteles, campings, apartamentos). Medidas de ahorro de agua y luz, fomento del transporte público y de las energías limpias, creación de zonas verdes urbanas y adaptación a los extremos atmosféricos destacan como acciones de mitigación del cambio climático en los destinos turísticos principales de nuestro país.
Resumo:
Las dificultades a las que los estudiantes se enfrentan y su lucha por dominar los temas, podría aumentar como consecuencia de la inadecuada utilización de materiales de evaluación. Generalmente se encuentran en el aula alumnos que hacen buen uso del material de los cursos y de una manera rápida, mientras que otros presentan dificultades con el aprendizaje del material. Esta situación es fácilmente visto en los resultados de los exámenes, un grupo de estudiantes podrían obtener buenas calificaciones animándoles, mientras que otros obtendrían la mala percepción de que los temas son difíciles, y en algunos casos, obligándolos a abandonar el curso o en otros casos a cambiar de carrera. Creemos que mediante el uso de técnicas de aprendizaje automático, y en nuestro caso la utilización de redes neuronales, sería factible crear un entorno de evaluación que podrían ajustarse a las necesidades de cada estudiante. Esto último disminuiría la sensación de insatisfacción de los alumnos y el abandono de los cursos.
Resumo:
El objetivo de este trabajo es la construcción de un modelo para predecir la insolvencia de las empresas familiares. El hecho de centrarnos en esta tipología de empresas deriva de dos motivos esenciales: Primero, por la importante participación de la empresa familiar en el ámbito de la economía española, así como en la economía mundial (Allouche et al., 2008). España tiene en la actualidad 1,1 millones de empresas familiares, un 85% del total de empresas, las cuales generan siete millones de empleos directos, esto es, un 70% del empleo privado. Este hecho ha provocado que la investigación en el campo de la empresa familiar haya crecido significativamente durante las dos últimas décadas (Gómez-Mejia et al., 2011). Y segundo, porque pensamos que las diferencias y características propias de la empresa familiar deberían tomarse en consideración para la predicción de la insolvencia empresarial. Estas circunstancias han motivado el interés en analizar las causas que propician la insolvencia en las empresas familiares e intentar facilitar herramientas o estrategias a los gestores de las mismas, con vistas a evitarla y asegurar la viabilidad de sus empresas. Además, hasta la fecha no se ha estudiado la predicción de insolvencia en las empresas familiares, donde encontramos un gap que pretendemos cubrir con la presente investigación. En consecuencia, la inexistencia de trabajos empíricos con muestras específicas de empresas familiares, tanto españolas como internacionales, hace especialmente interesante que analicemos las causas que propician su posible insolvencia. Por ello, y con objeto de contar con un mayor margen para realizar estrategias que eviten la insolvencia de este tipo de empresas, pretendemos obtener modelos que tengan como objeto predecirla 1, 2 y 3 años antes de que ésta se produzca, comparándose las similitudes y diferencias de dichos modelos a medida que nos alejamos del momento de la insolvencia. Con objeto de resolver esta cuestión de investigación hemos dispuesto de seis muestras elaboradas a partir de una base de datos creada expresamente para el presente estudio, y que incluirá información económico-financiera de empresas familiares y no familiares, tanto solventes como insolventes. Estas muestras contienen un número suficiente de empresas para construir fiables modelos de predicción y conocer las variables predictivas propias de cada una de ellas. Así mismo, y con objeto de dotar de robustez a los modelos, se ha considerado un período total de análisis de ocho años, comprendidos entre el ejercicio 2005 y el 2012, periodo que abarcaría varios ciclos económicos y, en consecuencia, evita el riesgo de obtener modelos sólo válidos para épocas de crecimiento o, en su caso, de decrecimiento económico. En el análisis empírico desarrollado utilizaremos dos métodos diferentes para predecir la insolvencia: técnicas de regresión logística (LOGIT) y técnicas computacionales de redes neuronales (NN). Si bien los modelos LOGIT han tenido y siguen manteniendo una especial relevancia en los estudios realizados en esta materia en los últimos treinta y cinco años, los modelos NN se corresponden con metodologías más avanzadas, que han mostrado tener un importante potencial en el ámbito de la predicción. La principal ventaja de los modelos LOGIT reside, no sólo en la capacidad de predecir previamente si una empresa se espera resulte solvente e insolvente, sino en facilitar información respecto a cuáles son las variables que resultan significativamente explicativas de la insolvencia, y en consecuencia, permiten deducir estrategias adecuadas en la gestión de la empresa con objeto de asegurar la solvencia de la misma. Por su parte, los modelos NN presentan un gran potencial de clasificación, superando en la mayoría de los casos al LOGIT, si bien su utilidad explicativa está menos contrastada. Nuestro estudio contribuye a la literatura existente sobre predicción de insolvencia de varias formas. En primer lugar, construyendo modelos específicos para empresas familiares y no familiares, lo que puede mejorar la eficiencia en la predicción del fracaso empresarial y evitar el concurso de acreedores, así como las consecuencias negativas de la insolvencia empresarial para la economía en general, dada la importancia de la empresa familiar en el mundo. En segundo lugar, nuestras conclusiones sugieren que la relación entre la evolución de ciertas variables financieras y la insolvencia empresarial toma connotaciones específicas en el caso de las empresas familiares. Aunque los modelos de predicción de insolvencia confirman la importancia de algunas variables financieras comunes para ambos tipos de empresas (eficiencia y dimensión empresarial), también identifican factores específicos y únicos. Así, la rentabilidad es el factor diferenciador para las empresas familiares como lo es el apalancamiento para las empresas no familiares.
Resumo:
Los mercados asociados a los servicios de voz móvil a móvil, brindados por operadoras del Sistema Móvil Avanzado en Latinoamérica, han estado sujetos a procesos regulatorios motivados por la dominancia en el mercado de un operador, buscando obtener óptimas condiciones de competencia. Específicamente en Ecuador, la Superintendencia de Telecomunicaciones (Organismo Técnico de Control de Telecomunicaciones) desarrolló un modelo para identificar acciones de regulación que puedan proporcionar al mercado efectos sostenibles de competencia en el largo plazo. Este artículo trata sobre la aplicación de la ingeniería de control para desarrollar un modelo integral del mercado, empleando redes neuronales para la predicción de trarifas de cada operador y un modelo de lógica difusa para predecir la demanda. Adicionalmente, se presenta un modelo de inferencia de lógica difusa para reproducir las estrategias de mercadeo de los operadores y la influencia sobre las tarifas. Dichos modelos permitirían la toma adecuada de decisiones y fueron validados con datos reales.