818 resultados para fuzzy rule base models


Relevância:

30.00% 30.00%

Publicador:

Resumo:

The solutions to cope with new challenges that societies have to face nowadays involve providing smarter daily systems. To achieve this, technology has to evolve and leverage physical systems automatic interactions, with less human intervention. Technological paradigms like Internet of Things (IoT) and Cyber-Physical Systems (CPS) are providing reference models, architectures, approaches and tools that are to support cross-domain solutions. Thus, CPS based solutions will be applied in different application domains like e-Health, Smart Grid, Smart Transportation and so on, to assure the expected response from a complex system that relies on the smooth interaction and cooperation of diverse networked physical systems. The Wireless Sensors Networks (WSN) are a well-known wireless technology that are part of large CPS. The WSN aims at monitoring a physical system, object, (e.g., the environmental condition of a cargo container), and relaying data to the targeted processing element. The WSN communication reliability, as well as a restrained energy consumption, are expected features in a WSN. This paper shows the results obtained in a real WSN deployment, based on SunSPOT nodes, which carries out a fuzzy based control strategy to improve energy consumption while keeping communication reliability and computational resources usage among boundaries.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la mayoría de problemas de decisión a los que nos enfrentamos no hay evidencia sobre cuál es la mejor elección debido a la complejidad de los mismos. Esta complejidad está asociada a la existencia de múltiples objetivos conflictivos y a que en muchos casos solo se dispone de información incompleta o imprecisa sobre los distintos parámetros del modelo de decisión. Por otro lado, el proceso de toma de decisiones se puede realizar en grupo, debiendo incorporar al modelo las preferencias individuales de cada uno de los decisores y, posteriormente, agregarlas para alcanzar un consenso final, lo que dificulta más todavía el proceso de decisión. La metodología del Análisis de Decisiones (AD) es un procedimiento sistemático y lógico que permite estructurar y simplificar la tarea de tomar decisiones. Utiliza la información existente, datos recogidos, modelos y opiniones profesionales para cuantificar la probabilidad de los valores o impactos de las alternativas y la Teoría de la Utilidad para cuantificar las preferencias de los decisores sobre los posibles valores de las alternativas. Esta tesis doctoral se centra en el desarrollo de extensiones del modelo multicriterio en utilidad aditivo para toma de decisiones en grupo con veto en base al AD y al concepto de la intensidad de la dominancia, que permite explotar la información incompleta o imprecisa asociada a los parámetros del modelo. Se considera la posibilidad de que la importancia relativa que tienen los criterios del problema para los decisores se representa mediante intervalos de valores o información ordinal o mediante números borrosos trapezoidales. Adicionalmente, se considera que los decisores tienen derecho a veto sobre los valores de los criterios bajo consideración, pero solo un subconjunto de ellos es efectivo, teniéndose el resto solo en cuenta de manera parcial. ABSTRACT In most decision-making problems, the best choice is unclear because of their complexity. This complexity is mainly associated with the existence of multiple conflicting objectives. Besides, there is, in many cases, only incomplete or inaccurate information on the various decision model parameters. Alternatively, the decision-making process may be performed by a group. Consequently, the model must account for individual preferences for each decision-maker (DM), which have to be aggregated to reach a final consensus. This makes the decision process even more difficult. The decision analysis (DA) methodology is a systematic and logical procedure for structuring and simplifying the decision-making task. It takes advantage of existing information, collected data, models and professional opinions to quantify the probability of the alternative values or impacts and utility theory to quantify the DM’s preferences concerning the possible alternative values. This PhD. thesis focuses on developing extensions for a multicriteria additive utility model for group decision-making accounting for vetoes based on DA and on the concept of dominance intensity in order to exploit incomplete or imprecise information associated with the parameters of the decision-making model. We consider the possibility of the relative importance of criteria for DMs being represented by intervals or ordinal information, or by trapezoidal fuzzy numbers. Additionally, we consider that DMs are allowed to provide veto values for the criteria under consideration, of which only a subset are effective, whereas the remainder are only partially taken into account.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo de investigación se plantea el estudio del fenómeno de la retracción. El fenómeno de la retracción, al igual que otras propiedades del hormigón, ha sido ampliamente divulgado, pero de un tiempo a esta parte, debido a la aparición de nuevos tipos de hormigones (autocompactantes, de altas resistencias, reciclados, etc.) se ha dejado en un segundo plano. Este segundo plano no significa que haya pasado al olvido, pues en los “nuevos hormigones” se toman los modelos de estimación de los hormigones normales como base para estimar sus propiedades, siendo, por este motivo, muy necesario reflexionar sobre si los modelos que estamos empleando son apropiados o no lo son. Este trabajo pretende, mediante la confección de una base de datos que unifica y amplía la del profesor Bazant, realizar un análisis estadístico de los datos que actualmente tenemos a nuestra disposición, y que conforman un total de 802 ensayos que abarcan desde el fenómeno el entumecimiento hasta la retracción total, pasando por la retracción autógena, con un intervalo de tiempo que abarca desde 1958 hasta 2013. Además, este trabajo realiza una revisión de los siete modelos de cálculo más empleados a la hora de estimar la deformación por retracción, analizándolos minuciosamente y superponiéndolos con los datos reales de la base anteriormente nombrada. Como conclusión, se demuestra que los modelos estudiados estiman razonablemente bien el fenómeno de la retracción, si bien no se llegan a discriminar todas las variables con la precisión esperada, siendo alguno de ellos conservador. En este sentido, se abre la puerta a insistir en un estudio más afinado de la retracción del hormigón, por dos motivos: los actuales modelos sirven de base para la estimación de los anteriormente mencionados nuevos hormigones y porque la introducción y desarrollo de aditivos que sean capaces de disminuir este fenómeno deben asentarse ambos sobre una base más sólida y precisa. Por último, deja la puerta abierta para que otros trabajos de investigación puedan realizarse, bien con la retracción, bien con otras propiedades, como el módulo de deformación, la adquisición de resistencias, etc., pues se adjunta como anexo toda la base completa con más de 20.000 datos que pueden ser de gran utilidad. The main objective of this research study is to evaluate the phenomenon of shrinkage in concrete. The phenomenon of shrinkage, as well as other properties of concrete, has been widely studied, but for a time, and due to the emergence of new types of concrete (self-compacting, high strength, recycled, etc.) it has been left in the background. Having moved to second plane did not mean that it have been abandoned, since in the "new concrete" these properties are calculated using the estimation models developed for conventional concrete, and it is for this reason, why it is important and necessary to reflect whether these models we are using are appropriate or are not. This work seeks to unify and bring up-to-date a database of experimental shrinkage results. The database is based on existing databases, especially on the last version of the database created by Professor Bazant. The database includes a total of 802 experimental results, and include results for total shrinkage, autogenous shrinkage and swelling, and over experimental studies for 1958 to 2013. The database serves as a basis for a complex and detailed statistical analysis of the data. In addition, seven commonly used shrinkage estimation models are presented and evaluated. These models are used for a thoroughly comparison analysis between the estimated results obtained using these models and the actual experimental data included in the unified database. In conclusion, it is shown that the models estimate reasonably well the shrinkage strains, although they fail to discriminate adequately some of the influencing variables, resulting in some of them being too conservative in their estimation. In this sense, the results of this work emphasis the importance and the need of addition research on the shrinkage of concrete. This is especially important considering that the existing models provide a basis for estimating the shrinkage in "new concretes", and that the increase use of shrinkage reducing additives should be based and supported by solid research in this field. Finally, this study includes an extensive and updated database that can serve for further research on shrinkage. The full database, developed as part of this work, which includes more than 20,000 data, is included in the annex of the study.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Diabetes mellitus es una enfermedad caracterizada por la insuficiente o nula producción de insulina por parte del páncreas o la reducida sensibilidad del organismo a esta hormona, que ayuda a que la glucosa llegue a los tejidos y al sistema nervioso para suministrar energía. La Diabetes tiene una mayor prevalencia en los países desarrollados debido a múltiples factores, entre ellos la obesidad, la vida sedentaria, y disfunciones en el sistema endocrino relacionadas con el páncreas. La Diabetes Tipo 1 es una enfermedad crónica e incurable, en la que son destruidas las células beta del páncreas, que producen la insulina, haciéndose necesaria la administración de insulina de forma exógena para controlar los niveles de glucosa en sangre. El paciente debe seguir una terapia con insulina administrada por vía subcutánea, que debe estar adaptada a sus necesidades metabólicas y a sus hábitos de vida. Esta terapia intenta imitar el perfil insulínico de un páncreas sano. La tecnología actual permite abordar el desarrollo del denominado “páncreas endocrino artificial” (PEA), que aportaría precisión, eficacia y seguridad en la aplicación de las terapias con insulina y permitiría una mayor independencia de los pacientes frente a su enfermedad, que en la actualidad están sujetos a una constante toma de decisiones. El PEA consta de un sensor continuo de glucosa, una bomba de infusión de insulina y un algoritmo de control, que calcula la insulina a infusionar utilizando los niveles de glucosa del paciente como información principal. Este trabajo presenta una modificación en el método de control en lazo cerrado propuesto en un proyecto previo. El controlador del que se parte está compuesto por un controlador basal booleano y un controlador borroso postprandial basado en reglas borrosas heredadas del controlador basal. El controlador postprandial administra el 50% del bolo manual (calculado a partir de la cantidad de carbohidratos que el paciente va a consumir) en el instante del aviso de la ingesta y reparte el resto en instantes posteriores. El objetivo es conseguir una regulación óptima del nivel de glucosa en el periodo postprandial. Con el objetivo de reducir las hiperglucemias que se producen en el periodo postprandial se realiza un transporte de insulina, que es un adelanto de la insulina basal del periodo postprandial que se suministrará junto con un porcentaje variable del bolo manual. Este porcentaje estará relacionado con el estado metabólico del paciente previo a la ingesta. Además se modificará la base de conocimiento para adecuar el comportamiento del controlador al periodo postprandial. Este proyecto está enfocado en la mejora del controlador borroso postprandial previo, modificando dos aspectos: la inferencia del controlador postprandial y añadiendo una toma de decisiones automática sobre el % del bolo manual y el transporte. Se ha propuesto un controlador borroso con una nueva inferencia, que no hereda las características del controlado basal, y ha sido adaptado al periodo postprandial. Se ha añadido una inferencia borrosa que modifica la cantidad de insulina a administrar en el momento del aviso de ingesta y la cantidad de insulina basal a transportar del periodo postprandial al bolo manual. La validación del algoritmo se ha realizado mediante experimentos en simulación utilizando una población de diez pacientes sintéticos pertenecientes al Simulador de Padua/Virginia, evaluando los resultados con estadísticos para después compararlos con los obtenidos con el método de control anterior. Tras la evaluación de los resultados se puede concluir que el nuevo controlador postprandial, acompañado de la toma de decisiones automática, realiza un mejor control glucémico en el periodo postprandial, disminuyendo los niveles de las hiperglucemias. ABSTRACT. Diabetes mellitus is a disease characterized by the insufficient or null production of insulin from the pancreas or by a reduced sensitivity to this hormone, which helps glucose get to the tissues and the nervous system to provide energy. Diabetes has more prevalence in developed countries due to multiple factors, including obesity, sedentary lifestyle and endocrine dysfunctions related to the pancreas. Type 1 Diabetes is a chronic, incurable disease in which beta cells in the pancreas that produce insulin are destroyed, and exogenous insulin delivery is required to control blood glucose levels. The patient must follow a therapy with insulin administered by the subcutaneous route that should be adjusted to the metabolic needs and lifestyle of the patient. This therapy tries to imitate the insulin profile of a non-pathological pancreas. Current technology can adress the development of the so-called “endocrine artificial pancreas” (EAP) that would provide accuracy, efficacy and safety in the application of insulin therapies and will allow patients a higher level of independence from their disease. Patients are currently tied to constant decision making. The EAP consists of a continuous glucose sensor, an insulin infusion pump and a control algorithm that computes the insulin amount that has to be infused using the glucose as the main source of information. This work shows modifications to the control method in closed loop proposed in a previous project. The reference controller is composed by a boolean basal controller and a postprandial rule-based fuzzy controller which inherits the rules from the basal controller. The postprandial controller administrates 50% of the bolus (calculated from the amount of carbohydrates that the patient is going to ingest) in the moment of the intake warning, and distributes the remaining in later instants. The goal is to achieve an optimum regulation of the glucose level in the postprandial period. In order to reduce hyperglycemia in the postprandial period an insulin transport is carried out. It consists on a feedforward of the basal insulin from the postprandial period, which will be administered with a variable percentage of the manual bolus. This percentage would be linked with the metabolic state of the patient in moments previous to the intake. Furthermore, the knowledge base is going to be modified in order to fit the controller performance to the postprandial period. This project is focused on the improvement of the previous controller, modifying two aspects: the postprandial controller inference, and the automatic decision making on the percentage of the manual bolus and the transport. A fuzzy controller with a new inference has been proposed and has been adapted to the postprandial period. A fuzzy inference has been added, which modifies both the amount of manual bolus to administrate at the intake warning and the amount of basal insulin to transport to the prandial bolus. The algorithm assessment has been done through simulation experiments using a synthetic population of 10 patients in the UVA/PADOVA simulator, evaluating the results with statistical parameters for further comparison with those obtained with the previous control method. After comparing results it can be concluded that the new postprandial controller, combined with the automatic decision making, carries out a better glycemic control in the postprandial period, decreasing levels of hyperglycemia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Stream-mining approach is defined as a set of cutting-edge techniques designed to process streams of data in real time, in order to extract knowledge. In the particular case of classification, stream-mining has to adapt its behaviour to the volatile underlying data distributions, what has been called concept drift. Moreover, it is important to note that concept drift may lead to situations where predictive models become invalid and have therefore to be updated to represent the actual concepts that data poses. In this context, there is a specific type of concept drift, known as recurrent concept drift, where the concepts represented by data have already appeared in the past. In those cases the learning process could be saved or at least minimized by applying a previously trained model. This could be extremely useful in ubiquitous environments that are characterized by the existence of resource constrained devices. To deal with the aforementioned scenario, meta-models can be used in the process of enhancing the drift detection mechanisms used by data stream algorithms, by representing and predicting when the change will occur. There are some real-world situations where a concept reappears, as in the case of intrusion detection systems (IDS), where the same incidents or an adaptation of them usually reappear over time. In these environments the early prediction of drift by means of a better knowledge of past models can help to anticipate to the change, thus improving efficiency of the model regarding the training instances needed. By means of using meta-models as a recurrent drift detection mechanism, the ability to share concepts representations among different data mining processes is open. That kind of exchanges could improve the accuracy of the resultant local model as such model may benefit from patterns similar to the local concept that were observed in other scenarios, but not yet locally. This would also improve the efficiency of training instances used during the classification process, as long as the exchange of models would aid in the application of already trained recurrent models, that have been previously seen by any of the collaborative devices. Which it is to say that the scope of recurrence detection and representation is broaden. In fact the detection, representation and exchange of concept drift patterns would be extremely useful for the law enforcement activities fighting against cyber crime. Being the information exchange one of the main pillars of cooperation, national units would benefit from the experience and knowledge gained by third parties. Moreover, in the specific scope of critical infrastructures protection it is crucial to count with information exchange mechanisms, both from a strategical and technical scope. The exchange of concept drift detection schemes in cyber security environments would aid in the process of preventing, detecting and effectively responding to threads in cyber space. Furthermore, as a complement of meta-models, a mechanism to assess the similarity between classification models is also needed when dealing with recurrent concepts. In this context, when reusing a previously trained model a rough comparison between concepts is usually made, applying boolean logic. The introduction of fuzzy logic comparisons between models could lead to a better efficient reuse of previously seen concepts, by applying not just equal models, but also similar ones. This work faces the aforementioned open issues by means of: the MMPRec system, that integrates a meta-model mechanism and a fuzzy similarity function; a collaborative environment to share meta-models between different devices; a recurrent drift generator that allows to test the usefulness of recurrent drift systems, as it is the case of MMPRec. Moreover, this thesis presents an experimental validation of the proposed contributions using synthetic and real datasets.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La perdiz roja es la especie cinegética por excelencia en la península ibérica, cuya cría en cautividad y suelta controlada comenzó a regularse en los años 70 con la aparición del ICONA. La incubación controlada de huevos de perdiz es imprescindible, con fines cinegéticos y de preservación de la especie, y se desarrolla con incubadoras comerciales de pequeña y mediana escala, distribuidas en zonas rurales con acceso limitado y/o deficiente al suministro eléctrico. En nuestras latitudes el aporte de energía solar térmica se perfila como una posibilidad de mejorar la eficiencia energética de éstas y otras instalaciones y de reducir la dependencia energética exterior. Hay diversos factores físico-químicos que influyen en la calidad de la incubación: temperatura, humedad relativa, y concentración de gases, de los cuales sólo los dos primeros son habitualmente supervisados y controlados en este tipo de incubadoras. Esta Tesis surge en el marco de dos proyectos de cooperación con la AECID, y tiene como objetivos: la caracterización espacial de variables relevantes (temperatura (T), humedad relativa (HR)) en la incubadora comercial durante el proceso de incubación, la determinación de la relación existente entre la evolución de variables ambientales durante el proceso de incubación y la tasa de nacimientos (35-77%), así como el diseño y evaluación del sistema de apoyo solar térmico para determinar su potencial de utilización durante las incubaciones comerciales. La instalación de un número limitado de sensores permite la monitorización precisa del proceso de incubación de los huevos. Los resultados más relevantes indican que en incubaciones comerciales los gradientes de T y HR han sido despreciables (1ºC de diferencia entre las posiciones con mayor y menor T media y un 4,5% de diferencia entre las posiciones con mayor y menor HR), mientras que el seguimiento y ajuste (mediante modelos de crecimiento) de la concentración de CO2 (r2 entre 0,948 y 0,987 en las 5 incubaciones, para un total de 43315 huevos) permite valorar la actividad fisiológica de los huevos e incluso predecir la tasa de éxito (nacimientos), basándose en la concentración de CO2 estimada mediante modelos de crecimiento en el día 20 de incubación (r2 entre 0,997 y 0,994 según el modelo de estimación empleado). El sistema ha sido valorado muy positivamente por los productores (Finca Cinegética Dehesa Vieja de Galapagar). El aporte térmico se ha diseñado (con mínima intrusión en el sistema comercial) sobre la base de un sistema de enfriamiento de emergencia original de la incubadora, al que se han incorporado un colector solar, un depósito, un sistema de electroválvulas, una bomba de circulación y sensores de T en distintos puntos del sistema, y cuyo control ha sido automatizado. En esta Tesis se muestra que la contribución solar puede aportar hasta un 42% de las demandas de energía en nuestras condiciones geográficas para una temperatura de consigna dentro de la incubadora de 36.8ºC, sin afectar a la estabilidad de la temperatura. Además, el rendimiento del colector solar se ha acotado entre un 44% y un 85%, de acuerdo con los cálculos termodinámicos; valores que se mantienen dentro del rango aportado por el fabricante (61%). En el futuro se plantea evaluar el efecto de distintas estrategias de control, tales como controladores difusos, que incorporan el conocimiento experto al control automático. ABSTRACT The partridge is the quintessential game species in the Iberian Peninsula, which controlled breeding and release, began to be regulated in the 70s with the emergence of ICONA. The controlled incubation of eggs is essential, and takes place in commercial incubators of small and medium scale, distributed in rural areas with limited and/or inadequate access to power. In our latitudes the contribution of solar thermal energy is emerging as a possibility to improve the energy efficiency of the facilities and to reduce external energy dependence. There are various physicochemical factors influencing the quality of incubation: temperature, relative humidity and concentration of gases, of which only the first two are typically monitored and controlled in such incubators. This PhD comes within the framework of two cooperation projects with AECID and aims: the spatial characterization of relevant variables in a commercial incubator (temperature (T), and relative humidity (HR)), determining the relationships in the changes in environmental variables during incubation and birth rates (35-77%) as well as the design and evaluation of solar thermal support system to determine its potential use during commercial incubations; the installation of a limited number of sensors has allowed accurate monitoring of incubation of eggs. The most relevant results indicate that in commercial incubations, the gradients in T and HR have been negligible (1°C difference between the highest and lowest positions T and average 4.5% difference between the highest and lowest positions HR), while monitoring and fit using growth models of the concentration of CO2 (r2 between 0.948 and 0.987 in 5 incubations, for a total amount of 43,315 eggs) allows assessing the physiological activity of the eggs and even predict the success rate (hatchability), based on the estimated concentration of CO2 by using growth models on day 20 of incubation (r2 between 0.997 and 0.994 depending on the fit model).The system has been highly valued by producers (Finca Cinegética Dehesa Vieja de Galapagar). The hybrid heat system is designed (with minimal intrusion into the commercial system) based on an emergency cooling device, original in the incubator. New elements have been incorporated: a solar collector, a tank, a system of solenoid valves, a circulating pump and T sensors at various points of the system, whose control has been automated. This PhD shows that the solar contribution is responsible for up to 42% of energy demands in our geographical conditions for a setpoint temperature inside the incubator of 36.8ºC, without questioning the stability of the temperature. Furthermore, the efficiency of the solar collector has been bounded between 44% and 85%, according to thermodynamic calculations; values remain within the range provided by the manufacturer (61%). In the future it is proposed to evaluate the effect of different control strategies, such as fuzzy controllers, which incorporate the expertise to automated control.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El desarrollo de nuevas estructuras aeroespaciales optimizadas, utilizan materiales compuestos, para los componentes críticos y subsistemas, principalmente polímeros reforzados con fibra de carbono (CFRP). Un conocimiento profundo del estado de daño por fatiga de estructuras de CFRP avanzado, es esencial para predecir la vida residual y optimizar los intervalos de inspección estructural, reparaciones y/o sustitución de componentes. Las técnicas actuales se basan principalmente en la medición de cargas estructurales a lo largo de la vida útil de la estructura mediante galgas extensométricas eléctricas. Con esos datos, se estima la vida a fatiga utilizando modelos de acumulación de daño. En la presente tesis, se evalúa la metodología convencional para la estimación de la vida a fatiga de un CFRP aeronáutico. Esta metodología está basada en la regla de acumulación de daño lineal de Palmgren-Miner, y es aplicada para determinar la vida a fatiga de estructuras sometidas a cargas de amplitud variable. Se ha realizado una campaña de ensayos con cargas de amplitud constante para caracterizar un CFRP aeronáutico a fatiga, obteniendo las curvas clásicas S-N, en diferentes relaciones de esfuerzo. Se determinaron los diagramas de vida constante, (CLD), también conocidos como diagramas de Goodman, utilizando redes neuronales artificiales debido a la ausencia de modelos coherentes para materiales compuestos. Se ha caracterizado la degradación de la rigidez debido al daño por fatiga. Se ha ensayado un segundo grupo de probetas con secuencias estandarizadas de cargas de amplitud variable, para obtener la vida a fatiga y la degradación de rigidez en condiciones realistas. Las cargas aplicadas son representativas de misiones de aviones de combate (Falstaff), y de aviones de transporte (Twist). La vida a fatiga de las probetas cicladas con cargas de amplitud variable, se comparó con el índice de daño teórico calculado en base a la regla de acumulación de daño lineal convencional. Los resultados obtenidos muestran predicciones no conservativas. Esta tesis también presenta el estudio y desarrollo, de una nueva técnica de no contacto para evaluar el estado de daño por fatiga de estructuras de CFRP por medio de cambios de los parámetros de rugosidad. La rugosidad superficial se puede medir fácilmente en campo con métodos sin contacto, mediante técnicas ópticas tales como speckle y perfilómetros ópticos. En el presente estudio, se han medido parámetros de rugosidad superficial, y el factor de irregularidad de la superficie, a lo largo de la vida de las probetas cicladas con cargas de amplitud constante y variable, Se ha obtenido una buena tendencia de ajuste al correlacionar la magnitud de la rugosidad y el factor de irregularidad de la superficie con la degradación de la rigidez de las probetas fatigadas. Estos resultados sugieren que los cambios en la rugosidad superficial medida en zonas estratégicas de componentes y estructuras hechas de CFRP, podrían ser indicativas del nivel de daño interno debido a cargas de fatiga. Los resultados también sugieren que el método es independiente del tipo de carga de fatiga que ha causado el daño. Esto último hace que esta técnica de medición sea aplicable como inspección para una amplia gama de estructuras de materiales compuestos, desde tanques presurizados con cargas de amplitud constante, estructuras aeronáuticas como alas y colas de aeronaves cicladas con cargas de amplitud variable, hasta aplicaciones industriales como automoción, entre otros. ABSTRACT New optimized aerospace structures use composite materials, mainly carbon fiber reinforced polymer composite (CFRP), for critical components and subsystems. A strong knowledge of the fatigue state of highly advanced (CFRP) structures is essential to predict the residual life and optimize intervals of structural inspection, repairs, and/or replacements. Current techniques are based mostly on measurement of structural loads throughout the service life by electric strain gauge sensors. These sensors are affected by extreme environmental conditions and by fatigue loads in such a way that the sensors and their systems require exhaustive maintenance throughout system life. In the present thesis, the conventional methodology based on linear damage accumulation rules, applied to determine the fatigue life of structures subjected to variable amplitude loads was evaluated for an aeronautical CFRP. A test program with constant amplitude loads has been performed to obtain the classical S-N curves at different stress ratios. Constant life diagrams, CLDs, where determined by means of Artificial Neural Networks due to the absence of consistent models for composites. The stiffness degradation due to fatigue damage has been characterized for coupons under cyclic tensile loads. A second group of coupons have been tested until failure with a standardized sequence of variable amplitude loads, representative of missions for combat aircraft (Falstaff), and representative of commercial flights (Twist), to obtain the fatigue life and the stiffness degradation under realistic conditions. The fatigue life of the coupons cycled with variable amplitude loads were compared to the theoretical damage index calculated based on the conventional linear damage accumulation rule. The obtained results show non-conservative predictions. This thesis also presents the evaluation of a new non-contact technique to evaluate the fatigue damage state of CFRP structures by means of measuring roughness parameters to evaluate changes in the surface topography. Surface roughness can be measured easily on field with non-contact methods by optical techniques such as speckle and optical perfilometers. In the present study, surface roughness parameters, and the surface irregularity factor, have been measured along the life of the coupons cycled with constant and variable amplitude loads of different magnitude. A good agreement has been obtained when correlating the magnitude of the roughness and the surface irregularity factor with the stiffness degradation. These results suggest that the changes on the surface roughness measured in strategic zones of components and structures made of CFRP, could be indicative of the level of internal damage due to fatigue loads. The results also suggest that the method is independent of the type of fatigue load that have caused the damage. It makes this measurement technique applicable for a wide range of inspections of composite materials structures, from pressurized tanks with constant amplitude loads, to variable amplitude loaded aeronautical structures like wings and empennages, up to automotive and other industrial applications.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La arquitectura y la construcción deben generar un bien común para la sociedad y medio ambiente, los arquitectos tienen la responsabilidad de mitigar muchos efectos negativos que se generan en esta profesión; esto no es posible si los estudiantes egresan con un conocimiento nulo sobre la arquitectura sostenible; por lo que surge la inquietud de desarrollar la presente tesis, con el objetivo de aportar de una forma sutil al desarrollo de la arquitectura compartiendo conocimiento para generar conocimiento, ya que la investigación que a continuación se desarrolla está enfocada al desarrollo de la arquitectura sostenible en el campo de la formación de los estudiantes, donde se pueda enlazar los nuevos requerimientos profesionales planteados desde la sostenibilidad. La formación del arquitecto ha intentado abordar el conocimiento humanístico, técnico, cultural, tecnológico, calculo estructural, instalaciones y construcciones; sin embargo, se ha dejado a un lado lo que abarca la arquitectura sostenible, como calidad de vida, diseño bioclimático, energías renovables, normativas sostenibles, economía viable, emisiones, contaminación y residuos generados, materiales, elementos constructivos sostenibles, mancha urbana, huella ecológica, impacto ambiental y análisis del ciclo de vida, entre otras estrategias o elementos. A través de la investigación científica y profunda que se ha realizado, se busca conformar el conocimiento sistemático que contribuya a la resolución de los problemas de nuestra sociedad, ambiente y educación, con la elaboración de un sistema metodológico de evaluación y aplicación de sostenibilidad en los modelos educativos. Para desarrollar el sistema de evaluación y aplicación, se desarrolla una metodología de investigación donde se justifica la necesidad de la creación de dicho sistema, en base al análisis de la situación actual del medio ambiente y la relación directa con la arquitectura, construcción y conocimientos adquiridos en la formación de los estudiantes de arquitectura, donde se demuestra la importancia de la educación de la arquitectura sostenible en el desarrollo de las sociedades. En base al análisis de metodologías y sistemas que evalúan la sostenibilidad de los edificios y los sistemas que evalúan la educación, se propone uno propio para evaluar las asignaturas de los modelos educativos en base a elementos sostenibles propuestos. La presente investigación se enmarca en una estrategia general de promover la evaluación y aplicación de la sostenibilidad en los modelos educativos de las escuelas de arquitectura a nivel internacional; como caso de estudio se evaluará el plan de estudios llamado Minerva, de la Benemérita Universidad Autónoma de Puebla en México, donde he realizado una estancia de investigación y la Escuela Técnica Superior de Arquitectura de la Universidad Politécnica de Madrid en España, donde he cursado el doctorado. ABSTRACT Architecture and construction must generate a common good for the society and environment, the architects have the responsibility of mitigating many negative effects that are generated in this profession; this is not possible if the students graduate with a void knowledge on the sustainable architecture that is why the concern for developing the present thesis, with the aim to contribute to the development of the architecture sharing knowledge to generate knowledge, seeing as the investigation that later develops is focused on the development of the sustainable architecture in about the student’s professional training, where it could connect the new professional requirements raised from the sustainability. The architect’s professional training has tried to approach the humanistic, technical, cultural, technological knowledge, structural calculation, fittings and constructions; nevertheless, there has been left aside what includes the sustainable architecture, as quality of life, design bioclimatic, renewable energies, sustainable regulations, viable economy, emission, pollution and generated, material residues, constructive sustainable elements, urban spot, ecological fingerprint, environmental impact and analysis of the life cycle, between other strategies or elements. Across the scientific and deep research that has been realized, it reaches to make up the systematic knowledge that he contributes to the resolution of the problems of our society, environment and education, with the production of a methodological system of evaluation and application of sustainability in the educational models. To develop the system of evaluation and application, there is a methodology of research where it justifies itself the need of the creation of the above mentioned system, on the basis of the analysis of the current situation of the environment and the direct relationship with the architecture, construction and knowledge acquired in the architecture student’s education, where there is demonstrated the matter of the education of the sustainable architecture in the development of the companies. Based on the analysis of methodologies and systems that evaluate the sustainability of the buildings and the systems that evaluate the education, there is one own proposes to evaluate the subjects of the educational models on the basis of sustainable proposed elements. The present research places in a general strategy of promoting the evaluation and application of the sustainability in the educational models of the schools of architecture worldwide; since case of study will evaluate the study plan called Minerva, of the Meritorious Autonomous University of It Populates in Mexico, where I have realized a stay of researching and the Technical Top School of Architecture of the Technical University of Madrid in Spain, where the PHD has been done.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A cultura da cana-de-açúcar é a segunda maior movimentação econômica na cadeia do agronegócio no Brasil. Gera riquezas através da fabricação de açúcar, etanol e cogeração de energia elétrica, além de outros subprodutos. Considerada fonte de energia renovável, a cana-de- açúcar a princípio tinha sua imagem associada a impactos negativos principalmente devido as queimadas realizadas nas lavouras para colheita manual. Nos últimos anos, baseado em decretos e no Protocolo Agro-ambiental, essa prática vem sendo abolida. Para se manter e até mesmo aumentar o rendimento das colhedoras nos canaviais, os gestores têm adotado práticas para reduzir os terraços agrícolas, com impacto nos sistemas de conservação de solos. Assim, este trabalho teve como objetivo identificar os impactos ambientais provocados pela mecanização agrícola decorrente do mau manejo e dimensionamento dos mecanismos de conservação do solo. Neste estudo também se realizou uma análise à Equação Universal de Perdas de Solo (EUPS), como ferramenta para o dimensionamento de terraços agrícolas. O estudo foi realizado em uma microbacia hidrográfica, denominada Ribeirão da Bocaina, localizada na UGRHI-13 (Tietê - Jacaré). Foi possível identificar a variabilidade amostral do solo para o dimensionamento conservacionista, gerando curvas de nível com Desníveis Verticais (D.V) desuniformes, contrariando a sistemática atual de terraços que respeita cotas múltiplas ou mesmo dimensionamentos empiristas, segundo o conhecimento local e o histórico recente da área. Algumas sugestões também foram feitas afim de torná-la uma ferramenta ainda mais eficiente, considerando condições particulares à cultura da cana-de-açúcar, tais como a influência da palhada, sulcos de plantio e diversos tipos de terraços como meios de controle à erosão. A metodologia foi satisfatória, no que tange a compreensão pelos meios de correlação entre as práticas conservacionistas e modelos de predição de perda de solo, trazendo luz à ciência na interpretação das ferramentas existentes e as lacunas a serem preenchidas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As culturas do milho e da soja respondem pela maior parte da produção nacional de grãos, predominando o sistema de plantio direto. Para uma semeadura direta de qualidade, o bom aterramento do sulco é indispensável, pois garante um ambiente adequado às sementes. Neste sentido, é importante estimar a mobilização de solo promovida por uma haste sulcadora estreita durante esta operação. O modelo analítico existente visa representar a mobilização do solo no sistema de plantio convencional. Como consequência, há situações em que este não pode se aplicado, como no caso de hastes sulcadoras estreitas utilizadas em semeadoras de plantio direto. Nestas situações, o mecanismo de falha do solo pode se alterar, assumindo um comportamento não modelado na literatura. Essa pesquisa propõe um modelo fuzzy capaz de representar estas situações, aproveitando conhecimento da teoria de mecânica dos solos e da análise de resultados experimentais. No modelo proposto, parte das regras descrevem situações não abrangidas pelo modelo analítico, as quais foram formuladas a partir da estimativa das prováveis áreas de solo mobilizado. O modelo fuzzy foi testado com dados de experimentos conduzidos durante a pesquisa, em duas condições de granulometria de solo (arenoso e argiloso). O modelo proposto reproduziu as tendências observadas nos dados experimentais, mas superestimou os valores de área observados, sendo esse efeito bem mais intenso para os dados do experimento em solo arenoso. A superestimativa ocorreu devido à soma de diversos fatores. Um deles é a diferença entre as leituras experimentais, as quais consideram apenas o solo realmente movimentado, e a premissa do modelo analítico, que considera toda a área de solo incluindo aquela cisalhada, porém não mobilizada. Outro fator foi devido ao efeito do disco de corte da palha, que pré-cisalha o solo à frente da ferramenta. No ensaio em solo arenoso os valores observados de área de solo mobilizado foram menores que os esperados, intensificando o efeito de superestimativa do modelo fuzzy, sendo que este efeito não representa uma deficiência deste modelo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As cooperativas de crédito são instituições financeiras que têm como finalidade principal a prestação de serviços bancários e de intermediação financeira voltando-se para a geração de benefícios ao cooperado, através de benefícios econômicos encontrados sob a forma cooperativada. Considerando o objetivo destas organizações, o presente trabalho teve por objetivo avaliar a eficiência das mesmas considerando duas vertentes: 1) a atividade de intermediação financeira; e 2) a atividade de prestação de serviços bancários, a partir de variáveis contábeis. A técnica utilizada para a avaliação da eficiência foi a Análise Envoltória de Dados e foram analisados os determinantes da eficiência por meio de regressões do tipo Tobit. A amostra é composta por 315 cooperativas singulares listadas na base de dados do Banco Central do Brasil e foram utilizados os dados dos balancetes anuais e semestrais (soma dos semestres para as contas de resultado de cada ano) apresentados para período de 2007 a 2014. Os resultados indicaram baixa eficiência das cooperativas na prestação de serviços bancários, com 73% da amostra apresentando ineficiência ao longo de todos os anos do período em análise. Na atividade de intermediação financeira 20 cooperativas foram eficientes ao longo do período completo, com as demais apresentando graus de ineficiência abaixo de 16% em todos os anos. Quanto aos determinantes da eficiência, verificou-se como principais fatores na atividade de intermediação financeira a Imobilização, a Insolvência, o Descasamento Passivo e as Despesas Administrativas, enquanto na atividade de prestação de serviços os principais determinantes foram a Captação por Floating e as Despesas Administrativas. Os resultados da eficiência na intermediação financeira indicaram baixos graus de ineficiência, enquanto os altos graus de ineficiência na prestação de serviços bancários alertaram para a pouca importância dada ao fornecimentos destes serviços e para a importância de se utilizar dois modelos distintos para a avaliação da eficiência em cooperativas de crédito, dado o comportamento desvinculado entre as duas atividades avaliadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hardware/Software partitioning (HSP) is a key task for embedded system co-design. The main goal of this task is to decide which components of an application are to be executed in a general purpose processor (software) and which ones, on a specific hardware, taking into account a set of restrictions expressed by metrics. In last years, several approaches have been proposed for solving the HSP problem, directed by metaheuristic algorithms. However, due to diversity of models and metrics used, the choice of the best suited algorithm is an open problem yet. This article presents the results of applying a fuzzy approach to the HSP problem. This approach is more flexible than many others due to the fact that it is possible to accept quite good solutions or to reject other ones which do not seem good. In this work we compare six metaheuristic algorithms: Random Search, Tabu Search, Simulated Annealing, Hill Climbing, Genetic Algorithm and Evolutionary Strategy. The presented model is aimed to simultaneously minimize the hardware area and the execution time. The obtained results show that Restart Hill Climbing is the best performing algorithm in most cases.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper describes a study and analysis of surface normal-base descriptors for 3D object recognition. Specifically, we evaluate the behaviour of descriptors in the recognition process using virtual models of objects created from CAD software. Later, we test them in real scenes using synthetic objects created with a 3D printer from the virtual models. In both cases, the same virtual models are used on the matching process to find similarity. The difference between both experiments is in the type of views used in the tests. Our analysis evaluates three subjects: the effectiveness of 3D descriptors depending on the viewpoint of camera, the geometry complexity of the model and the runtime used to do the recognition process and the success rate to recognize a view of object among the models saved in the database.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper employs fifteen dynamic macroeconomic models maintained within the European System of Central Banks to assess the size of fiscal multipliers in European countries. Using a set of common simulations, we consider transitory and permanent shocks to government expenditures and different taxes. We investigate how the baseline multipliers change when monetary policy is transitorily constrained by the zero nominal interest rate bound, certain crisis-related structural features of the economy such as the share of liquidity-constrained households change, and the endogenous fiscal rule that ensures fiscal sustainability in the long run is specified in terms of labour income taxes instead of lump-sum taxes.