25 resultados para sintáticos

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se presenta un estudio de la resistencia mecánica del yeso, basado en su refuerzo mediante la adición de polímeros sintéticos, en forma de fibras y dispersiones acuosas. Se pretende mejorar las características mecánicas del yeso, entre cuyas cualidades se pueden enumerar las siguientes: abundancia en España, bajo coste energético, manejabilidad y propiedades de habitabilidad (acústicas, higrotérmicas, etc.). El aumento de las características mecánicas del yeso permite su utilización como elemento prefabricado laminar, con aplicación, en divisiones interiores, cielorrasos, etc. La tesis plantea el refuerzo del yeso mediante la utilización de polímeras sintéticos, debido a que ambos materiales presentan un análogo sistema de cohesión en su nivel estructural, por medio de fuerzas de Van der Waals. Este sistema de cohesión es el responsable de la adherencia que se establece entre la matriz de yeso y las adiciones de refuerzo, que provoca la generación de cristales de dihidrato en la superficie de las fibras, consiguiendo una unión íntima de los dos materiales durante su fabricación. Se realiza un estudio teórico sobre la estructura interna y propiedades de los polímeros sintéticos, que concluye en la selección de aquéllos que se consideran idóneos para su adición al yeso. Este estudio teórico se complementa: con el análisis de cada uno de los polímeros seleccionados en función del proceso de fabricación para III crear fibras o dispersiones, y can un estudio teórico sobre materiales reforzados que sienta los fundamentos que sirven de base para el análisis de resultados. Se realiza un proceso experimental que comprueba el comportamiento conjunto de cada una de las adiciones previamente seleccionadas y conlleva la selección de la fibra y la dispersión idóneas, así como de su porcentaje óptimo. Una vez seleccionada y optimizada la adición, se comprueba su idoneidad para la fabricación de placas y se realizan ensayos de resistencia a impacto y tracción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los polímeros de impronta molecular (MIPs) son materiales sintéticos que presentan propiedades de reconocimiento molecular específico hacia determinados compuestos. Estos materiales con “memoria selectiva” presentan un elevado potencial analítico como sustitutos de elementos de reconocimiento de origen biológico para el desarrollo de sensores, como sorbentes en procesos de extracción en fase sólida (SPE) y como fases estacionarias para HPLC y CE. La síntesis de estos materiales se basa en la formación de una estructura polimérica, altamente entrecruzada, alrededor de una molécula que actúa como plantilla que se extrae después de la polimerización. De esta forma, el MIP contendrá sitios de unión que son complementarios a la molécula plantilla en forma, tamaño y distribución de grupos funcionales que permiten su reconocimiento posterior, de forma selectiva Los MIPs suelen presentar ventajas interesantes en comparación con los receptores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta en este trabajo una nueva caracterización del movimiento del suelo en la presa de Itoiz, consistente con la peligrosidad sísmica del emplazamiento. En primer lugar, proponemos una metodología con tres niveles de aproximación al movimiento esperado, que es después aplicada considerando las características particulares de la presa y su emplazamiento. Los cálculos de peligrosidad se realizan siguiendo la línea metodológica conocida como PSHA, con un método probabilista zonificado y formulando un árbol lógico que combina diferentes zonificaciones sísmicas y modelos de movimiento fuerte. La peligrosidad se representa en términos de la aceleración pico PGA y de las aceleraciones espectrales para periodos coincidentes con los de vibración de la presa, considerando dos estados de la misma correspondientes a presa vacía (T=0.1s) y presa con capacidad máxima de llenado (T=0.22 s). Se caracterizan los correspondientes movimientos para dos periodos de retorno, 975 años y 4975 años, asociados al sismo de proyecto y al sismo extremo, respectivamente. El efecto de sitio en el emplazamiento de la presa también fue tenido en cuenta. La metodología propuesta conduce a caracterizar el movimiento con tres niveles de detalle. En una primera etapa se obtienen los espectros de respuesta uniforme (UHS) para los dos niveles de movimiento referidos. Seguidamente se desarrolla un análisis de desagregación para obtener los sismos de control que previsiblemente pueden afectar mas a la presa. Estos se identifican como los que más contribuyen a los movimientos objeto dados por las aceleraciones espectrales de los dos periodos característicos, SA (0,1 s) y SA (0.22 s) y para los dos periodos de retorno de 975 y 4975 años asociados a lo sismos de proyecto y extremo. De ahí se obtienen los espectros de respuesta específicos para las cuatro combinaciones resultantes. Finalmente, se realiza una simulación del movimiento en el dominio del tiempo, obteniendo acelerogramas sintéticos mediante el método de número de onda discreto. Las simulaciones se realizaron considerando fuentes finitas en diferentes posiciones y evaluando el efecto de la directividad en las posibles fuentes consideradas. Se concluye destacando la importancia del efecto de directividad, en la caracterización del emplazamiento de la presa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diabetes mellitus es un trastorno del metabolismo de los carbohidratos producido por la insuficiente o nula producción de insulina o la reducida sensibilidad a esta hormona. Es una enfermedad crónica con una mayor prevalencia en los países desarrollados debido principalmente a la obesidad, la vida sedentaria y disfunciones en el sistema endocrino relacionado con el páncreas. La diabetes Tipo 1 es una enfermedad autoinmune en la que son destruidas las células beta del páncreas, que producen la insulina, y es necesaria la administración de insulina exógena. Un enfermo de diabetes Tipo 1 debe seguir una terapia con insulina administrada por la vía subcutánea que debe estar adaptada a sus necesidades metabólicas y a sus hábitos de vida, esta terapia intenta imitar el perfil insulínico de un páncreas no patológico. La tecnología actual permite abordar el desarrollo del denominado “páncreas endocrino artificial”, que aportaría precisión, eficacia y seguridad para los pacientes, en cuanto a la normalización del control glucémico y reducción del riesgo de hipoglucemias. Permitiría que el paciente no estuviera tan pendiente de su enfermedad. El páncreas artificial consta de un sensor continuo de glucosa, una bomba de infusión de insulina y un algoritmo de control, que calcula la insulina a infusionar usando la glucosa como información principal. Este trabajo presenta un método de control en lazo semi-cerrado mediante un sistema borroso experto basado en reglas. La regulación borrosa se fundamenta en la ambigüedad del lenguaje del ser humano. Esta incertidumbre sirve para la formación de una serie de reglas que representan el pensamiento humano, pero a la vez es el sistema que controla un proceso, en este caso el sistema glucorregulatorio. Este proyecto está enfocado en el diseño de un controlador borroso que haciendo uso de variables como la glucosa, insulina y dieta, sea capaz de restaurar la función endocrina del páncreas de forma tecnológica. La validación del algoritmo se ha realizado principalmente mediante experimentos en simulación utilizando una población de pacientes sintéticos, evaluando los resultados con estadísticos de primer orden y algunos más específicos como el índice de riesgo de Kovatchev, para después comparar estos resultados con los obtenidos por otros métodos de control anteriores. Los resultados demuestran que el control borroso (FBPC) mejora el control glucémico con respecto a un sistema predictivo experto basado en reglas booleanas (pBRES). El FBPC consigue reducir siempre la glucosa máxima y aumentar la mínima respecto del pBRES pero es en terapias desajustadas, donde el FBPC es especialmente robusto, hace descender la glucosa máxima 8,64 mg/dl, el uso de insulina es 3,92 UI menor, aumenta la glucosa mínima 3,32 mg/dl y lleva al rango de glucosa 80 – 110 mg/dl 15,33 muestras más. Por lo tanto se puede concluir que el FBPC realiza un mejor control glucémico que el controlador pBRES haciéndole especialmente efectivo, robusto y seguro en condiciones de desajustes de terapia basal y con gran capacidad de mejora futura. SUMMARY The diabetes mellitus is a metabolic disorder caused by a poor or null insulin secretion or a reduced sensibility to insulin. Diabetes is a chronic disease with a higher prevalence in the industrialized countries, mainly due to obesity, the sedentary life and endocrine disfunctions connected with the pancreas. Type 1 diabetes is a self-immune disease where the beta cells of the pancreas, which are the responsible of secreting insulin, are damaged. Hence, it is necessary an exogenous delivery of insulin. The Type 1 diabetic patient has to follow a therapy with subcutaneous insulin administration which should be adjusted to his/her metabolic needs and life style. This therapy tries to mimic the insulin profile of a non-pathological pancreas. Current technology lets the development of the so-called endocrine artificial pancreas that would provide accuracy, efficiency and safety to patients, in regards to the glycemic control normalization and reduction of the risk of hypoglycemic. In addition, it would help the patient not to be so concerned about his disease. The artificial pancreas has a continuous glucose sensor, an insulin infusion pump and a control algorithm, that calculates the insulin infusion using the glucose as main information. This project presents a method of control in semi-closed-loop, through an expert fuzzy system based on rules. The fuzzy regulation is based on the human language ambiguity. This uncertainty serves for construction of some rules that represent the human language besides it is the system that controls a process, in this case the glucoregulatory system. This project is focus on the design of a fuzzy controller that, using variables like glucose insulin and diet, will be able to restore the pancreas endocrine function with technology. The algorithm assessment has mainly been done through experiments in simulation using a population of synthetic patients, evaluating the results with first order statistical parameters and some other more specific such as the Kovatchev risk index, to compare later these results with the ones obtained in others previous methods of control. The results demonstrate that the fuzzy control (FBPC) improves the glycemic control connected with a predictive expert system based on Booleans rules (pBRES). The FBPC is always able to reduce the maximum level of glucose and increase the minimum level as compared with pBRES but it is in unadjusted therapies where FBPC is especially strong, it manages to decrease the maximum level of glucose and insulin used by 8,64 mg/dl and 3,92 UI respectively, also increases the value of minimum glucose by 3,32 mg/dl, getting 15,33 samples more inside the 80-110 mg/dl glucose rank. Therefore we can conclude that FBPC achieves a better glycemic control than the controller pBRES doing it especially effective, robust and safe in conditions of mismatch basal therapy and with a great capacity for future improvements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy en día, con la evolución continua y rápida de las tecnologías de la información y los dispositivos de computación, se recogen y almacenan continuamente grandes volúmenes de datos en distintos dominios y a través de diversas aplicaciones del mundo real. La extracción de conocimiento útil de una cantidad tan enorme de datos no se puede realizar habitualmente de forma manual, y requiere el uso de técnicas adecuadas de aprendizaje automático y de minería de datos. La clasificación es una de las técnicas más importantes que ha sido aplicada con éxito a varias áreas. En general, la clasificación se compone de dos pasos principales: en primer lugar, aprender un modelo de clasificación o clasificador a partir de un conjunto de datos de entrenamiento, y en segundo lugar, clasificar las nuevas instancias de datos utilizando el clasificador aprendido. La clasificación es supervisada cuando todas las etiquetas están presentes en los datos de entrenamiento (es decir, datos completamente etiquetados), semi-supervisada cuando sólo algunas etiquetas son conocidas (es decir, datos parcialmente etiquetados), y no supervisada cuando todas las etiquetas están ausentes en los datos de entrenamiento (es decir, datos no etiquetados). Además, aparte de esta taxonomía, el problema de clasificación se puede categorizar en unidimensional o multidimensional en función del número de variables clase, una o más, respectivamente; o también puede ser categorizado en estacionario o cambiante con el tiempo en función de las características de los datos y de la tasa de cambio subyacente. A lo largo de esta tesis, tratamos el problema de clasificación desde tres perspectivas diferentes, a saber, clasificación supervisada multidimensional estacionaria, clasificación semisupervisada unidimensional cambiante con el tiempo, y clasificación supervisada multidimensional cambiante con el tiempo. Para llevar a cabo esta tarea, hemos usado básicamente los clasificadores Bayesianos como modelos. La primera contribución, dirigiéndose al problema de clasificación supervisada multidimensional estacionaria, se compone de dos nuevos métodos de aprendizaje de clasificadores Bayesianos multidimensionales a partir de datos estacionarios. Los métodos se proponen desde dos puntos de vista diferentes. El primer método, denominado CB-MBC, se basa en una estrategia de envoltura de selección de variables que es voraz y hacia delante, mientras que el segundo, denominado MB-MBC, es una estrategia de filtrado de variables con una aproximación basada en restricciones y en el manto de Markov. Ambos métodos han sido aplicados a dos problemas reales importantes, a saber, la predicción de los inhibidores de la transcriptasa inversa y de la proteasa para el problema de infección por el virus de la inmunodeficiencia humana tipo 1 (HIV-1), y la predicción del European Quality of Life-5 Dimensions (EQ-5D) a partir de los cuestionarios de la enfermedad de Parkinson con 39 ítems (PDQ-39). El estudio experimental incluye comparaciones de CB-MBC y MB-MBC con los métodos del estado del arte de la clasificación multidimensional, así como con métodos comúnmente utilizados para resolver el problema de predicción de la enfermedad de Parkinson, a saber, la regresión logística multinomial, mínimos cuadrados ordinarios, y mínimas desviaciones absolutas censuradas. En ambas aplicaciones, los resultados han sido prometedores con respecto a la precisión de la clasificación, así como en relación al análisis de las estructuras gráficas que identifican interacciones conocidas y novedosas entre las variables. La segunda contribución, referida al problema de clasificación semi-supervisada unidimensional cambiante con el tiempo, consiste en un método nuevo (CPL-DS) para clasificar flujos de datos parcialmente etiquetados. Los flujos de datos difieren de los conjuntos de datos estacionarios en su proceso de generación muy rápido y en su aspecto de cambio de concepto. Es decir, los conceptos aprendidos y/o la distribución subyacente están probablemente cambiando y evolucionando en el tiempo, lo que hace que el modelo de clasificación actual sea obsoleto y deba ser actualizado. CPL-DS utiliza la divergencia de Kullback-Leibler y el método de bootstrapping para cuantificar y detectar tres tipos posibles de cambio: en las predictoras, en la a posteriori de la clase o en ambas. Después, si se detecta cualquier cambio, un nuevo modelo de clasificación se aprende usando el algoritmo EM; si no, el modelo de clasificación actual se mantiene sin modificaciones. CPL-DS es general, ya que puede ser aplicado a varios modelos de clasificación. Usando dos modelos diferentes, el clasificador naive Bayes y la regresión logística, CPL-DS se ha probado con flujos de datos sintéticos y también se ha aplicado al problema real de la detección de código malware, en el cual los nuevos ficheros recibidos deben ser continuamente clasificados en malware o goodware. Los resultados experimentales muestran que nuestro método es efectivo para la detección de diferentes tipos de cambio a partir de los flujos de datos parcialmente etiquetados y también tiene una buena precisión de la clasificación. Finalmente, la tercera contribución, sobre el problema de clasificación supervisada multidimensional cambiante con el tiempo, consiste en dos métodos adaptativos, a saber, Locally Adpative-MB-MBC (LA-MB-MBC) y Globally Adpative-MB-MBC (GA-MB-MBC). Ambos métodos monitorizan el cambio de concepto a lo largo del tiempo utilizando la log-verosimilitud media como métrica y el test de Page-Hinkley. Luego, si se detecta un cambio de concepto, LA-MB-MBC adapta el actual clasificador Bayesiano multidimensional localmente alrededor de cada nodo cambiado, mientras que GA-MB-MBC aprende un nuevo clasificador Bayesiano multidimensional. El estudio experimental realizado usando flujos de datos sintéticos multidimensionales indica los méritos de los métodos adaptativos propuestos. ABSTRACT Nowadays, with the ongoing and rapid evolution of information technology and computing devices, large volumes of data are continuously collected and stored in different domains and through various real-world applications. Extracting useful knowledge from such a huge amount of data usually cannot be performed manually, and requires the use of adequate machine learning and data mining techniques. Classification is one of the most important techniques that has been successfully applied to several areas. Roughly speaking, classification consists of two main steps: first, learn a classification model or classifier from an available training data, and secondly, classify the new incoming unseen data instances using the learned classifier. Classification is supervised when the whole class values are present in the training data (i.e., fully labeled data), semi-supervised when only some class values are known (i.e., partially labeled data), and unsupervised when the whole class values are missing in the training data (i.e., unlabeled data). In addition, besides this taxonomy, the classification problem can be categorized into uni-dimensional or multi-dimensional depending on the number of class variables, one or more, respectively; or can be also categorized into stationary or streaming depending on the characteristics of the data and the rate of change underlying it. Through this thesis, we deal with the classification problem under three different settings, namely, supervised multi-dimensional stationary classification, semi-supervised unidimensional streaming classification, and supervised multi-dimensional streaming classification. To accomplish this task, we basically used Bayesian network classifiers as models. The first contribution, addressing the supervised multi-dimensional stationary classification problem, consists of two new methods for learning multi-dimensional Bayesian network classifiers from stationary data. They are proposed from two different points of view. The first method, named CB-MBC, is based on a wrapper greedy forward selection approach, while the second one, named MB-MBC, is a filter constraint-based approach based on Markov blankets. Both methods are applied to two important real-world problems, namely, the prediction of the human immunodeficiency virus type 1 (HIV-1) reverse transcriptase and protease inhibitors, and the prediction of the European Quality of Life-5 Dimensions (EQ-5D) from 39-item Parkinson’s Disease Questionnaire (PDQ-39). The experimental study includes comparisons of CB-MBC and MB-MBC against state-of-the-art multi-dimensional classification methods, as well as against commonly used methods for solving the Parkinson’s disease prediction problem, namely, multinomial logistic regression, ordinary least squares, and censored least absolute deviations. For both considered case studies, results are promising in terms of classification accuracy as well as regarding the analysis of the learned MBC graphical structures identifying known and novel interactions among variables. The second contribution, addressing the semi-supervised uni-dimensional streaming classification problem, consists of a novel method (CPL-DS) for classifying partially labeled data streams. Data streams differ from the stationary data sets by their highly rapid generation process and their concept-drifting aspect. That is, the learned concepts and/or the underlying distribution are likely changing and evolving over time, which makes the current classification model out-of-date requiring to be updated. CPL-DS uses the Kullback-Leibler divergence and bootstrapping method to quantify and detect three possible kinds of drift: feature, conditional or dual. Then, if any occurs, a new classification model is learned using the expectation-maximization algorithm; otherwise, the current classification model is kept unchanged. CPL-DS is general as it can be applied to several classification models. Using two different models, namely, naive Bayes classifier and logistic regression, CPL-DS is tested with synthetic data streams and applied to the real-world problem of malware detection, where the new received files should be continuously classified into malware or goodware. Experimental results show that our approach is effective for detecting different kinds of drift from partially labeled data streams, as well as having a good classification performance. Finally, the third contribution, addressing the supervised multi-dimensional streaming classification problem, consists of two adaptive methods, namely, Locally Adaptive-MB-MBC (LA-MB-MBC) and Globally Adaptive-MB-MBC (GA-MB-MBC). Both methods monitor the concept drift over time using the average log-likelihood score and the Page-Hinkley test. Then, if a drift is detected, LA-MB-MBC adapts the current multi-dimensional Bayesian network classifier locally around each changed node, whereas GA-MB-MBC learns a new multi-dimensional Bayesian network classifier from scratch. Experimental study carried out using synthetic multi-dimensional data streams shows the merits of both proposed adaptive methods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La biología como tecnología que se utiliza para fabricar dispositivos y sistemas biológicos sintéticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A raíz de la implementación de las Directivas Marco del Agua de la CE se han producido una serie de cambios conceptuales en el estudio del agua. Hoy en día, el agua necesita ser estudiada no sólo como agente a controlar, sino también como recurso a gestionar, como bien a valorar y como elemento básico del ecosistema a preservar. En esta nueva etapa que se abre son indispensables disciplinas también nuevas que capaciten a los técnicos encargados de esta gestión : conocimientos avanzados para entender el comportamiento no sólo de las aguas superficiales, sino también de las subterráneas, costeras y de transición, aplicaciones informáticas , nuevos procedimientos para el control de la escorrentía superficial y la conservación de suelos entre otras las nuevas técnicas de ordenación de cultivos, herramientas que permitan conocer el funcionamiento de los ecosistemas fluviales, técnicas para caracterizar y clasificar los regímenes hidrológicos, procedimientos para la obtención de series de caudales sintéticos , metodologías que permitan valorar el grado de alteración hidrológica y estrategias para la propuesta de medidas correctoras, protocolos de análisis de la calidad de los ecosistemas acuáticos, metodologías y técnicas fluviales, conocer e implementar técnicas de modelización del hábitat fluvial, estudio de los riegos de inundaciones, etc…Todo ello supone una nueva manera de entender la educación, la ingeniería y la política ambiental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los espesadores son equipos de separación sólido-líquido en los que una suspensión de sólidos formando una pulpa, se alimenta a un tanque provisto de un mecanismo interno que mediante la acción de la gravedad permite concentrar los sólidos en el fondo y hace fluir el agua clarificada hacia la superficie para ser recogida en el rebose del tanque. Por lo general las partes que integran estos equipos de sedimentación en esencia son las mismas desde los primeros diseños, si bien los equipos más modernos presentan avances y nuevas tecnologías aplicadas principalmente a los componentes que integran el mecanismo interno, lo que proporciona un mayor rendimiento en su operación. Con el paso de los años, los espesadores de lodos han experimentado una gran reducción en el tamaño y en el diámetro requerido para una misma tasa de alimentación de sólidos. Así como se ha desarrollado una alta eficiencia de los floculantes de polímeros sintéticos, se ha conseguido una reducción en el tamaño y diámetro de los espesadores comparados con los primeros diseños convencionales que no usaban floculante; y donde los modernos espesadores maximizan su efectividad con el uso de diversos sistemas de alimentación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el primer capítulo se analizan las generalidades relativas al sismo. Tras algunas consideraciones sobre los fenómenos que aparecen durante un terremoto se describen algunos ejemplos históricos que han sido determinantes en el desarrollo del conocimiento y, finalmente, se plantean algunos problemas típicos de la ingeniería sísmica. En el siguiente capítulo se resumen algunos conceptos utilizados en la descripción física de la acción. Se trata de una presentación muy somera de temas en continua evolución. Se comienza con unas indicaciones sobre tectónica global que permiten hacerse una idea del origen de los terremotos en un marco general. A continuación se recuerdan algunos conceptos imprescindibles sobre propagación de ondas en medios elásticos, lo que permite comentar la composición de los acelerogramas, la estructura interna de la tierra y la localización de terremotos. Finalmente se incluyen las definiciones fenomenológicas e instrumentales utilizadas para describir el sismo, así como algunas correlaciones habituales entre ellas. En el capítulo posterior se desarrollan los criterios que permiten fijar la importancia de la acción sísmica en un emplazamiento determinado. Aunque aquéllos son semejantes para una cuantificación global y local se va a poner especial énfasis en la explicación de los métodos que han llevado al establecimiento del mapa sísmico español. En general cabe decir que el proyectista necesita evaluar los riesgos de diferentes niveles de daño con objeto de comparar soluciones alternativas. Para ello se precisa ser capaz de cuantificar y localizar la importancia de los sismos, el daño que producen en las estructuras así como cuantificar el coste generalizado (coste inicial+ beneficios+ coste de reparación) de la construcción. Tradicionalmente se ha empleado un enfoque determinista en que la solicitación sísmica se tomaba semejante a la máxima registrada históricamente. Tan solo en épocas recientes se ha impuesto una filosofía probabilista basada fundamentalmente en ideas expuestas por Cornell y Esteva en los años sesenta. En ambos casos se recurre a un estudio detallado de la estructura geotectónica de la región, en especial sus fallas activas, así como a la historia sísmica con localización de epicentros y asignación de intensidades que en nuestro país se puede basar en los catálogos existentes. En el caso determinista se postula que el máximo sismo histórico de cada falla se produce en la zona más próxima al emplazamiento, y utilizando fórmulas de atenuación se obtiene la característica de interés en aquel. En el último capítulo se van a describir métodos que, además de su aplicabilidad a sismos concretos han permitido la identificación de propiedades globales y, por tanto, la definición de la acción en función de un número limitado de parámetros. Aunque en un principio la descripción temporal fue la más usada, se ha observado que el contenido en frecuencias tiene una importancia capital y por ello se presentan sucesivamente ambos enfoques. Se dedica un apartado especial al concepto de espectro de respuesta elástica ya que está en la base de la mayoría de las recomendaciones de la normativa y recoge en forma muy sencilla una impresionante cantidad de información. Finalmente, se realizan breves indicaciones sobre los procedimientos utilizados para generar acelerogramas sintéticos que gocen de algunas de las propiedades globales puestas de manifiesto por las representaciones anteriores. Conviene remarcar que la importancia de los conceptos de densidad espectral o espectro de respuesta, radican no sólo en su capacidad para representar propiedades de un sismo dado sino, a través de su correspondiente normalización y promediación. En el último capítulo se incluyen algunas observaciones de interés sobre las modificaciones que las condiciones locales del suelo introducen en el movimiento sísmico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de la presente investigación es el desarrollo de un modelo de cálculo rápido, eficiente y preciso, para la estimación de los costes finales de construcción, en las fases preliminares del proyecto arquitectónico. Se trata de una herramienta a utilizar durante el proceso de elaboración de estudios previos, anteproyecto y proyecto básico, no siendo por tanto preciso para calcular el “predimensionado de costes” disponer de la total definición grafica y literal del proyecto. Se parte de la hipótesis de que en la aplicación práctica del modelo no se producirán desviaciones superiores al 10 % sobre el coste final de la obra proyectada. Para ello se formulan en el modelo de predimensionado cinco niveles de estimación de costes, de menor a mayor definición conceptual y gráfica del proyecto arquitectónico. Los cinco niveles de cálculo son: dos que toman como referencia los valores “exógenos” de venta de las viviendas (promoción inicial y promoción básica) y tres basados en cálculos de costes “endógenos” de la obra proyectada (estudios previos, anteproyecto y proyecto básico). El primer nivel de estimación de carácter “exógeno” (nivel .1), se calcula en base a la valoración de mercado de la promoción inmobiliaria y a su porcentaje de repercusión de suelo sobre el valor de venta de las viviendas. El quinto nivel de valoración, también de carácter “exógeno” (nivel .5), se calcula a partir del contraste entre el valor externo básico de mercado, los costes de construcción y los gastos de promoción estimados de la obra proyectada. Este contraste entre la “repercusión del coste de construcción” y el valor de mercado, supone una innovación respecto a los modelos de predimensionado de costes existentes, como proceso metodológico de verificación y validación extrínseca, de la precisión y validez de las estimaciones resultantes de la aplicación práctica del modelo, que se denomina Pcr.5n (Predimensionado costes de referencia con .5niveles de cálculo según fase de definición proyectual / ideación arquitectónica). Los otros tres niveles de predimensionado de costes de construcción “endógenos”, se estiman mediante cálculos analíticos internos por unidades de obra y cálculos sintéticos por sistemas constructivos y espacios funcionales, lo que se lleva a cabo en las etapas iniciales del proyecto correspondientes a estudios previos (nivel .2), anteproyecto (nivel .3) y proyecto básico (nivel .4). Estos cálculos teóricos internos son finalmente evaluados y validados mediante la aplicación práctica del modelo en obras de edificación residencial, de las que se conocen sus costes reales de liquidación final de obra. Según va evolucionando y se incrementa el nivel de definición y desarrollo del proyecto, desde los estudios previos hasta el proyecto básico, el cálculo se va perfeccionando en su nivel de eficiencia y precisión de la estimación, según la metodología aplicada: [aproximaciones sucesivas en intervalos finitos], siendo la hipótesis básica como anteriormente se ha avanzado, lograr una desviación máxima de una décima parte en el cálculo estimativo del predimensionado del coste real de obra. El cálculo del coste de ejecución material de la obra, se desarrolla en base a parámetros cúbicos funcionales “tridimensionales” del espacio proyectado y parámetros métricos constructivos “bidimensionales” de la envolvente exterior de cubierta/fachada y de la huella del edificio sobre el terreno. Los costes funcionales y constructivos se ponderan en cada fase del proceso de cálculo con sus parámetros “temáticos/específicos” de gestión (Pg), proyecto (Pp) y ejecución (Pe) de la concreta obra presupuestada, para finalmente estimar el coste de construcción por contrata, como resultado de incrementar al coste de ejecución material el porcentaje correspondiente al parámetro temático/especifico de la obra proyectada. El modelo de predimensionado de costes de construcción Pcr.5n, será una herramienta de gran interés y utilidad en el ámbito profesional, para la estimación del coste correspondiente al Proyecto Básico previsto en el marco técnico y legal de aplicación. Según el Anejo I del Código Técnico de la Edificación (CTE), es de obligado cumplimiento que el proyecto básico contenga una “Valoración aproximada de la ejecución material de la obra proyectada por capítulos”, es decir , que el Proyecto Básico ha de contener al menos un “presupuesto aproximado”, por capítulos, oficios ó tecnologías. El referido cálculo aproximado del presupuesto en el Proyecto Básico, necesariamente se ha de realizar mediante la técnica del predimensionado de costes, dado que en esta fase del proyecto arquitectónico aún no se dispone de cálculos de estructura, planos de acondicionamiento e instalaciones, ni de la resolución constructiva de la envolvente, por cuanto no se han desarrollado las especificaciones propias del posterior proyecto de ejecución. Esta estimación aproximada del coste de la obra, es sencilla de calcular mediante la aplicación práctica del modelo desarrollado, y ello tanto para estudiantes como para profesionales del sector de la construcción. Como se contiene y justifica en el presente trabajo, la aplicación práctica del modelo para el cálculo de costes en las fases preliminares del proyecto, es rápida y certera, siendo de sencilla aplicación tanto en vivienda unifamiliar (aisladas y pareadas), como en viviendas colectivas (bloques y manzanas). También, el modelo es de aplicación en el ámbito de la valoración inmobiliaria, tasaciones, análisis de viabilidad económica de promociones inmobiliarias, estimación de costes de obras terminadas y en general, cuando no se dispone del proyecto de ejecución y sea preciso calcular los costes de construcción de las obras proyectadas. Además, el modelo puede ser de aplicación para el chequeo de presupuestos calculados por el método analítico tradicional (estado de mediciones pormenorizadas por sus precios unitarios y costes descompuestos), tanto en obras de iniciativa privada como en obras promovidas por las Administraciones Públicas. Por último, como líneas abiertas a futuras investigaciones, el modelo de “predimensionado costes de referencia 5 niveles de cálculo”, se podría adaptar y aplicar para otros usos y tipologías diferentes a la residencial, como edificios de equipamientos y dotaciones públicas, valoración de edificios históricos, obras de urbanización interior y exterior de parcela, proyectos de parques y jardines, etc….. Estas lineas de investigación suponen trabajos paralelos al aquí desarrollado, y que a modo de avance parcial se recogen en las comunicaciones presentadas en los Congresos internacionales Scieconf/Junio 2013, Rics‐Cobra/Septiembre 2013 y en el IV Congreso nacional de patología en la edificación‐Ucam/Abril 2014. ABSTRACT The aim of this research is to develop a fast, efficient and accurate calculation model to estimate the final costs of construction, during the preliminary stages of the architectural project. It is a tool to be used during the preliminary study process, drafting and basic project. It is not therefore necessary to have the exact, graphic definition of the project in order to be able to calculate the cost‐scaling. It is assumed that no deviation 10% higher than the final cost of the projected work will occur during the implementation. To that purpose five levels of cost estimation are formulated in the scaling model, from a lower to a higher conceptual and graphic definition of the architectural project. The five calculation levels are: two that take as point of reference the ”exogenous” values of house sales (initial development and basic development), and three based on calculation of endogenous costs (preliminary study, drafting and basic project). The first ”exogenous” estimation level (level.1) is calculated over the market valuation of real estate development and the proportion the cost of land has over the value of the houses. The fifth level of valuation, also an ”exogenous” one (level.5) is calculated from the contrast between the basic external market value, the construction costs, and the estimated development costs of the projected work. This contrast between the ”repercussions of construction costs” and the market value is an innovation regarding the existing cost‐scaling models, as a methodological process of extrinsic verification and validation, of the accuracy and validity of the estimations obtained from the implementation of the model, which is called Pcr.5n (reference cost‐scaling with .5calculation levels according to the stage of project definition/ architectural conceptualization) The other three levels of “endogenous” construction cost‐scaling are estimated from internal analytical calculations by project units and synthetic calculations by construction systems and functional spaces. This is performed during the initial stages of the project corresponding to preliminary study process (level.2), drafting (level.3) and basic project (level.4). These theoretical internal calculations are finally evaluated and validated via implementation of the model in residential buildings, whose real costs on final payment of the works are known. As the level of definition and development of the project evolves, from preliminary study to basic project, the calculation improves in its level of efficiency and estimation accuracy, following the applied methodology: [successive approximations at finite intervals]. The basic hypothesis as above has been made, achieving a maximum deviation of one tenth, in the estimated calculation of the true cost of predimensioning work. The cost calculation for material execution of the works is developed from functional “three‐dimensional” cubic parameters for the planned space and constructive “two dimensional” metric parameters for the surface that envelopes around the facade and the building’s footprint on the plot. The functional and building costs are analyzed at every stage of the process of calculation with “thematic/specific” parameters of management (Pg), project (Pp) and execution (Pe) of the estimated work in question, and finally the cost of contractual construction is estimated, as a consequence of increasing the cost of material execution with the percentage pertaining to the thematic/specific parameter of the projected work. The construction cost‐scaling Pcr.5n model will be a useful tool of great interest in the professional field to estimate the cost of the Basic Project as prescribed in the technical and legal framework of application. According to the appendix of the Technical Building Code (CTE), it is compulsory that the basic project contains an “approximate valuation of the material execution of the work, projected by chapters”, that is, that the basic project must contain at least an “approximate estimate” by chapter, trade or technology. This approximate estimate in the Basic Project is to be performed through the cost‐scaling technique, given that structural calculations, reconditioning plans and definitive contruction details of the envelope are still not available at this stage of the architectural project, insofar as specifications pertaining to the later project have not yet been developed. This approximate estimate of the cost of the works is easy to calculate through the implementation of the given model, both for students and professionals of the building sector. As explained and justified in this work, the implementation of the model for cost‐scaling during the preliminary stage is fast and accurate, as well as easy to apply both in single‐family houses (detached and semi‐detached) and collective housing (blocks). The model can also be applied in the field of the real‐estate valuation, official appraisal, analysis of the economic viability of real estate developments, estimate of the cost of finished projects and, generally, when an implementation project is not available and it is necessary to calculate the building costs of the projected works. The model can also be applied to check estimates calculated by the traditional analytical method (state of measurements broken down into price per unit cost details), both in private works and those promoted by Public Authorities. Finally, as potential lines for future research, the “five levels of calculation cost‐scaling model”, could be adapted and applied to purposes and typologies other than the residential one, such as service buildings and public facilities, valuation of historical buildings, interior and exterior development works, park and garden planning, etc… These lines of investigation are parallel to this one and, by way of a preview, can be found in the dissertations given in the International Congresses Scieconf/June 2013, Rics‐Cobra/September 2013 and in the IV Congress on building pathology ‐Ucam/April 2014.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis contiene una investigación detallada sobre las características y funcionamiento de las máquinas de medición por visión. El objetivo fundamental es modelar su comportamiento y dotarlas de trazabilidad metrológica bajo cualquier condición de medida. Al efecto, se ha realizado un exhaustivo análisis de los elementos que conforman su cadena de medición, a saber: sistema de iluminación, estructura, lentes y objetivos, cámara, software de tratamiento de imágenes y software de cálculo. Se han definido modelos físico-matemáticos, de desarrollo propio, capaces de simular con fiabilidad el comportamiento de los elementos citados, agrupados, a efectos de análisis numérico, en dos subsistemas denominados: de visión y mecánico. Se han implementado procedimientos de calibración genuinos para ambos subsistemas mediante el empleo de patrones ópticos. En todos los casos se ha podido determinar la incertidumbre asociada a los diferentes parámetros involucrados, garantizando la trazabilidad metrológica de los resultados. Los distintos modelos desarrollados han sido implementados en Matlab®. Se ha verificado su validez empleando valores sintéticos obtenidos a partir de simulaciones informáticas y también con imágenes reales capturadas en el laboratorio. El estudio experimental y validación definitiva de los resultados se ha realizado en el Laboratorio de Longitud del Centro Español de Metrología y en el Laboratorio de Metrología Dimensional de la ETS de Ingeniería y Diseño Industrial de la UPM. Los modelos desarrollados se han aplicado a dos máquinas de medición por visión de diferentes características constructivas y metrológicas. Empleando dichas máquinas se han medido distintas piezas, pertenecientes a los ámbitos mecánico y oftalmológico. Los resultados obtenidos han permitido la completa caracterización dimensional de dichas piezas y la determinación del cumplimiento de las especificaciones metrológicas en todos los casos, incluyendo longitudes, formas y ángulos. ABSTRACT This PhD thesis contains a detailed investigation of characteristics and performance of the optical coordinate measurement machines. The main goal is to model their behaviour and provide metrological traceability to them under any measurement conditions. In fact, a thorough analysis of the elements which form the measuring chain, i.e.: lighting system, structure, lenses and objectives, camera, image processing software and coordinate metrology software has conducted. Physical-mathematical models, of self-developed, able to simulate with reliability the behavior of the above elements, grouped, for the purpose of numerical analysis, in two subsystems called: “vision subsystem” and “mechanical subsystem”, have been defined. Genuine calibration procedures for both subsystems have been implemented by use of optical standards. In all cases, it has been possible to determine the uncertainty associated with the different parameters involved, ensuring metrological traceability of results. Different developed models have been implemented in Matlab®. Their validity has been verified using synthetic values obtained from computer simulations and also with real images captured in laboratory. The experimental study and final validation of the results was carried out in the Length Laboratory of “Centro Español de Metrología” and Dimensional Metrology Laboratory of the “Escuela Técnica Superior de Ingeniería y Diseño Industrial” of the UPM. The developed models have been applied to two optical coordinate measurement machines with different construction and metrological characteristics. Using such machines, different parts, belonging to the mechanical and ophthalmologist areas, have been measured. The obtained results allow the full dimensional characterization of such parts and determination of compliance with metrological specifications in all cases, including lengths, shapes and angles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto fín de carrera describe el desarrollo de un sistema de estimación de mapas de profundidad densos a partir de secuencias reales de vídeo 3D. Está motivado por la necesidad de utilizar la información de profundidad de un vídeo estéreo para calcular las oclusiones en el módulo de inserción de objetos sintéticos interactivos desarrollado en el proyecto ImmersiveTV. En el receptor 3DTV, el sistema debe procesar en tiempo real secuencias estéreo de escenas reales en alta resolución con formato Side-by-Side. Se analizan las características del contenido para conocer los problemas a enfrentar. Obtener un mapa de profundidad denso mediante correspondencia estéreo (stereo matching) permite calcular las oclusiones del objeto sintético con la escena. No es necesario que el valor de disparidad asignado a cada píxel sea preciso, basta con distinguir los distintos planos de profundidad ya que se trabaja con distancias relativas. La correspondencia estéreo exige que las dos vistas de entrada estén alineadas. Primero se comprueba si se deben rectificar y se realiza un repaso teórico de calibración y rectificación, resumiendo algunos métodos a considerar en la resolución del problema. Para estimar la profundidad, se revisan técnicas de correspondencia estéreo densa habituales, seleccionando un conjunto de implementaciones con el fin de valorar cuáles son adecuadas para resolver el problema, incluyendo técnicas locales, globales y semiglobales, algunas sobre CPU y otras para GPU; modificando algunas para soportar valores negativos de disparidad. No disponer de ground truth de los mapas de disparidad del contenido real supone un reto que obliga a buscar métodos indirectos de comparación de resultados. Para una evaluación objetiva, se han revisado trabajos relacionados con la comparación de técnicas de correspondencia y entornos de evaluación existentes. Se considera el mapa de disparidad como error de predicción entre vistas desplazadas. A partir de la vista derecha y la disparidad de cada píxel, puede reconstruirse la vista izquierda y, comparando la imagen reconstruida con la original, se calculan estadísticas de error y las tasas de píxeles con disparidad inválida y errónea. Además, hay que tener en cuenta la eficiencia de los algoritmos midiendo la tasa de cuadros por segundo que pueden procesar. Observando los resultados, atendiendo a los criterios de maximización de PSNR y minimización de la tasa de píxeles incorrectos, se puede elegir el algoritmo con mejor comportamiento. Como resultado, se ha implementado una herramienta que integra el sistema de estimación de mapas de disparidad y la utilidad de evaluación de resultados. Trabaja sobre una imagen, una secuencia o un vídeo estereoscópico. Para realizar la correspondencia, permite escoger entre un conjunto de algoritmos que han sido adaptados o modificados para soportar valores negativos de disparidad. Para la evaluación, se ha implementado la reconstrucción de la vista de referencia y la comparación con la original mediante el cálculo de la RMS y PSNR, como medidas de error, además de las tasas de píxeles inválidos e incorrectos y de la eficiencia en cuadros por segundo. Finalmente, se puede guardar las imágenes (o vídeos) generados como resultado, junto con un archivo de texto en formato csv con las estadísticas para su posterior comparación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se presenta una metodología para la caracterización del oleaje, dentro del marco de las nuevas Recomendaciones para Obras Marítimas (ROM 0.0.-00 y ROM 1.0-09), por ser una de las principales acciones que afectan a la estabilidad de las estructuras marítimas. Debido al carácter aleatorio intrínsecamente multivariado de la acción considerada, las tormentas, su caracterización paramétrica se realiza en términos de funciones cópula uniparamétricas. Las variables consideradas son altura de ola significante del pico de la tormenta, el periodo medio asociado y la magnitud, o número de olas, de todo el ciclo de solicitación. Para establecer un patrón teórico de evolución de la tormenta que permita extrapolar las muestras fuera de la región con datos se analizan los modelos teóricos existentes, comprobándose que no reproducen adecuadamente las tormentas constituidas por estados de mar con un peso importante de oleaje swell. Para evitar esta limitación se proponen cuatro modelos teóricos de evolución de tormentas con distintas formas geométricas. El análisis de los modelos existentes y los propuestos pone de relieve que el Modelo Magnitud Equivalente de Tormenta (EMS= Equivalent Magnitude Storm) con la forma triangular es el que mejor adapta las tormentas constituidas por estados de mar típicos del viento. Para tormentas con un mayor grado de desarrollo, el modelo teórico de tormenta EMS con la forma trapezoidal es el adecuado. De las aproximaciones propuestas para establecer el periodo medio de los sucesivos estados de mar del ciclo de solicitación. la propuesta por Martín Soldevilla et al., (2009) es la más versátil y , en general , mejor reproduce la evolución de todo tipo de tormentas. La caracterización de las tormentas se complementa con la altura de ola máxima. Debido a la mayor disponibilidad y longitud temporal de los datos sintéticos frente a las registros, la práctica totalidad de los análisis de extremos se realizan con tormentas sintéticas en las que la distribución de olas individuales es desconocida. Para evitar esta limitación se utilizan modelos teóricos de distribución de olas acordes a las características de cada uno de los estados de mar que conforman la tormenta sintética. Para establecer dichas características se utiliza la curtosis y en función de su valor la altura de ola máxima se determina asumiendo una determinada distribución de olas. Para estados de mar lineales la distribución de olas individuales de Rayleigh es la considerada. Para condiciones no lineales de gran ancho de banda el modelo de distribución de olas propuesto por Dawson, (2004) es el utilizado y si es de banda estrecha las predicciones de (Boccotti, (1989), Boccotti et al., (2013)) se compara con las resultantes del modelo de Dawson. La caracterización de la evolución de las tormentas en términos multivariados es aplicada al estudio de la progresión del daño del manto principal de diques en talud, y al rebase de las olas. Ambos aspectos cubren el segundo objetivo de la tesis en el que se propone una nueva formulación para el dimensionamiento de mantos constituidos por bloques cúbicos de hormigón. Para el desarrollo de esta nueva formulación se han utilizado los resultados recogidos en los estudios de estabilidad del manto principal de diques talud realizados en modelo físico a escala reducida en el Centro de Estudios de Puertos y Costas (CEDEX) desde la década de los 80 empleando, en su mayoría, bloques paralelepípedos cúbicos de hormigón. Por este motivo y porque los últimos diques construidos en la costa Española utilizan este tipo de pieza, es por lo que la formulación planteada se centra en este tipo de pieza. Después de un primer análisis de las fórmulas de cálculo y de evolución existentes, se llega a la conclusión de que es necesario realizar un esfuerzo de investigación en este campo, así como ensayos en laboratorio y recogida de datos in-situ con base a desarrollar fórmulas de evolución de daño para mantos constituidos por piezas diferentes a la escollera, que tenga en cuenta las principales variables que condiciona su estabilidad. En esta parte de la tesis se propone un método de análisis de evolución de daño, que incluye el criterio de inicio de avería, adecuada para diques en talud constituidos por bloque cúbicos de hormigón y que considera la incidencia oblicua, el daño acumulado y el rebase. This thesis proposes a methodology to estimate sea waves, one of the main actions affecting the maritime structures stability, complying with (ROM 0.0.-00 & ROM 1.0-09.Due to the multivariate behavior of sea storms, the characterization of the structures of sea storms is done using copula function. The analyzed variables are the significant height wave, mean period and magnitude or number of waves during the storm history. The storm evolution in terms of the significant height wave and the mean period is also studied in other to analyze the progressive failure modes. The existing models of evolution are studied, verifying that these approximations do not adjust accurately for developed waves. To overcome this disadvantage, four evolution models are proposed, with some geometrical shapes associated to fit any development degree. The proposed Equivalent Magnitude Storm model, EMS, generally obtains the best results for any kind of storm (predominant sea, swell or both). The triangle is recommended for typical sea storms whereas the trapezoid shape is much more appropriate for more developed storm conditions.The Martín Soldevilla et al., (2009) approach to estimate the mean period is better than others approaches used.The storm characterization is completed with the maximum wave height of the whole storm history. Due to synthetic historical waves databases are more accessible and longer than recorded database, the extreme analyses are done with synthetic data. For this reason the individual waves’ distribution is not known. For that limitation to be avoided, and depending on the characteristics of every sea states, one theoretical model of waves is choose and used. The kurtosis parameter is used to distinguish between linear and nonlinear sea states. The Rayleigh model is used for the linear sea states. For the nonlinear sea states, Dawson, (2004) approach is used for non-narrow bandwidth storms, comparing the results with the Boccotti, (1989), Boccotti et al., (2013) approach, with is used for narrow bandwidth storms. The multivariate and storm evolution characterization is used to analyze of stone armour damage progression and wave overtopping discharge. Both aspects are included in the second part of the thesis, with a new formula is proposed to design cubes armour layer. The results the stability studies of armour layer, done in the Centre for Harbours and Coastal Studies (CEDEX) laboratory are used for defining a new stability formula. For this reason and because the last biggest breakwater built in Spain using the cube, the damage progression is analyze for this kind of concrete block. Before to analyze the existing formulae, it is concluded that it is necessary more investigation, more tests in laboratory and data gathering in situ to define damage evolution formulae to armour of other kind of pieces and that takes to account the principal variables. This thesis proposed a method to calculate the damage progression including oblique waves, accumulated damage, and overtopping effect. The method also takes account the beginning of the movement of the blocks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se presenta un análisis en profundidad de cómo se deben utilizar dos tipos de métodos directos, Lucas-Kanade e Inverse Compositional, en imágenes RGB-D y se analiza la capacidad y precisión de los mismos en una serie de experimentos sintéticos. Estos simulan imágenes RGB, imágenes de profundidad (D) e imágenes RGB-D para comprobar cómo se comportan en cada una de las combinaciones. Además, se analizan estos métodos sin ninguna técnica adicional que modifique el algoritmo original ni que lo apoye en su tarea de optimización tal y como sucede en la mayoría de los artículos encontrados en la literatura. Esto se hace con el fin de poder entender cuándo y por qué los métodos convergen o divergen para que así en el futuro cualquier interesado pueda aplicar los conocimientos adquiridos en esta tesis de forma práctica. Esta tesis debería ayudar al futuro interesado a decidir qué algoritmo conviene más en una determinada situación y debería también ayudarle a entender qué problemas le pueden dar estos algoritmos para poder poner el remedio más apropiado. Las técnicas adicionales que sirven de remedio para estos problemas quedan fuera de los contenidos que abarca esta tesis, sin embargo, sí se hace una revisión sobre ellas.---ABSTRACT---This thesis presents an in-depth analysis about how direct methods such as Lucas- Kanade and Inverse Compositional can be applied in RGB-D images. The capability and accuracy of these methods is also analyzed employing a series of synthetic experiments. These simulate the efects produced by RGB images, depth images and RGB-D images so that diferent combinations can be evaluated. Moreover, these methods are analyzed without using any additional technique that modifies the original algorithm or that aids the algorithm in its search for a global optima unlike most of the articles found in the literature. Our goal is to understand when and why do these methods converge or diverge so that in the future, the knowledge extracted from the results presented here can efectively help a potential implementer. After reading this thesis, the implementer should be able to decide which algorithm fits best for a particular task and should also know which are the problems that have to be addressed in each algorithm so that an appropriate correction is implemented using additional techniques. These additional techniques are outside the scope of this thesis, however, they are reviewed from the literature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El empleo de preparados comerciales de levaduras secas inactivas (LSI) se ha generalizado en la industria enológica con el fin de mejorar los procesos tecnológicos, así como las características sensoriales y la eliminación de compuestos indeseables en los vinos. Estos preparados se obtienen por crecimiento de la levadura vínica Saccharomyces cerevisiae en un medio rico en azúcares, y posterior inactivación y secado para obtener un producto en forma de polvo. Su composición puede incluir una fracción soluble procedente del citoplasma de la levadura (péptidos, aminoácidos, proteínas) y una fracción insoluble compuesta principalmente por las paredes celulares. Dependiendo de su composición, los preparados de LSI están indicados para distintas aplicaciones (activadores de la fermentación alcohólica y maloláctica, mejorar el color y el aroma de los vinos, etc). Sin embargo, a pesar de que el empleo de preparados de LSI está cada vez más extendido en la industria enológica, existen pocos estudios científicos encaminados a conocer sus efectos en el vino así como a discernir su modo de acción. Por ello, se ha planteado esta Tesis Doctoral con el principal objetivo de caracterizar la composición química de algunos de los preparados comerciales de LSI que actualmente más se están empleando en la elaboración de los vinos, así como determinar su modo de acción y su efecto tanto en la composición como en las características organolépticas de los vinos. Para la caracterización de preparados de LSI, en primer lugar se ha estudiado la cesión de compuestos nitrogenados y polisacáridos a medios vínicos, así como las diferencias entre preparados procedentes de diferentes casas comerciales e indicados para diferentes aplicaciones durante la vinificación. Los resultados de este estudio mostraron diferencias en la cesión de estos compuestos dependiendo del tipo de vino al que van dirigidos y de la casa comercial de la procedencia. Así, los preparados indicados para la elaboración de vinos tintos liberan una mayor concentración de polisacáridos, que están asociados a una modulación de la astringencia y de la protección del color de los vinos tintos, comparado con los indicados para vinos blancos. Sin embargo en estos últimos se determinó una mayor cesión de aminoácidos libres. Posteriormente, se estudió el efecto de componentes específicos presentes en preparados de LSI en el crecimiento de distintas especies de bacterias lácticas del vino. Se obtuvieron extractos de diferente composición empleando la extracción con fluidos presurizados, y se ensayó su actividad en el crecimiento de cepas bacterianas pertenecientes a las especies Lactobacillus hilgardii, Pediococcus pentosaceus y Oenococcus oeni. Los resultados de este trabajo mostraron que los distintos componentes presentes en los preparados de LSI pueden ejercer un efecto estimulante o inhibidor en el crecimiento de las bacterias lácticas, que depende del tipo de compuesto, de su concentración y de la especie bacteriana a ensayar. Entre los compuestos responsables del efecto estimulante se encuentran tanto aminoácidos esenciales como monosacáridos libres, mientras que los ácidos grasos de cadena corta y larga así como compuestos heterocíclicos volátiles originados por la reacción de Maillard parecen estar directamente implicados en el efecto inhibidor observado. En la tercera parte de este trabajo, se ha evaluado el papel de los preparados comerciales de LSI en el aroma y en las características organolépticas de los vinos. Para ello, empleando vinos sintéticos, se estudiaron por un lado, el efecto que los componentes cedidos por los preparados de LSI podrían tener en la volatilidad de compuestos del aroma ya presentes en el vino, y por otro lado, en la posible cesión al vino de compuestos odorantes presentes en los preparados y originados durante su fabricación. Los resultados de estos estudios pusieron de manifiesto que los preparados de LSI pueden modificar la volatilidad de compuestos del aroma del vino, dependiendo principalmente de las características físico-químicas del compuesto del aroma, del tiempo de permanencia del preparado en el vino y del tipo de preparado de LSI. Por otro lado, gracias al empleo de diferentes técnicas de extracción combinadas, la extracción con fluidos presurizados (PLE) y microextracción en fase sólida en el espacio de cabeza (HS-SPME) y posterior análisis por GO-MS, se caracterizó el perfil volátil de un preparado de LSI representativo del resto de los estudiados y se comprobó que estaba formado tanto por componentes procedentes de la levadura, como ácidos grasos de cadena corta y larga, así como por compuestos volátiles originados durante las etapas de fabricación de los preparados y resultantes de la reacción de Maillard. Se determinó a su vez, que algunos de estos compuestos volátiles, pueden ser cedidos tanto a medios vínicos, como a vinos reales. Concretamente, se comprobó que los preparados indicados para vinificación en blanco liberan una menor concentración de compuestos volátiles, y especialmente, de productos de la reacción de Maillard, que los indicados para vinificación en tinto. Estos compuestos, y principalmente los pertenecientes al grupo de las pirazinas, podrían modificar el perfil sensorial de los vinos, ya que son compuestos con, en general, bajos umbrales de percepción. Para intentar eliminar estos compuestos de los preparados, es decir, para su desodorización, en esta parte del trabajo, también se desarrolló una metodología basada en la extracción con CO2 supercrítico, que permitió la eliminación selectiva de este tipo de compuestos sin provocar modificaciones en su composición no volátil. Debido a la cantidad de preparados de LSI ricos en glutatión (GSH) disponibles en el mercado para mejorar las características sensoriales de los vinos, se estudió la cesión de este compuesto a medios vínicos. Para ello, se puso a punto una metodología que permitiera la cuantificación del GSH en sus diferentes formas (reducido y total), en vinos sintéticos y reales. El método se aplicó para cuantificar la cantidad de GSH aportada por los LSI a los vinos. Los resultados mostraron que los preparados de LSI indicados para vinificación en blanco y rosado liberaron, inmediatamente tras su adición a medios vínicos sintéticos, ♯y-glutamil-cisteína y GSH principalmente en su forma reducida a mayores concentraciones que los preparados indicados para otras aplicaciones. Por otro lado, se aislaron las fracciones de peso molecular <3000 Da de preparados de LSI y se emplearon para suplementar vinos sintéticos aromatizados con terpenos y sometidos a condiciones de envejecimiento acelerado. Los resultados revelaron una reducción en la oxidación por parte de las fracciones aisladas tanto de preparados de LSI ricos en glutatión como de preparados empleados como nutrientes de fermentación. Esta reducción era incluso mayor que cuando se empleaba el glutatión comercial, lo que indicaba la presencia de otros compuestos con propiedades antioxidantes. Finalmente, para conocer el efecto de los preparados de LSI a escala de bodega, se elaboraron a escala industrial dos tipos de vinos, con y sin la adición de un preparado de LSI rico en GSH, a escala industrial. En estos vinos, se determino el contenido en glutatión, y la evolución del color y de la composición fenólica y volátil durante la vinificación y a lo largo del envejecimiento en botella. Los resultados de este trabajo mostraron la capacidad del preparado de LSI de ceder glutatión en su forma reducida, aunque esté es rápidamente oxidado durante la fermentación alcohólica. Sin embargo, se comprobó que los vinos elaborados con el preparado presentaron mayor estabilidad de color y aroma a lo largo del envejecimiento en botella. De hecho, a los 9 meses de envejecimiento, se encontraron diferencias sensoriales entre los vinos con y sin el preparado. Sin embargo, estas diferencias sensoriales no fueron suficientes para que en el estudio de preferencia que se llevó a cabo con los mismos vinos, los consumidores mostraran preferencia hacia los vinos elaborados con el preparado de LSI.