109 resultados para Métodos de estudio
em Universidad Politécnica de Madrid
Resumo:
Introducción. La prevalencia de la Diabetes Gestacional (DG) varía en todo el mundo, así como entre los grupos raciales y étnicos del mismo país. Hasta la fecha actual, no se ha llegado a un consenso en el criterio diagnóstico, y eso dificulta una estimación veraz de prevalencia entre países. A pesar de ello, es ineludible obviar el incremento en la incidencia de esta complicación en todo el mundo, y la trascendencia de sus riesgos a la salud pública. En España, según los criterios clásicos –del National Diabetes Data Group- existe una alta prevalencia en un 8,8 % de DG en gestantes. Es importante encontrar la mejor vía para la prevención de la DG y, uno de los factores de riesgo parece ser el aumento excesivo de peso durante el embarazo. El ejercicio es un elemento fundamental para el control del metabolismo de la glucosa y para reducir los niveles de hiperlipidemia. Sin embargo, existe controversia para definir el tipo de sesiones, duración e intensidad que puedan contribuir a su prevención. Objetivo. Conocer en qué medida el ejercicio físico programado durante el embarazo, combinado en agua y tierra, con ejercicios aeróbicos y de tonificación muscular, puede actuar como un factor de prevención de la DG. Al mismo tiempo, valorar si exceder las recomendaciones de peso puede influir el diagnóstico de la DG. Material y Métodos. Este estudio se desarrolló mediante una colaboración entre la Universidad Politécnica de Madrid y los Servicios de Ginecología y Obstetricia del Hospital Universitario de Puerta de Hierro, el Hospital Universitario de Torrelodones y el Centro de Salud de Torrelodones. Se obtuvo la aprobación del Comité Ético de Investigación Clínica (CEIC). Se realizó un ensayo clínico, aleatorizado, controlado, no enmascarado. 272 mujeres gestantes sanas dieron su consentimiento informado para la inclusión en el estudio. De las cuáles, finalmente 257 (edad= 33,2±4,4 años) fueron analizadas, 101 de ellas correspondientes al grupo intervención (GI, n=101) y 156 al grupo control (GC, n=156). El inicio del programa correspondió a la semana 10-14 del embarazo hasta el final, la 38-40. Con una frecuencia de 3 sesiones semanales y una duración de 60 y 50 minutos, en tierra y agua, respectivamente. Resultados. Se halló diferencias significativas en los valores en los 180 min del test de tolerancia oral a la glucosa [GI: 98,00±29,48 mg/dl vs. GC: 116,25±29,90 mg/dl (t64= 2,37; p= 0,021)] y, de igual modo, el GI mostró menor prevalencia de la DG [GI: 1 %, Ejercicio y DG n= 1 vs. GC: 8,8 %, n= 13 (2 1= 6,84; p= 0,009)] y una estimación de riesgo significativa (OR= 9,604; 95 % CI: 1,23-74,66). La excesiva ganancia de peso fue menor en el GI [GI: 22,8 %, n= 23 vs. GC: 34,9 %, n= 53 (2 1= 4,22; p= 0,040)], pero no existió una correlación con la incidencia de DG (ϕ= -0,007; p= 0,910). Conclusiones. El programa de ejercicio desarrollado durante el embarazo mostró efectividad en la reducción de la prevalencia de la DG, preservó la tolerancia a la glucosa y redujo la excesiva ganancia de peso materno. Background. The prevalence of Gestational Diabetes (GD) varies around the world, as well as between racial and ethnic groups within the same country. Currently, there is not a consensus about the diagnostic criteria, and that makes it difficult to obtain accurate estimates of prevalence between countries. The increased trend in the prevalence across the globe and the risks for public health cannot be ignored. In Spain, according to the diagnostic criteria of National Diabetes Data Group, there is a prevalence of 8.8 % for GD in pregnant women. It is important to look for the best way to prevent GD and one of the risk factors seems to be excessive weight gained during pregnancy. Exercise is an essential element for glucose metabolic control and reducing hyperlipidemia levels. However, there is controversy to define the type of activity, duration and intensity to prevent GD. Objective. To assess the effectiveness of an exercise programme carried out during pregnancy (land/aquatic activities), both aerobic and muscular conditioning can help to the prevent GD. Also, to assess if excessive maternal weight gain influences the GD diagnosis. Material and methods. Collaboration between the Technical University of Madrid and the Gynecology and Obstetrics Department of Puerta de Hierro University Hospital, Torrelodones University Hospital and Health Center of Torrelodones supported the study. It was approved by the Clinical Research Ethics Committee (CEIC). A clinical, randomized controlled trial recruited 272 pregnant women without obstetric contraindications and gave informed consent for inclusion in the study. Of these women, 257 were studied (age= 33,2±4,4 years), 101 in intervention group (IG, n= 101) and 156 in control group (CG, n= 156). A physical exercise program three times per week during pregnancy was developed. The duration of the sessions was 60 minutes and 50 minutes in land and water, respectively. Results. The IG showed lower maternal values in the Oral Glucose Tolerance Test (OGTT) at 180 minutes [IG: 98,00±29,48 mg/dl vs. CG: 116,25±29,90 mg/dl (t64= 2,37; p= 0,021)] and the IG reduced the prevalence of GD [IG: 1%, n= 1 vs. CG: 8,8 %, n= 13 (2 1= 6,84; p= 0,009)] with a significance risk estimate (OR= 9,604; 95 % CI: 1,23- 74,66). Excessive maternal weight gain was less in the IG [IG: 22,8 %, n= 23 vs. CG: Exercise and GD 34,9 %, n= 53 (2 1= 4,22; p= 0,040)] but there was no correlation with the prevalence of GD (ϕ= -0,007; p= 0,910). Conclusions. The exercise programme performed during pregnancy reduced the prevalence of GD, preserved glucose tolerance and reduced excessive maternal weight gain.
Resumo:
Introducción: Tanto el sobrepeso como la obesidad son un serio problema de salud que se encuentra en un alto porcentaje de la población española. El Estudio “Programas de Nutrición y Actividad Física para el Tratamiento del Sobrepeso y la Obesidad” (PRONAF) ha intentado optimizar el abordaje a dicho problema de salud con excelentes resultados. Las personas estudiadas en el presente trabajo pertenecieron al estudio PRONAF. Objetivo: Describir la evolución de los dos participantes en el proyecto PRONAF, analizando los motivos para la consecución o no del objetivo previsto. Material y métodos: El estudio PRONAF se llevó a cabo con 119 personas con sobrepeso y 120 personas con obesidad, con edades comprendidas entre los 18 y los 50 años, de nacionalidad española y tuvo una duración de 24 semanas. Los sujetos fueron aleatoriamente distribuidos en cuatro grupos; el primero realizaba entrenamiento con cargas más dieta; el segundo, entrenamiento aeróbico más dieta; el tercero una combinación de entrenamiento con cargas y aeróbico más dieta; el cuarto grupo, al que se puede denominar “control”, recibió recomendaciones de actividad física a realizar semanalmente y pautas nutricionales. Las personas analizadas en el presente trabajo pertenecieron al grupo “entrenamiento con cargas y aeróbico más dieta”. Resultados: Los resultados obtenidos revelan que, a pesar de haber perdido menos peso, Federico ha tenido más adherencia a la dieta que Juan y que, Juan, a pesar de tener mayor predisposición genética a ser obeso y perder con más dificultad peso, gracias a su alta adherencia al ejercicio, ha perdido más peso. Conclusiones: Tras haber analizado en profundidad los parámetros que han podido influir en la consecución de mayor pérdida de peso en Juan, se puede justificar que, para ambas personas, la adherencia al ejercicio ha tenido mayor repercusión que la adherencia a la dieta y que, los 3 genes en los que muestran diferencias ambas personas no pueden explicar la mayor pérdida de peso que ha tenido lugar en Juan.
Resumo:
El estudio de la calidad de servicio en transporte público ha tenido distintos enfoques, tanto en la investigación como en sus aplicaciones prácticas, tales como el desarrollo del método SERVQUAL, los proyectos QUATTRO y EQUIP de la Comisión Europea, el Transit Capacity and Quality of Service Manual y finalmente el estándar EN 13816, siendo la consideración principal la calidad desde el punto de vista del usuario, es decir, la calidad percibida, cuyo objetivo en la práctica trata de obtener un Índice de Satisfacción del Cliente como medida de la calidad global. Esta aproximación deja de lado aspectos tanto sobre calidad suministrada como sobre los suministradores del servicio, las administraciones y los operadores, particularmente en cuanto a las implicaciones económicas. El objetivo principal de la presente tesis es la estimación del impacto económico real de la mejora de atributos de calidad para un operador de autobús urbano. En el capítulo 2, se lleva a cabo un análisis del estado del arte sobre el estudio de la calidad, tanto de los métodos de estudio, como de su aplicación al campo de transporte público, y, específicamente, del estudio de costes. En los capítulos 3 y 4 se propone la aplicación de la metodología ABC (Activity Based Costing) para el caso de un contrato de servicio de transporte público en autobús en la Comunidad de Madrid, concretamente la conexión de Tres Cantos. Para ello se utilizan datos de encuestas de calidad esperada y percibida por los usuarios, junto con información económica y de actividad, así como entrevistas a personal de la empresa, conformando todo ello una metodología compacta de investigación y análisis. Los resultados de las encuestas y los análisis posteriores identificaron la frecuencia de servicio, la puntualidad de los autobuses y la seguridad de la conducción como las tres variables mas importantes desde el punto de vista del usuario, y ha sido en referencia a estas tres variables sobre las que se ha desarrollado la aplicación del método ABC contenida en el capítulo 5. Los resultados descritos en el capítulo 6 muestran la consistencia y la aplicabilidad de esta metodología, superando las simplificaciones de los procedimientos tradicionales contables. En cuanto a los resultados obtenidos, se ha comprobado que una aproximación tradicional basada en costes por kilometro puede llegar a sobrevalorar los costes asociados a mejoras de calidad hasta tres veces los costes calculados según el método ABC. Finalmente en el capítulo 7 se recogen las principales conclusiones y se apuntan algunas líneas futuras de investigación basadas en mejoras sobre la aplicación y transferibilidad de los resultados. The study of service quality and its implication for transport contracts has several approaches in research and practical applications, such as the development of the SERVQUAL method, the UE QUATTRO and EQUIP research projects, the Transit Capacity and Quality of Service Manual and finally the EN 13816 standard. In all cases the main stream is the consideration of quality from the user’s point of view, thus obtaining a Customer Satisfaction Index as a measurement of the overall service quality. This approach ignores quality consequences for transport providers, authorities and operators, particularly economic implications. The main target of this thesis is to estimate the real economic impact of improving quality attributes for a bus operator. Chapter 2 includes a thorough analysis of the state of the art of general methodologies on service quality, their applications for public transport, and particularly for quality costing. In chapters 3 and 4, the Activity Based Costing (ABC) methodology is proposed for a suburban bus contract in Madrid, Tres Cantos. Perceived and expected quality surveys are used together with economic and performance information, as well as interviews with key staff from the operator. The whole set of surveys, interviews and ABC methodology puts together a comprehensive approach for analysis and research. Surveys and subsequent analysis shows service headway, punctuality and safety as the three most important service attributes from the user’s point of view. The proposed methodology has been applied to these three variables, as described in chapter 5. Results obtained in chapter 6 show the consistency and practicality of this methodology, overcoming simplifications from traditional accounting procedures. According to the latter, a calculation of costs based on mileage can overvalue quality improvements up to three times the results following ABC methodology. Finally, in chapter 7, the main conclusions are highlighted and some future research is suggested in terms of application improvements as well as results transferability.
Resumo:
La inclusión de las variables ambientales en el proceso de toma de decisiones relacionado con las grandes infraestructuras de transporte debe estar basada en los resultados obtenidos después de evaluarlas científicamente. El paisaje visual, entendido como el resultado de la interacción entre el observador y su entorno, toma cada vez más importancia como aspecto ambiental a tener en cuenta, tanto para las autoridades como para la sociedad. La evaluación del paisaje permite integrar las variables territoriales y su relación con el observador. Es necesario profundizar en el conocimiento de la relación del paisaje con las infraestructuras de transporte, en concreto con las autopistas, para desarrollar metodologías y herramientas científicas necesarias para su correcta evaluación. El objetivo de esta tesis es aportar una metodología que permita que el paisaje se integre como elemento estructural y funcional en el diseño de las autopistas. La investigación realizada ha permitido analizar en profundidad las variables que influyen en la percepción del paisaje propio de las autopistas, cuantificar en qué grado las intervenciones de integración paisajística mejoran dicha percepción y aportar una metodología que permite evaluar el carácter y la calidad visual del paisaje empleando fotografías e indicadores que se calculan con la ayuda de un sistema de información geográfica.ABSTRACT The inclusion of environmental variables in the decision making process related to major transport infrastructures should be based on the results obtained after scientific evaluation. The visual landscape, understood as the result of the interaction between the observer and the environment, is becoming more important as an environmental aspect to consider, both for the authorities and society. Landscape evaluation integrates territorial variables and their relationship to the viewer. This thesis deepens the knowledge of the relationship between landscape and transport infrastructures, in particular the highways. The objective of this thesis is to provide a methodology that allows the landscape to be integrated as a structural and functional element in the design of highways. This research has allowed to analyze in depth the variables that influence the perception of the highways’ landscape, to quantify the extent to which integration measures improve landscape perception and to provide a methodology to assess the character and visual quality of the landscape using photographs and indicators calculated by geographic information systems.
Resumo:
El objetivo de este proyecto se basa en comprobar si es posible encontrar métodos de ajuste con los que poder corregir observaciones altimétricas con errores groseros, que pueden ser causados por el operador al realizar la observación o por otras circunstancias. El ajuste por el método clásico de mínimos cuadrados tiende a repartir los errores cometidos entre todas las observaciones, lo que da como resultado residuos muy elevados cuando se realiza el ajuste de una red cuyas observaciones poseen un error grosero o varios. Habitualmente, siempre y cuando haya redundancia en la toma de datos, se procederá a quitar la observación con mayor residuo y se realizará de nuevo el ajuste sin tener en cuenta dicha observación. También se estudiará el Test de Baarda y su comportamiento según sea el error cometido y el número de errores groseros que aparezcan en el ajuste. Pero el objetivo real es llevar a cabo un estudio en el que demostrar que el método de ajuste por técnicas de estimación robusta tiene una capacidad infinitamente superior a los mínimos cuadrados en la detección de errores groseros en observaciones, permitiendo de esta forma corregir dicho error e incluir esa observación en el ajuste. Este método de ajuste (estimación robusta) comenzó a emplearse en el campo de la fotogrametría. Es por ello que esta investigación irá encaminada al empleo de los estimadores robustos en aplicaciones topográficas. Se decidió iniciar este estudio porque era un proyecto innovador que nunca había sido realizado en altimetría y me inspiró un proyecto realizado anteriormente bastante similar a este pero centrándose en planimetría, con conclusiones muy favorables, lo que me animó a continuarlo centrándome en la altimetría.
Resumo:
Las normativas que regulan la seguridad de las presas en España han recogido la necesidad de conocer los desplazamientos y deformaciones de sus estructuras y cimientos. A día de hoy, son muchas las presas en explotación que no cuentan con un sistema de auscultación adecuado para controlar este tipo de variables, ya que la instalación de métodos clásicos de precisión en las mismas podría no ser viable técnicamente y, de serlo, supondría un coste económico importante y una dudosa garantía del proceso de ejecución de la obra civil correspondiente. Con el desarrollo de las nuevas tecnologías, la informática y las telecomunicaciones, han surgido nuevos sistemas de auscultación de desplazamientos. Los sistemas GPS actuales, diseñados para el control de estructuras, guiado de maquinaria, navegación y topografía, estabilidad de taludes, subsidencias, etc. permiten alcanzar precisiones centimétricas. El sistema de control de movimientos basado en la tecnología DGPS (GPS diferencial) combinada con un filtro estadístico con el que se alcanzan sensibilidades de hasta ±1 mm en el sistema, suficientes para una auscultación normal de presas según los requerimientos de la normativa actual. Esta exactitud se adapta a los desplazamientos radiales de las presas, donde son muy comunes valores de amplitudes en coronación de hasta 15 mm en las de gravedad y de hasta 45 mm en el caso de las presas bóveda o arco. La presente investigación tiene por objetivo analizar la viabilidad del sistema DGPS en el control de movimientos de presas de hormigón comparando los diferentes sistemas de auscultación y su correlación con las variables físicas y las vinculadas al propio sistema GPS diferencial. Ante la necesidad de dar respuesta a estas preguntas y de validar e incorporar a la mencionada tecnología en la ingeniería civil en España, se ha llevado a cabo un estudio de caso en La Aceña (Ávila). Esta es una de las pocas presas españolas que se está controlando con dicha tecnología y de forma simultánea con los sistemas clásicos de auscultación y algunos otros de reciente aplicación La presente investigación se ha organizado con idea de dar respuesta a varias preguntas que el explotador de presas se plantea y que no se analizan en el estado del arte de la técnica: cómo hacer la configuración espacial del sistema y cuáles son los puntos necesarios que se deben controlar, qué sistemas de comunicaciones son los más fiables, cuáles son los costes asociados, calibración del software, vida útil y mantenimientos requeridos, así como la posibilidad de telecontrolar los datos. Entre las ventajas del sistema DGPS, podemos señalar su bajo coste de implantación y posibilidad de controlarlo de forma remota, así como la exactitud y carácter absoluto de los datos. Además, está especialmente indicado para presas aisladas o mal comunicadas y para aquellas otras en las que el explotador no tiene referencia alguna de la magnitud de los desplazamientos o deformaciones propias de la presa en toda su historia. Entre los inconvenientes de cualquier sistema apoyado en las nuevas tecnologías, destaca la importancia de las telecomunicaciones ya sea en el nivel local en la propia presao desde su ubicación hasta el centro de control de la explotación. Con la experiencia alcanzada en la gestión de la seguridad de presas y sobre la base de la reciente implantación de los nuevos métodos de auscultación descritos, se ha podido analizar cada una de sus ventajas e inconvenientes. En el capítulo 5, se presenta una tabla de decisión para el explotador que servirá como punto de partida para futuras inversiones. El impacto de esta investigación se ha visto reflejado en la publicación de varios artículos en revistas indexadas y en el debate suscitado entre gestores y profesionales del sector en los congresos nacionales e internacionales en los que se han presentado resultados preliminares. All regulations on the safety of dams in Spain have collected the need to know the displacements and deformations of the structure and its foundation. Today there are many dams holding not have an adequate system of auscultation to control variables such as the installation of classical methods of precision in the same might not be technically feasible, and if so, would cost important economic and guarantee the implementation process of the dubious civil works. With the development of new technologies, computing and telecommunications, new displacements auscultation systems have emerged. Current GPS systems designed to control structures, machine guidance, navigation and topography, slope stability, subsidence, etc, allow to reach centimeter-level accuracies. The motion control system based on DGPS technology applies a statistical filter that sensitivities are achieved in the system to ± 1 mm, sufficient for normal auscultation of dams as required by current regulations. This accuracy is adapted to the radial displacement of dams, which are common values in coronation amplitudes up to 15 mm in gravity dams and up to 45 mm in arch or arc dams. This research aims to analyze the feasibility of DGPS system in controlling movements of concrete dams, comparing the different systems auscultation and its correlation with physical variables and linked to differential GPS system itself. Given the need to answer this question and to validate and incorporate this technology to civil engineering in Spain, has conducted a case study in real time at the dam La Aceña (Ávila). This dam is one of the few Spanish companies, which are controlling with this technology and simultaneously with the classic auscultation systems and some other recent application. This research has been organized with a view to responding to questions that the dam operator arises and in the state of the art technique not discussed: how to make spatial configuration of the system and what are the necessary control points what communication systems are the most reliable, what are the associated costs, calibration software, service life and maintenance requirements, possibility of monitoring, etc. Among the advantages we can point to its low cost of implementation, the possibility of remote, high accuracy and absolute nature of the data. It could also be suitable for those isolated or poorly communicated dams and those in which the operator has no reference to the magnitude of displacements or deformations own prey in its history. The disadvantages of any system based on the new technologies we highlight the importance of telecommunications, either locally or from this dam control center of the farm. With the experience gained in the management of dam safety and based on the recent introduction of new methods of auscultation described, it has been possible to analyze each of their advantages and disadvantages. A decision table for the operator, which will serve as a starting point for future investments is presented. The impact of research, has been reflected in the publication of several articles in refereed journals and discussion among managers and professionals in national and international conferences in which they participated.
Resumo:
El objetivo de este Trabajo de Fin de Grado es el estudio e implementación de estrategias de detección de objetos móviles basadas en el uso de Local Binary Patterns. Para ello, en primer lugar se han analizado los métodos de substracción de fondos basados en información de textura propuestos durante los últimos años. Como resultado de este análisis, se ha implementado una estrategia basada en Local Binary Patterns a la que posteriormente se le han añadido las mejoras que se han considerado más apropiadas, las cuales están destinadas tanto a reducir el coste computacional de la estrategia como a mejorar la calidad de los resultados obtenidos. Por último se ha realizado un estudio comparativo entre las estrategias implementadas y otros métodos populares empleados para la substracción de fondos, como los basados en el uso de mezclas de gaussianas.
Resumo:
Durante los últimos años, y debido a la gran demanda del transporte por ferrocarril, se están construyendo nuevas líneas así como mejorando otras ya existentes, para poder dar cabida a trenes más veloces que hagan disminuir el tiempo del trayecto. Las estructuras para ferrocarril de alta velocidad están sometidas a acciones dinámicas elevadas, ya que al efecto clásico de la carga (aislada) móvil se viene a sumar la resonancia que se manifiesta para velocidades por encima de 220 km/h. Es por ello que, cuando se va construir una nueva estructura o reacondicionar una ya existente, sea necesario realizar un profundo análisis mediante técnicas numéricas de cálculo dinámico con modelos de elementos finitos o mediante modelos analíticos o semianalíticos. El hecho de analizar mediante técnicas complejas (como pueden ser modelos tridimensionales de elementos finitos) todas y cada una de las estructuras de una línea ya existente, puede acarrear un coste no asumible de tiempo y dinero. Así pues, mediante este trabajo, el autor ha desarrollado algoritmos computacionales para poder realizar un análisis preliminar mediante modelos más sencillos, y sesgar así el número de casos que requieren un análisis más complejo. En el presente documento se expone toda la base matemática necesaria para el desarrollo de dichos programas, como son la descomposición modal, las soluciones analíticas de la respuesta de una estructura hiperestática (puentes continuos y pórticos intraslacionales) ante cargas móviles o la interacción vehículo-estructura. Finalmente se muestran los resultados y conclusiones obtenidos de un análisis que se ha llevado a cabo con las herramientas computacionales desarrolladas, ya mencionadas anteriormente, en un total de 77 estructuras semienterradas reales situadas en la línea Madrid-Zaragoza.
Resumo:
Este documento es la primera parte de los apuntes del curso de doctorado "Métodos analíticos y análisis de señal" del Máster Universitario en Tecnologías y Sistemas de Comunicaciones de la ETSIT-UPM. El objetivo del curso es reforzar los recursos matemáticos de los ingenieros de telecomunicación para facilitar la realización de la tesis doctoral. En esta primera parte se intenta facilitar el uso del álgebra lineal como herramienta en esta rama de la ingeniería. Esta parte del curso se divide en tres partes: - En los primeros temas, básicamente de repaso y nivelación, se aprovecha para establecer conexiones entre conceptos de álgebra lineal y de teoría de la señal. - A continuación se estudian el análisis de componentes principales, la descomposición en valores singulares y varias versiones del problema de mínimos cuadrados, temas que probablemente constituyen las herramientas fundamentales para abordar problemas de análisis de señales en términos de subespacios y distancias euclídeas. Los fundamentos proporcionados permiten abordar de forma sencilla otros problemas como el análisis discriminante lineal y el escalado multidimensional. - En los últimos temas se estudian las cuestiones fundamentales relativas a la implementación de algoritmos matriciales, como son ciertas factorizaciones matriciales y los conceptos de condicionamiento y estabilidad.
Resumo:
Este documento es la segunda parte de los apuntes del curso de doctorado "Métodos analíticos y análisis de señal" del Máster Universitario en Tecnologías y Sistemas de Comunicaciones de la ETSIT-UPM. El objetivo del curso es reforzar los recursos matemáticos de los ingenieros de telecomunicación para facilitar la realización de la tesis doctoral. En esta segunda parte se abordan algunos problemas que se formulan en espacios vectoriales de dimensión infinita. Por ello se comienza llamando la atención sobre las diferencias entre estos espacios y los de dimensión finita y proporcionando una introducción a los espacios de Hilbert separables, que son los espacios de dimensión infinita con propiedades más similares a las de los espacios de dimensión finita. Después se aborde el análisis de señales mediante ondículas, principalmente a través del concepto de análisis multirresolución, pero con referencia también a la transformada ondicular continua. Finalmente se proporciona una introducción al método de elementos finitos para la resolución numérica de ecuaciones en derivadas parciales.
Resumo:
La presente Tesis Doctoral aborda la aplicación de métodos meshless, o métodos sin malla, a problemas de autovalores, fundamentalmente vibraciones libres y pandeo. En particular, el estudio se centra en aspectos tales como los procedimientos para la resolución numérica del problema de autovalores con estos métodos, el coste computacional y la viabilidad de la utilización de matrices de masa o matrices de rigidez geométrica no consistentes. Además, se acomete en detalle el análisis del error, con el objetivo de determinar sus principales fuentes y obtener claves que permitan la aceleración de la convergencia. Aunque en la actualidad existe una amplia variedad de métodos meshless en apariencia independientes entre sí, se han analizado las diferentes relaciones entre ellos, deduciéndose que el método Element-Free Galerkin Method [Método Galerkin Sin Elementos] (EFGM) es representativo de un amplio grupo de los mismos. Por ello se ha empleado como referencia en este análisis. Muchas de las fuentes de error de un método sin malla provienen de su algoritmo de interpolación o aproximación. En el caso del EFGM ese algoritmo es conocido como Moving Least Squares [Mínimos Cuadrados Móviles] (MLS), caso particular del Generalized Moving Least Squares [Mínimos Cuadrados Móviles Generalizados] (GMLS). La formulación de estos algoritmos indica que la precisión de los mismos se basa en los siguientes factores: orden de la base polinómica p(x), características de la función de peso w(x) y forma y tamaño del soporte de definición de esa función. Se ha analizado la contribución individual de cada factor mediante su reducción a un único parámetro cuantificable, así como las interacciones entre ellos tanto en distribuciones regulares de nodos como en irregulares. El estudio se extiende a una serie de problemas estructurales uni y bidimensionales de referencia, y tiene en cuenta el error no sólo en el cálculo de autovalores (frecuencias propias o carga de pandeo, según el caso), sino también en términos de autovectores. This Doctoral Thesis deals with the application of meshless methods to eigenvalue problems, particularly free vibrations and buckling. The analysis is focused on aspects such as the numerical solving of the problem, computational cost and the feasibility of the use of non-consistent mass or geometric stiffness matrices. Furthermore, the analysis of the error is also considered, with the aim of identifying its main sources and obtaining the key factors that enable a faster convergence of a given problem. Although currently a wide variety of apparently independent meshless methods can be found in the literature, the relationships among them have been analyzed. The outcome of this assessment is that all those methods can be grouped in only a limited amount of categories, and that the Element-Free Galerkin Method (EFGM) is representative of the most important one. Therefore, the EFGM has been selected as a reference for the numerical analyses. Many of the error sources of a meshless method are contributed by its interpolation/approximation algorithm. In the EFGM, such algorithm is known as Moving Least Squares (MLS), a particular case of the Generalized Moving Least Squares (GMLS). The accuracy of the MLS is based on the following factors: order of the polynomial basis p(x), features of the weight function w(x), and shape and size of the support domain of this weight function. The individual contribution of each of these factors, along with the interactions among them, has been studied in both regular and irregular arrangement of nodes, by means of a reduction of each contribution to a one single quantifiable parameter. This assessment is applied to a range of both one- and two-dimensional benchmarking cases, and includes not only the error in terms of eigenvalues (natural frequencies or buckling load), but also of eigenvectors
Resumo:
En este trabajo de investigación se revisa desde un punto de vista crítico, el estado actual del conocimiento en el análisis de estructuras tridimensionales de mampostería. Se analizan los distintos métodos existentes, describiendo sus principales utilidades e intentando encontrar lagunas dentro de la perspectiva del análisis límite. Del estudio de los distintos métodos, se obtienen ideas para desarrollar un sistema rápido y eficaz, coherente con las necesidades del análisis de estructuras ya existentes. Se pretende crear las bases para un método global de análisis de estructuras de mampostería, basado en la plasticidad y las superficies antifuniculares. Diseñando un sistema que permita obtener de manera sencilla las superficies que únicamente trabajan a compresión, para las solicitaciones a las que debe hacer frente la estructura estudiada. Este sistema a su vez comparará las superficies obtenidas con la geometría de la construcción analizada. Este sistema permitirá mejorar la comprensión de este tipo de estructuras, siendo necesaria la interacción del usuario para poder decidir cuál de todas las soluciones es la que mejor se adapta al funcionamiento de la estructura. Una vez desarrollado el sistema se comprobarán los resultados obtenidos, validándolos con experiencias anteriormente realizadas por otros sistemas y demostrando la validez del método mediante el análisis de sus posibles mejoras. El sistema se utilizará para comprobar la estabilidad de distintas tipologías estructurales a fin de comparar los distintos esquemas y su funcionamiento.
Resumo:
La elaboración de este estudio pretende caracterizar los accidentes causados por animales ocurridos en la Comunidad de Madrid entre el año 2006 y el 2009 mediante la identificación de zonas prioritarias de actuación con métodos de estadística espacial (análisis Hot Spot). Con ello se elabora a escala de paisaje un modelo predictivo de colisiones generado a partir de variables ambientales que determinan el desplazamiento de ungulados en el territorio, lo que a su vez influye en los cambios de uso del suelo.
Resumo:
En la industria minera no siempre se realiza un adecuado estudio previo de la relación entre la mineralización existente en el yacimiento y el tratamiento y concentración de la mena, lo que impide la optimización en los procesos y conduce hacia un mal procesamiento del mineral con consecuencias nefastas para el medio ambiente.
Resumo:
El uso de materiales compuestos para el refuerzo, reparación y rehabilitación de estructuras de hormigón se ha convertido en una técnica muy utilizada en la última década. Con independencia de la técnica del refuerzo, uno de los principales condicionantes del diseño es el fallo de la adherencia entre el hormigón y el material compuesto, atribuida generalmente a las tensiones en la interfaz de estos materiales. Las propiedades mecánicas del hormigón y de los materiales compuestos son muy distintas. Los materiales compuestos comúnmente utilizados en ingeniería civil poseen alta resistencia a tracción y tienen un comportamiento elástico y lineal hasta la rotura, lo cual, en contraste con el ampliamente conocido comportamiento del hormigón, genera una clara incompatibilidad para soportar esfuerzos de forma conjunta. Esta incompatibilidad conduce a fallos relacionados con el despegue del material compuesto del sustrato de hormigón. En vigas de hormigón reforzadas a flexión o a cortante, el despegue del material compuesto es un fenómeno que frecuentemente condiciona la capacidad portante del elemento. Existen dos zonas potenciales de iniciación del despegue: los extremos y la zona entre fisuras de flexión o de flexión-cortante. En el primer caso, la experiencia a través de los últimos años ha demostrado que se puede evitar prolongando el refuerzo hasta los apoyos o mediante el empleo de algún sistema de anclaje. Sin embargo, las recomendaciones para evitar el segundo caso de despegue aún se encuentran lejos de poder prever el fallo de forma eficiente. La necesidad de medir la adherencia experimentalmente de materiales FRP adheridos al hormigón ha dado lugar a desarrollar diversos métodos por la comunidad de investigadores. De estas campañas experimentales surgieron modelos para el pronóstico de la resistencia de adherencia, longitud efectiva y relación tensión-deslizamiento. En la presente tesis se propone un ensayo de beam-test, similar al utilizado para medir la adherencia de barras de acero, para determinar las características de adherencia del FRP al variar la resistencia del hormigón y el espesor del adhesivo. A la vista de los resultados, se considera que este ensayo puede ser utilizado para investigar diferentes tipos de adhesivos y otros métodos de aplicación, dado que representa con mayor realidad el comportamiento en vigas reforzadas. Los resultados experimentales se trasladan a la comprobación del fallo por despegue en la región de fisuras de flexión o flexión cortante en vigas de hormigón presentando buena concordancia. Los resultados condujeron a la propuesta de que la limitación de la deformación constituye una alternativa simple y eficiente para prever el citado modo de fallo. Con base en las vigas analizadas, se propone una nueva expresión para el cálculo de la limitación de la deformación del laminado y se lleva a cabo una comparación entre los modelos existentes mediante un análisis estadístico para evaluar su precisión. Abstract The use of composite materials for strengthening, repairing or rehabilitating concrete structures has become more and more popular in the last ten years. Irrespective of the type of strengthening used, design is conditioned, among others, by concrete-composite bond failure, normally attributed to stresses at the interface between these two materials. The mechanical properties of concrete and composite materials are very different. Composite materials commonly used in civil engineering possess high tensile strength (both static and long term) and they are linear elastic to failure, which, in contrast to the widely known behavior of concrete, there is a clear incompatibility which leads to bond-related failures. Bond failure in the composite material in bending- or shear-strengthened beams often controls bearing capacity of the strengthened member. Debonding failure of RC beams strengthened in bending by externally-bonded composite laminates takes place either, at the end (plate end debonding) or at flexure or flexure-shear cracks (intermediate crack debonding). In the first case, the experience over the past years has shown that this can be avoided by extending laminates up to the supports or by using an anchoring system. However, recommendations for the second case are still considered far from predicting failure efficiently. The need to experimentally measure FRP bonding to concrete has induced the scientific community to develop test methods for that purpose. Experimental campaigns, in turn, have given rise to models for predicting bond strength, effective length and the stress-slip relationship. The beam-type test proposed and used in this thesis to determine the bonding characteristics of FRP at varying concrete strengths and adhesive thicknesses was similar to the test used for measuring steel reinforcement to concrete bonding conditions. In light of the findings, this test was deemed to be usable to study different types of adhesives and application methods, since it reflects the behavior of FRP in strengthened beams more accurately than the procedures presently in place. Experimental results are transferred to the verification of peeling-off at flexure or flexure-shear cracks, presenting a good general agreement. Findings led to the conclusion that the strain limitation of laminate produces accurate predictions of intermediate crack debonding. A new model for strain limitation is proposed. Finally, a comprehensive evaluation based on a statistical analysis among existing models is carried out in order to assess their accuracy.