1000 resultados para Modelo digital de terreno
Resumo:
El retroceso de las costas acantiladas es un fenómeno muy extendido sobre los litorales rocosos expuestos a la incidencia combinada de los procesos marinos y meteorológicos que se dan en la franja costera. Este fenómeno se revela violentamente como movimientos gravitacionales del terreno esporádicos, pudiendo causar pérdidas materiales y/o humanas. Aunque el conocimiento de estos riesgos de erosión resulta de vital importancia para la correcta gestión de la costa, su predicción es complicada. Los modelos de predicción publicados son escasos y con importantes inconvenientes: extrapolación, extienden información registros históricos; empíricos, sobre registros históricos estudian respuesta al cambio de un parámetro; estocásticos, determinan la cadencia y magnitud de los eventos futuros extrapolando las distribuciones de probabilidad extraídas de catálogos históricos; proceso-respuesta, de estabilidad y propagación del error inexplorada; en EDPs, computacionalmente costosos y poco exactos. En este trabajo se desarrolla un modelo combinado de proceso-respuesta basado en incorporar un balance de fuerzas de los mecanismos que actúan sobre el proceso erosivo en el frente del acantilado. El modelo simula la evolución espacio-temporal de un perfil-2D del acantilado, formado por materiales heterogéneos, acoplando la dinámica marina con la evolución del terreno en cada periodo de marea. Integra en cada periodo una función de erosión, dependiente de la pendiente de la zona afectada, que se desplaza sobre la onda de marea. Se ha estudiado el error de discretización del modelo y su propagación en el tiempo a partir de las soluciones exactas para los dos primeros periodos de marea para diferentes aproximaciones numéricas en la integración y de la pendiente. Los resultados obtenidos han permitido justificar las discretizaciones que minimizan el error y los métodos de aproximación más adecuados.
Resumo:
El objetivo de esta primera parte de este proyecto es realizar un modelo socioeconómico de evaluación para la instalación de un sistema de bicicleta pública con la ayuda del método de evaluación: el análisis multicriterio en el que se analizarán criterios de diferente tipología que se escogerán tras el estudio de unas encuestas realizadas a usuarios del sistema Vélo’v en Lyon y tras unas entrevistas realizadas a expertos y trabajadores en el campo de la bicicleta pública. Este modelo sirve como ayuda a la decisión en la fase de preparación de la creación de un SBP para asegurar el balance entre la rentabilidad financiera, la social y la medioambiental. Después de la toma de decisión, se procederá a la realización del proyecto y a su instalación y por último su funcionamiento. Los objetivos resultan: • Descripción de los sistemas de bicicleta pública y el marco de acción • Examinar los estudios realizados sobre el tema • Descripción de los trabajos realizados para este proyecto y posterior análisis para su aplicación • Determinar los requisitos de diseño y de dimensionamiento para la implantación de un SBP • Encontrar los criterios adecuados que se emplearan en el análisis multicriterio para la evaluación • Describir los indicadores para medir cada criterio • La ponderación de estos criterios según las encuestas realizadas a los usuarios • La realización de una alternativa 0 que describa la situación de la ciudad sin la realización del proyecto • Recomendación final del modelo a través de un cuadro de resultados. El objeto de la tercera parte del proyecto es la descripción técnica y gráfica de una caseta de servicio del sistema de préstamos de bicicleta pública en San Lorenzo de El Escorial. La Caseta proyectada tendrá funciones principales: un taller para el mantenimiento del servicio y un espacio de almacenamiento de bicicletas. La Caseta-Taller es una medida necesaria en la implantación de un servicio de bici pública puesto que el uso de las bicicletas necesita un mantenimiento. En un terreno accidentado y no siempre propicio para la circulación de bicicletas, estas sufren muchos degastes y necesitan reparaciones y mantenimiento continuo. Además, el servicio en San Lorenzo de El Escorial está sometido a flujos pendulares de desplazamientos puesto que la disponibilidad de bicicletas y de espacios libres en las estaciones es muy variable. Es necesario precisar de un espacio para el almacenamiento de bicicletas, ya sea para controlar la disponibilidad o bien para esperar a recibir el mantenimiento necesario. Aprovechando la construcción de un edificio nuevo se destinará un espacio en la Casa-Taller para el control y la gestión del sistema. En esta parte se detallará gráficamente la implantación de los puntos de préstamos en la vía urbana como complemento al dimensionamiento del anterior trabajo.
Resumo:
El trabajo presentado ofrece un ejemplo de aplicación de las nuevas tecnologías en el campo de la fotogrametría digital convergente aplicadas al levantamiento arquitectónico, práctica íntimamente conectada al análisis constructivo de edificios. La posibilidad de trabajar con herramientas informáticas de alto potencial pero de fácil utilización que no necesitan instrumentos de alta precisión ni el trabajo conjunto de varios operadores, permite realizar levantamientos indirectos de objetos complejos con cierta sencillez. En este caso se ha elegido como modelo de estudio el intradós de la cúpula del Pantheon en Roma. La especial configuración geométrica del interior de la cúpula permite un fácil reconocimiento de puntos de una imagen a la otra y por ello un control adecuado de los proyectos de restitución mediante fotogrametría. La presencia de los casetones que tiene a nivel perceptivo una fundamental importancia para poder reconstruir mentalmente la forma esférica de la superficie y su enorme tamaño sirve al mismo tiempo como característica de gran eficiencia en este trabajo de restitución. Los datos obtenidos mediante fotogrametría se han utilizado para elaborar una documentación gráfica del intradós de la cúpula y su forma empleando herramientas informáticas de dibujo vectorial que han permitido el estudio y cálculo promediado de los resultados.
Resumo:
La mineralogía de procesos se ha convertido en los últimos años en una herramienta indispensable dentro del ámbito minero-metalúrgico debido fundamentalmente a la emergencia de la Geometalurgia. Esta disciplina en auge, a través de la integración de datos geológicos, mineros y metalúrgicos, proporciona la información necesaria para que el circuito de concentración mineral pueda responder de manera rápida y eficaz a la variabilidad mineralógica inherente a la geología del yacimiento. Para la generación del modelo geometalúrgico, la mineralogía de procesos debe aportar datos cuantitativos sobre los rasgos mineralógicos influyentes en el comportamiento de los minerales y para ello se apoya en el uso de sistemas de análisis mineralógico automatizado. Estos sistemas son capaces de proporcionar gran cantidad de datos mineralógicos de manera rápida y precisa. Sin embargo, cuando se trata de la caracterización de la textura, el mineralogista debe recurrir a descripciones cualitativas basadas en la observación, ya que los sistemas actuales no ofrecen información textural automatizada. Esta tesis doctoral surge precisamente para proporcionar de manera sistemática información textural relevante para los procesos de concentración mineral. La tesis tiene como objetivo principal la identificación y caracterización del tipo de intercrecimiento que un determinado mineral presenta en las partículas minerales, e inicialmente se han tenido en cuenta los siete tipos de intercrecimiento considerados como los más relevantes bajo el punto de vista del comportamiento de las partículas minerales durante flotación, lixiviación y molienda. Para alcanzar este objetivo se ha desarrollado una metodología basada en el diseño y cálculo de una serie de índices numéricos, a los que se ha llamado índices mineralúrgicos, que cumplen una doble función: por un lado, cada índice aporta información relevante para caracterizar los principales rasgos mineralógicos que gobiernan el comportamiento de las partículas minerales a lo largo de los procesos de concentración y por otro lado, estos índices sirven como variables discriminantes para identificar el tipo de intercrecimiento mineral mediante la aplicación de Análisis Discriminante. Dentro del conjunto de índices propuestos en este trabajo, se han considerado algunos índices propuestos por otros autores para su aplicación tanto en el ámbito de la mineralogía como en otros ámbitos de la ciencia de materiales. Se trata del Índice de Contigüidad (Gurland, 1958), Índice de Intercrecimiento (Amstutz y Giger, 1972) e Índice de Coordinación (Jeulin, 1981), adaptados en este caso para el análisis de partículas minerales. El diseño de los índices se ha basado en los principios básicos de la Estereología y el análisis digital de imagen, y su cálculo se ha llevado a cabo aplicando el método de interceptos lineales mediante la programación en MATLAB de varias rutinas. Este método estereológico permite recoger una serie de medidas a partir de las que es posible calcular varios parámetros, tanto estereológicos como geométricos, que han servido de base para calcular los índices mineralúrgicos. Para evaluar la capacidad discriminatoria de los índices mineralúrgicos se han seleccionado 200 casos en los que se puede reconocer de manera clara alguno de los siete tipos de intercrecimiento considerados inicialmente en este trabajo. Para cada uno de estos casos se han calculado los índices mineralúrgicos y se ha aplicado Análisis Discriminante, obteniendo un porcentaje de acierto en la clasificación del 95%. Esta cifra indica que los índices propuestos son discriminadores fiables del tipo de intercrecimiento. Una vez probada la capacidad discriminatoria de los índices, la metodología desarrollada ha sido aplicada para caracterizar una muestra de un concentrado de cobre procedente de la mina Kansanshi (Zambia). Esta caracterización se ha llevado a cabo para obtener la distribución de calcopirita según su tipo de intercrecimiento. La utilidad de esta distribución ha sido analizada bajo diferentes puntos de vista y en todos ellos los índices mineralúrgicos aportan información valiosa para caracterizar el comportamiento mineralúrgico de las partículas minerales. Los resultados derivados tanto del Análisis Discriminante como de la caracterización del concentrado de Kansanshi muestran la fiabilidad, utilidad y versatilidad de la metodología desarrollada, por lo que su integración como herramienta rutinaria en los sistemas actuales de análisis mineralógico pondría a disposición del mineralurgista gran cantidad de información textural complementaria a la información ofrecida por las técnicas actuales de caracterización mineralógica. ABSTRACT Process mineralogy has become in the last decades an essential tool in the mining and metallurgical sphere, especially driven by the emergence of Geometallurgy. This emergent discipline provides required information to efficiently tailor the circuit performance to the mineralogical variability inherent to ore deposits. To contribute to the Geometallurgical model, process mineralogy must provide quantitative data about the main mineralogical features implied in the minerallurgical behaviour of minerals. To address this characterisation, process mineralogy relies on automated systems. These systems are capable of providing a large amount of data quickly and accurately. However, when it comes to the characterisation of texture, mineralogists need to turn to qualitative descriptions based on observation, due to the fact that current systems can not offer quantitative textural information in a routine way. Aiming at the automated characterisation of textural information, this doctoral thesis arises to provide textural information relevant for concentration processes in a systematic way. The main objective of the thesis is the automated identification and characterisation of intergrowth types in mineral particles. Initially, the seven intergrowth types most relevant for flotation, leaching and grinding are considered. To achieve this goal, a methodology has been developed based on the computation of a set of numerical indices, which have been called minerallurgical indices. These indices have been designed with two main purposes: on the one hand, each index provides information to characterise the main mineralogical features which determine particle behaviour during concentration processes and, on the other hand, these indices are used as discriminant variables for identifying the intergrowth type by Discriminant Analysis. Along with the indices developed in this work, three indices proposed by other authors belonging to different fields of materials science have been also considered after being adapted to the analysis of mineral particles. These indices are Contiguity Index (Gurland, 1958), Intergrowth Index (Amstutz and Giger, 1972) and Coordination Index (Jeulin, 1981). The design of minerallurgical indices is based on the fundamental principles of Stereology and Digital Image Analysis. Their computation has been carried out using the linear intercepts method, implemented by means of MATLAB programming. This stereological method provides a set of measurements to obtain several parameters, both stereological and geometric. Based on these parameters, minerallurgical indices have been computed. For the assessment of the discriminant capacity of the developed indices, 200 cases have been selected according to their internal structure, so that one of the seven intergrowth types initially considered in this work can be easily recognised in any of their constituents. Minerallurgical indices have been computed for each case and used as discriminant variables. After applying discriminant analysis, 95% of the cases were correctly classified. This result shows that the proposed indices are reliable identifiers of intergrowth type. Once the discriminant power of the indices has been assessed, the developed methodology has been applied to characterise a copper concentrate sample from the Kansanshi copper mine (Zambia). This characterisation has been carried out to quantify the distribution of chalcopyrite with respect to intergrowth types. Different examples of the application of this distribution have been given to test the usefulness of the method. In all of them, the proposed indices provide valuable information to characterise the minerallurgical behaviour of mineral particles. Results derived from both Discriminant Analysis and the characterisation of the Kansanshi concentrate show the reliability, usefulness and versatility of the developed methodology. Therefore, its integration as a routine tool in current systems of automated mineralogical analysis should make available for minerallurgists a great deal of complementary information to treat the ore more efficiently.
Resumo:
El proyecto geotécnico de columnas de grava tiene todas las incertidumbres asociadas a un proyecto geotécnico y además hay que considerar las incertidumbres inherentes a la compleja interacción entre el terreno y la columna, la puesta en obra de los materiales y el producto final conseguido. Este hecho es común a otros tratamientos del terreno cuyo objetivo sea, en general, la mejora “profunda”. Como los métodos de fiabilidad (v.gr., FORM, SORM, Monte Carlo, Simulación Direccional) dan respuesta a la incertidumbre de forma mucho más consistente y racional que el coeficiente de seguridad tradicional, ha surgido un interés reciente en la aplicación de técnicas de fiabilidad a la ingeniería geotécnica. Si bien la aplicación concreta al proyecto de técnicas de mejora del terreno no es tan extensa. En esta Tesis se han aplicado las técnicas de fiabilidad a algunos aspectos del proyecto de columnas de grava (estimación de asientos, tiempos de consolidación y aumento de la capacidad portante) con el objetivo de efectuar un análisis racional del proceso de diseño, considerando los efectos que tienen la incertidumbre y la variabilidad en la seguridad del proyecto, es decir, en la probabilidad de fallo. Para alcanzar este objetivo se ha utilizado un método analítico avanzado debido a Castro y Sagaseta (2009), que mejora notablemente la predicción de las variables involucradas en el diseño del tratamiento y su evolución temporal (consolidación). Se ha estudiado el problema del asiento (valor y tiempo de consolidación) en el contexto de la incertidumbre, analizando dos modos de fallo: i) el primer modo representa la situación en la que es posible finalizar la consolidación primaria, parcial o totalmente, del terreno mejorado antes de la ejecución de la estructura final, bien sea por un precarga o porque la carga se pueda aplicar gradualmente sin afectar a la estructura o instalación; y ii) por otra parte, el segundo modo de fallo implica que el terreno mejorado se carga desde el instante inicial con la estructura definitiva o instalación y se comprueba que el asiento final (transcurrida la consolidación primaria) sea lo suficientemente pequeño para que pueda considerarse admisible. Para trabajar con valores realistas de los parámetros geotécnicos, los datos se han obtenido de un terreno real mejorado con columnas de grava, consiguiendo, de esta forma, un análisis de fiabilidad más riguroso. La conclusión más importante, obtenida del análisis de este caso particular, es la necesidad de precargar el terreno mejorado con columnas de grava para conseguir que el asiento ocurra de forma anticipada antes de la aplicación de la carga correspondiente a la estructura definitiva. De otra forma la probabilidad de fallo es muy alta, incluso cuando el margen de seguridad determinista pudiera ser suficiente. En lo que respecta a la capacidad portante de las columnas, existen un buen número de métodos de cálculo y de ensayos de carga (tanto de campo como de laboratorio) que dan predicciones dispares del valor de la capacidad última de las columnas de grava. En las mallas indefinidas de columnas, los resultados del análisis de fiabilidad han confirmado las consideraciones teóricas y experimentales existentes relativas a que no se produce fallo por estabilidad, obteniéndose una probabilidad de fallo prácticamente nula para este modo de fallo. Sin embargo, cuando se analiza, en el contexto de la incertidumbre, la capacidad portante de pequeños grupos de columnas bajo zapatas se ha obtenido, para un caso con unos parámetros geotécnicos típicos, que la probabilidad de fallo es bastante alta, por encima de los umbrales normalmente admitidos para Estados Límite Últimos. Por último, el trabajo de recopilación sobre los métodos de cálculo y de ensayos de carga sobre la columna aislada ha permitido generar una base de datos suficientemente amplia como para abordar una actualización bayesiana de los métodos de cálculo de la columna de grava aislada. El marco bayesiano de actualización ha resultado de utilidad en la mejora de las predicciones de la capacidad última de carga de la columna, permitiendo “actualizar” los parámetros del modelo de cálculo a medida que se dispongan de ensayos de carga adicionales para un proyecto específico. Constituye una herramienta valiosa para la toma de decisiones en condiciones de incertidumbre ya que permite comparar el coste de los ensayos adicionales con el coste de una posible rotura y , en consecuencia, decidir si es procedente efectuar dichos ensayos. The geotechnical design of stone columns has all the uncertainties associated with a geotechnical project and those inherent to the complex interaction between the soil and the column, the installation of the materials and the characteristics of the final (as built) column must be considered. This is common to other soil treatments aimed, in general, to “deep” soil improvement. Since reliability methods (eg, FORM, SORM, Monte Carlo, Directional Simulation) deals with uncertainty in a much more consistent and rational way than the traditional safety factor, recent interest has arisen in the application of reliability techniques to geotechnical engineering. But the specific application of these techniques to soil improvement projects is not as extensive. In this thesis reliability techniques have been applied to some aspects of stone columns design (estimated settlements, consolidation times and increased bearing capacity) to make a rational analysis of the design process, considering the effects of uncertainty and variability on the safety of the project, i.e., on the probability of failure. To achieve this goal an advanced analytical method due to Castro and Sagaseta (2009), that significantly improves the prediction of the variables involved in the design of treatment and its temporal evolution (consolidation), has been employed. This thesis studies the problem of stone column settlement (amount and speed) in the context of uncertainty, analyzing two failure modes: i) the first mode represents the situation in which it is possible to cause primary consolidation, partial or total, of the improved ground prior to implementation of the final structure, either by a pre-load or because the load can be applied gradually or programmed without affecting the structure or installation; and ii) on the other hand, the second mode implies that the improved ground is loaded from the initial instant with the final structure or installation, expecting that the final settlement (elapsed primary consolidation) is small enough to be allowable. To work with realistic values of geotechnical parameters, data were obtained from a real soil improved with stone columns, hence producing a more rigorous reliability analysis. The most important conclusion obtained from the analysis of this particular case is the need to preload the stone columns-improved soil to make the settlement to occur before the application of the load corresponding to the final structure. Otherwise the probability of failure is very high, even when the deterministic safety margin would be sufficient. With respect to the bearing capacity of the columns, there are numerous methods of calculation and load tests (both for the field and the laboratory) giving different predictions of the ultimate capacity of stone columns. For indefinite columns grids, the results of reliability analysis confirmed the existing theoretical and experimental considerations that no failure occurs due to the stability failure mode, therefore resulting in a negligible probability of failure. However, when analyzed in the context of uncertainty (for a case with typical geotechnical parameters), results show that the probability of failure due to the bearing capacity failure mode of a group of columns is quite high, above thresholds usually admitted for Ultimate Limit States. Finally, the review of calculation methods and load tests results for isolated columns, has generated a large enough database, that allowed a subsequent Bayesian updating of the methods for calculating the bearing capacity of isolated stone columns. The Bayesian updating framework has been useful to improve the predictions of the ultimate load capacity of the column, allowing to "update" the parameters of the calculation model as additional load tests become available for a specific project. Moreover, it is a valuable tool for decision making under uncertainty since it is possible to compare the cost of further testing to the cost of a possible failure and therefore to decide whether it is appropriate to perform such tests.
Resumo:
Numerosos problemas en ingeniería se refieren a la respuesta dinámica del terreno frente a solicitaciones permanentes o transitorias. Ejemplos típicos son las sacudidas sísmicas, el paso de cargas móviles, la actuación de máquinas con dispositivos alternativos (compactadores, turboalternadores etc.), etc. El desarrollo de la mecánica de suelo, así como el interés de mejorar el diseño y garantizar la seguridad de las estructuras afectadas han conducido al desarrollo de un cuerpo de doctrina homogéneo y riguroso para el tratamiento de problemas como los citados. Obsérvese que, en general, ni el terreno ni la estructura sobre él construida se pueden estudiar por separado. Hay una verdadera interacción entre ambos y ella es, preciamente, la motivación del problema. Así, en el presente capítulo se analiza el semiespacio elástico con carga dinámica, el caso viscoelástico y el amortiguamiento material. En lo que respecta al semiespacio elástico con carga dinámica, además de un breve desarrollo histórico, se hace referencia a las vibraciones verticales en régimen permanente, las vibraciones horizontales y giratoriaas en régimen permanente, el modelo de Veletsos, las vibraciones de torsión, la carga en faja, los cimientos rectangulares y los cimientos empotrados. Respecto al caso viscoelástico y el amortiguamiento material, se analizan diversos mecanismos de amortiguamiento.
Resumo:
En este capítulo se pretende estudiar el efecto combinado de las características elásticas y de inercia del terreno y la estructura sobre él construida. Desde el punto de vista de esta última, los efectos más llamativos son la alteración de los valores de las frecuencias aparentes, debido justamente a la participación del suelo en el fenómeno vibratorio, y del amortiguamiento general pues la radiación de energía y el amortiguamiento propio del suelo tienen unos valores importantes cuando se comparan con los propios de la estructura. Ambos fenómenos tienen lógicamente su reflejo en el valor de las amplitudes del movimiento, que serán distintas de las que se producirían en el caso de base rígida. El fenómeno era conocido desde antiguo por los constructores de cimientos de máquinas y su consideración en otras construcciones se ha producido cuando se ha ido a estructuras singulares como rascacielos, centrales nucleares, etc. En este sentido los primeros resultados llamativos fueron los presentados por AKINO,OTA y YAMAHARA (1969) donde se comunicaban los resultados obtenidos de la instrumentación de pequeños modelos muy rígidos de edificios de contención de reactores. Los registros obtenidos en ensayos forzados con vibradores, así como los resultados de pequeños terremotos reales indicaban diferencias apreciables del movimiento del suelo según la cota de observación, con lo que se planteó el problema de elegir cuál debería escogerse para analizar el modelo matemático de la realidad. Desde entonces han sido numerosísimos los trabajos de investigación del tema; trabajos que, al coincidir con el desarrollo de los nuevos métodos de cálculo, los han usado e impulsado a perfeccionarse. Paradójicamente el resultado final es la existencia de varias escuelas de pensamiento que, impulsadas por razones extracientíficas, han radicalizado sus diferencias. Con ello el establecimiento objetivo de un estado del arte actual es realmente dificil como lo prueba la tendencia fluctuante de la normativa yankee, al respecto.
Resumo:
El objetivo de la presente investigación es el desarrollo de un modelo de cálculo rápido, eficiente y preciso, para la estimación de los costes finales de construcción, en las fases preliminares del proyecto arquitectónico. Se trata de una herramienta a utilizar durante el proceso de elaboración de estudios previos, anteproyecto y proyecto básico, no siendo por tanto preciso para calcular el “predimensionado de costes” disponer de la total definición grafica y literal del proyecto. Se parte de la hipótesis de que en la aplicación práctica del modelo no se producirán desviaciones superiores al 10 % sobre el coste final de la obra proyectada. Para ello se formulan en el modelo de predimensionado cinco niveles de estimación de costes, de menor a mayor definición conceptual y gráfica del proyecto arquitectónico. Los cinco niveles de cálculo son: dos que toman como referencia los valores “exógenos” de venta de las viviendas (promoción inicial y promoción básica) y tres basados en cálculos de costes “endógenos” de la obra proyectada (estudios previos, anteproyecto y proyecto básico). El primer nivel de estimación de carácter “exógeno” (nivel .1), se calcula en base a la valoración de mercado de la promoción inmobiliaria y a su porcentaje de repercusión de suelo sobre el valor de venta de las viviendas. El quinto nivel de valoración, también de carácter “exógeno” (nivel .5), se calcula a partir del contraste entre el valor externo básico de mercado, los costes de construcción y los gastos de promoción estimados de la obra proyectada. Este contraste entre la “repercusión del coste de construcción” y el valor de mercado, supone una innovación respecto a los modelos de predimensionado de costes existentes, como proceso metodológico de verificación y validación extrínseca, de la precisión y validez de las estimaciones resultantes de la aplicación práctica del modelo, que se denomina Pcr.5n (Predimensionado costes de referencia con .5niveles de cálculo según fase de definición proyectual / ideación arquitectónica). Los otros tres niveles de predimensionado de costes de construcción “endógenos”, se estiman mediante cálculos analíticos internos por unidades de obra y cálculos sintéticos por sistemas constructivos y espacios funcionales, lo que se lleva a cabo en las etapas iniciales del proyecto correspondientes a estudios previos (nivel .2), anteproyecto (nivel .3) y proyecto básico (nivel .4). Estos cálculos teóricos internos son finalmente evaluados y validados mediante la aplicación práctica del modelo en obras de edificación residencial, de las que se conocen sus costes reales de liquidación final de obra. Según va evolucionando y se incrementa el nivel de definición y desarrollo del proyecto, desde los estudios previos hasta el proyecto básico, el cálculo se va perfeccionando en su nivel de eficiencia y precisión de la estimación, según la metodología aplicada: [aproximaciones sucesivas en intervalos finitos], siendo la hipótesis básica como anteriormente se ha avanzado, lograr una desviación máxima de una décima parte en el cálculo estimativo del predimensionado del coste real de obra. El cálculo del coste de ejecución material de la obra, se desarrolla en base a parámetros cúbicos funcionales “tridimensionales” del espacio proyectado y parámetros métricos constructivos “bidimensionales” de la envolvente exterior de cubierta/fachada y de la huella del edificio sobre el terreno. Los costes funcionales y constructivos se ponderan en cada fase del proceso de cálculo con sus parámetros “temáticos/específicos” de gestión (Pg), proyecto (Pp) y ejecución (Pe) de la concreta obra presupuestada, para finalmente estimar el coste de construcción por contrata, como resultado de incrementar al coste de ejecución material el porcentaje correspondiente al parámetro temático/especifico de la obra proyectada. El modelo de predimensionado de costes de construcción Pcr.5n, será una herramienta de gran interés y utilidad en el ámbito profesional, para la estimación del coste correspondiente al Proyecto Básico previsto en el marco técnico y legal de aplicación. Según el Anejo I del Código Técnico de la Edificación (CTE), es de obligado cumplimiento que el proyecto básico contenga una “Valoración aproximada de la ejecución material de la obra proyectada por capítulos”, es decir , que el Proyecto Básico ha de contener al menos un “presupuesto aproximado”, por capítulos, oficios ó tecnologías. El referido cálculo aproximado del presupuesto en el Proyecto Básico, necesariamente se ha de realizar mediante la técnica del predimensionado de costes, dado que en esta fase del proyecto arquitectónico aún no se dispone de cálculos de estructura, planos de acondicionamiento e instalaciones, ni de la resolución constructiva de la envolvente, por cuanto no se han desarrollado las especificaciones propias del posterior proyecto de ejecución. Esta estimación aproximada del coste de la obra, es sencilla de calcular mediante la aplicación práctica del modelo desarrollado, y ello tanto para estudiantes como para profesionales del sector de la construcción. Como se contiene y justifica en el presente trabajo, la aplicación práctica del modelo para el cálculo de costes en las fases preliminares del proyecto, es rápida y certera, siendo de sencilla aplicación tanto en vivienda unifamiliar (aisladas y pareadas), como en viviendas colectivas (bloques y manzanas). También, el modelo es de aplicación en el ámbito de la valoración inmobiliaria, tasaciones, análisis de viabilidad económica de promociones inmobiliarias, estimación de costes de obras terminadas y en general, cuando no se dispone del proyecto de ejecución y sea preciso calcular los costes de construcción de las obras proyectadas. Además, el modelo puede ser de aplicación para el chequeo de presupuestos calculados por el método analítico tradicional (estado de mediciones pormenorizadas por sus precios unitarios y costes descompuestos), tanto en obras de iniciativa privada como en obras promovidas por las Administraciones Públicas. Por último, como líneas abiertas a futuras investigaciones, el modelo de “predimensionado costes de referencia 5 niveles de cálculo”, se podría adaptar y aplicar para otros usos y tipologías diferentes a la residencial, como edificios de equipamientos y dotaciones públicas, valoración de edificios históricos, obras de urbanización interior y exterior de parcela, proyectos de parques y jardines, etc….. Estas lineas de investigación suponen trabajos paralelos al aquí desarrollado, y que a modo de avance parcial se recogen en las comunicaciones presentadas en los Congresos internacionales Scieconf/Junio 2013, Rics‐Cobra/Septiembre 2013 y en el IV Congreso nacional de patología en la edificación‐Ucam/Abril 2014. ABSTRACT The aim of this research is to develop a fast, efficient and accurate calculation model to estimate the final costs of construction, during the preliminary stages of the architectural project. It is a tool to be used during the preliminary study process, drafting and basic project. It is not therefore necessary to have the exact, graphic definition of the project in order to be able to calculate the cost‐scaling. It is assumed that no deviation 10% higher than the final cost of the projected work will occur during the implementation. To that purpose five levels of cost estimation are formulated in the scaling model, from a lower to a higher conceptual and graphic definition of the architectural project. The five calculation levels are: two that take as point of reference the ”exogenous” values of house sales (initial development and basic development), and three based on calculation of endogenous costs (preliminary study, drafting and basic project). The first ”exogenous” estimation level (level.1) is calculated over the market valuation of real estate development and the proportion the cost of land has over the value of the houses. The fifth level of valuation, also an ”exogenous” one (level.5) is calculated from the contrast between the basic external market value, the construction costs, and the estimated development costs of the projected work. This contrast between the ”repercussions of construction costs” and the market value is an innovation regarding the existing cost‐scaling models, as a methodological process of extrinsic verification and validation, of the accuracy and validity of the estimations obtained from the implementation of the model, which is called Pcr.5n (reference cost‐scaling with .5calculation levels according to the stage of project definition/ architectural conceptualization) The other three levels of “endogenous” construction cost‐scaling are estimated from internal analytical calculations by project units and synthetic calculations by construction systems and functional spaces. This is performed during the initial stages of the project corresponding to preliminary study process (level.2), drafting (level.3) and basic project (level.4). These theoretical internal calculations are finally evaluated and validated via implementation of the model in residential buildings, whose real costs on final payment of the works are known. As the level of definition and development of the project evolves, from preliminary study to basic project, the calculation improves in its level of efficiency and estimation accuracy, following the applied methodology: [successive approximations at finite intervals]. The basic hypothesis as above has been made, achieving a maximum deviation of one tenth, in the estimated calculation of the true cost of predimensioning work. The cost calculation for material execution of the works is developed from functional “three‐dimensional” cubic parameters for the planned space and constructive “two dimensional” metric parameters for the surface that envelopes around the facade and the building’s footprint on the plot. The functional and building costs are analyzed at every stage of the process of calculation with “thematic/specific” parameters of management (Pg), project (Pp) and execution (Pe) of the estimated work in question, and finally the cost of contractual construction is estimated, as a consequence of increasing the cost of material execution with the percentage pertaining to the thematic/specific parameter of the projected work. The construction cost‐scaling Pcr.5n model will be a useful tool of great interest in the professional field to estimate the cost of the Basic Project as prescribed in the technical and legal framework of application. According to the appendix of the Technical Building Code (CTE), it is compulsory that the basic project contains an “approximate valuation of the material execution of the work, projected by chapters”, that is, that the basic project must contain at least an “approximate estimate” by chapter, trade or technology. This approximate estimate in the Basic Project is to be performed through the cost‐scaling technique, given that structural calculations, reconditioning plans and definitive contruction details of the envelope are still not available at this stage of the architectural project, insofar as specifications pertaining to the later project have not yet been developed. This approximate estimate of the cost of the works is easy to calculate through the implementation of the given model, both for students and professionals of the building sector. As explained and justified in this work, the implementation of the model for cost‐scaling during the preliminary stage is fast and accurate, as well as easy to apply both in single‐family houses (detached and semi‐detached) and collective housing (blocks). The model can also be applied in the field of the real‐estate valuation, official appraisal, analysis of the economic viability of real estate developments, estimate of the cost of finished projects and, generally, when an implementation project is not available and it is necessary to calculate the building costs of the projected works. The model can also be applied to check estimates calculated by the traditional analytical method (state of measurements broken down into price per unit cost details), both in private works and those promoted by Public Authorities. Finally, as potential lines for future research, the “five levels of calculation cost‐scaling model”, could be adapted and applied to purposes and typologies other than the residential one, such as service buildings and public facilities, valuation of historical buildings, interior and exterior development works, park and garden planning, etc… These lines of investigation are parallel to this one and, by way of a preview, can be found in the dissertations given in the International Congresses Scieconf/June 2013, Rics‐Cobra/September 2013 and in the IV Congress on building pathology ‐Ucam/April 2014.
Resumo:
El frente de un túnel puede colapsar si la presión aplicada sobre el es inferior a un valor limite denominado presión “critica” o “de colapso”. En este trabajo se desarrolla y presenta un mecanismo de rotura rotacional generado punto a punto para el cálculo de la presión de colapso del frente de túneles excavados en terrenos estratificados o en materiales que siguen un criterio de rotura nolineal. La solución propuesta es una solución de contorno superior en el marco del Análisis Límite y supone una generalización del mecanismo de rotura mas reciente existente en la bibliografía. La presencia de un terreno estratificado o con un criterio de rotura no-lineal implica una variabilidad espacial de las propiedades resistentes. Debido a esto, se generaliza el mecanismo desarrollado por Mollon et al. (2011b) para suelos, de tal forma que se puedan considerar valores locales del ángulo de rozamiento y de la cohesión. Además, la estratificación del terreno permite una rotura parcial del frente, por lo que se implementa esta posibilidad en el mecanismo, siendo la primera solución que emplea un mecanismo de rotura que se ajusta a la estratigrafía del terreno. Por otro lado, la presencia de un material con un criterio de rotura no-lineal exige introducir en el modelo, como variable de estudio, el estado tensional en el frente, el cual se somete al mismo proceso de optimización que las variables geométricas del mecanismo. Se emplea un modelo numérico 3D para validar las predicciones del mecanismo de Análisis Limite, demostrando que proporciona, con un esfuerzo computacional significativamente reducido, buenas predicciones de la presión critica, del tipo de rotura (global o parcial) en terrenos estratificados y de la geometría de fallo. El mecanismo validado se utiliza para realizar diferentes estudios paramétricos sobre la influencia de la estratigrafía en la presión de colapso. Igualmente, se emplea para elaborar cuadros de diseño de la presión de colapso para túneles ejecutados con tuneladora en macizos rocosos de mala calidad y para analizar la influencia en la estabilidad del frente del método constructivo. Asimismo, se lleva a cabo un estudio de fiabilidad de la estabilidad del frente de un túnel excavado en un macizo rocoso altamente fracturado. A partir de el se analiza como afectan las diferentes hipótesis acerca de los tipos de distribución y de las estructuras de correlación a los resultados de fiabilidad. Se investiga también la sensibilidad de los índices de fiabilidad a los cambios en las variables aleatorias, identificando las mas relevantes para el diseño. Por ultimo, se lleva a cabo un estudio experimental mediante un modelo de laboratorio a escala reducida. El modelo representa medio túnel, lo cual permite registrar el movimiento del material mediante una técnica de correlación de imágenes fotográficas. El ensayo se realiza con una arena seca y se controla por deformaciones mediante un pistón que simula el frente. Los resultados obtenidos se comparan con las estimaciones de la solución de Análisis Límite, obteniéndose un ajuste razonable, de acuerdo a la literatura, tanto en la geometría de rotura como en la presión de colapso. A tunnel face may collapse if the applied support pressure is lower than a limit value called the ‘critical’ or ‘collapse’ pressure. In this work, an advanced rotational failure mechanism generated ‘‘point-by-point” is developed to compute the collapse pressure for tunnel faces in layered (or stratified) grounds or in materials that follow a non-linear failure criterion. The proposed solution is an upper bound solution in the framework of limit analysis which extends the most advanced face failure mechanism in the literature. The excavation of the tunnel in a layered ground or in materials with a non-linear failure criterion may lead to a spatial variability of the strength properties. Because of this, the rotational mechanism recently proposed by Mollon et al. (2011b) for Mohr-Coulomb soils is generalized so that it can consider local values of the friction angle and of the cohesion. For layered soils, the mechanism needs to be extended to consider the possibility for partial collapse. The proposed methodology is the first solution with a partial collapse mechanism that can fit to the stratification. Similarly, the use of a nonlinear failure criterion introduces the need to introduce new parameters in the optimization problem to consider the distribution of normal stresses along the failure surface. A 3D numerical model is employed to validate the predictions of the limit analysis mechanism, demonstrating that it provides, with a significantly reduced computational effort, good predictions of critical pressure, of the type of collapse (global or partial) in layered soils, and of its geometry. The mechanism is then employed to conduct parametric studies of the influence of several geometrical and mechanical parameters on face stability of tunnels in layered soils. Similarly, the methodology has been further employed to develop simple design charts that provide the face collapse pressure of tunnels driven by TBM in low quality rock masses and to study the influence of the construction method. Finally, a reliability analysis of the stability of a tunnel face driven in a highly fractured rock mass is performed. The objective is to analyze how different assumptions about distributions types and correlation structures affect the reliability results. In addition, the sensitivity of the reliability index to changes in the random variables is studied, identifying the most relevant variables for engineering design. Finally, an experimental study is carried out using a small-scale laboratory model. The problem is modeled in half, cutting through the tunnel axis vertically, so that displacements of soil particles can be recorded by a digital image correlation technique. The tests were performed with dry sand and displacements are controlled by a piston that supports the soil. The results of the model are compared with the predictions of the Limit Analysis mechanism. A reasonable agreement, according to literature, is obtained between the shapes of the failure surfaces and between the collapse pressures observed in the model tests and computed with the analytical solution.
Resumo:
Hace ya varias décadas, comenzó a aplicarse al análisis de presas el estudio experimental en modelos reducidos, campo en el que se ha trabajado durante muchos años en el Laboratorio Central. Durante este tiempo, la técnica de tales ensayos ha ido perfeccionándose, consiguiendo reproducir con mayor fidelidad la situación real, en particular, aspectos tan importantes como las posibles discontinuidades existentes en el valle así como la interacción presa-terreno de cimentación, apareciendo así, de una forma natural los ensayos geomecánicos. Como resultado de esa evolución se han llevado a cabo algunos ensayos geomecánicos de presas en dicho Laboratorio, los cuales constituyen el objeto de esta publicación.
Resumo:
En las últimas décadas, el avance tecnológico ha aumentado a una velocidad vertiginosa. Muchos son los campos beneficiados, entre ellos la ingeniería y por consiguiente el desarrollo de maquinaria, técnicas y herramientas que facilitan el trabajo. Los vehículos aéreos no tripulados (UAVs), más conocidos como drones, se presentan como una alternativa muy interesante para llevar a cabo levantamientos topográficos mediante la técnica fotogramétrica. En este proyecto se desarrollan los Modelos Digitales del Terreno (MDT) de una superficie sobrevolada por un UAV en la localidad de Cubillos del Sil (León). Para ello, se han utilizado dos software: Mission Planner y PhotoModeler. En el primero se ha llevado a cabo la programación de la misión de vuelo del drone, siendo el fin la toma de fotografías aéreas. El segundo es el encargado de realizar la reconstrucción digital en 3D del terreno sobrevolado a partir de esas fotografías. El objetivo final es que los MDT obtenidos puedan ser utilizados en un futuro por cualquier equipo de trabajo que quiera desarrollar un proyecto sobre esos terrenos. ABSTRACT The pace of technology innovation is faster now than it has been for the past few decades. Engineering, and consequently machinery and diverse techniques, are the main beneficiaries. A clear example of this is the development of unmanned aerial vehicles (UAVs), more commonly known as drones. They are a very good alternative that can be used to carry out topographic surveys through photogrammetry. In this project the Digital Terrain Models (DTM) of an overflown area in the municipality of Cubillos del Sil (León) are developed. Two main pieces of software have been used for this purpose; Mission Planner and PhotoModeler. Programming of the drone flight mission was done with the former, allowing it to take aerial pictures, whilst the latter was used to digitally rebuild the overflown area in 3D, using the pictures from the first piece of software. The final aim of the project is to make the obtained DTM available for any future project.
Resumo:
Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.
Resumo:
Los servicios telemáticos han transformando la mayoría de nuestras actividades cotidianas y ofrecen oportunidades sin precedentes con características como, por ejemplo, el acceso ubicuo, la disponibilidad permanente, la independencia del dispositivo utilizado, la multimodalidad o la gratuidad, entre otros. No obstante, los beneficios que destacan en cuanto se reflexiona sobre estos servicios, tienen como contrapartida una serie de riesgos y amenazas no tan obvios, ya que éstos se nutren de y tratan con datos personales, lo cual suscita dudas respecto a la privacidad de las personas. Actualmente, las personas que asumen el rol de usuarios de servicios telemáticos generan constantemente datos digitales en distintos proveedores. Estos datos reflejan parte de su intimidad, de sus características particulares, preferencias, intereses, relaciones sociales, hábitos de consumo, etc. y lo que es más controvertido, toda esta información se encuentra bajo la custodia de distintos proveedores que pueden utilizarla más allá de las necesidades y el control del usuario. Los datos personales y, en particular, el conocimiento sobre los usuarios que se puede extraer a partir de éstos (modelos de usuario) se han convertido en un nuevo activo económico para los proveedores de servicios. De este modo, estos recursos se pueden utilizar para ofrecer servicios centrados en el usuario basados, por ejemplo, en la recomendación de contenidos, la personalización de productos o la predicción de su comportamiento, lo cual permite a los proveedores conectar con los usuarios, mantenerlos, involucrarlos y en definitiva, fidelizarlos para garantizar el éxito de un modelo de negocio. Sin embargo, dichos recursos también pueden utilizarse para establecer otros modelos de negocio que van más allá de su procesamiento y aplicación individual por parte de un proveedor y que se basan en su comercialización y compartición con otras entidades. Bajo esta perspectiva, los usuarios sufren una falta de control sobre los datos que les refieren, ya que esto depende de la voluntad y las condiciones impuestas por los proveedores de servicios, lo cual implica que habitualmente deban enfrentarse ante la disyuntiva de ceder sus datos personales o no acceder a los servicios telemáticos ofrecidos. Desde el sector público se trata de tomar medidas que protejan a los usuarios con iniciativas y legislaciones que velen por su privacidad y que aumenten el control sobre sus datos personales, a la vez que debe favorecer el desarrollo económico propiciado por estos proveedores de servicios. En este contexto, esta tesis doctoral propone una arquitectura y modelo de referencia para un ecosistema de intercambio de datos personales centrado en el usuario que promueve la creación, compartición y utilización de datos personales y modelos de usuario entre distintos proveedores, al mismo tiempo que ofrece a los usuarios las herramientas necesarias para ejercer su control en cuanto a la cesión y uso de sus recursos personales y obtener, en su caso, distintos incentivos o contraprestaciones económicas. Las contribuciones originales de la tesis son la especificación y diseño de una arquitectura que se apoya en un proceso de modelado distribuido que se ha definido en el marco de esta investigación. Éste se basa en el aprovechamiento de recursos que distintas entidades (fuentes de datos) ofrecen para generar modelos de usuario enriquecidos que cubren las necesidades específicas de terceras entidades, considerando la participación del usuario y el control sobre sus recursos personales (datos y modelos de usuario). Lo anterior ha requerido identificar y caracterizar las fuentes de datos con potencial de abastecer al ecosistema, determinar distintos patrones para la generación de modelos de usuario a partir de datos personales distribuidos y heterogéneos y establecer una infraestructura para la gestión de identidad y privacidad que permita a los usuarios expresar sus preferencias e intereses respecto al uso y compartición de sus recursos personales. Además, se ha definido un modelo de negocio de referencia que sustenta las investigaciones realizadas y que ha sido particularizado en dos ámbitos de aplicación principales, en concreto, el sector de publicidad en redes sociales y el sector financiero para la implantación de nuevos servicios. Finalmente, cabe destacar que las contribuciones de esta tesis han sido validadas en el contexto de distintos proyectos de investigación industrial aplicada y también en el marco de proyectos fin de carrera que la autora ha tutelado o en los que ha colaborado. Los resultados obtenidos han originado distintos méritos de investigación como dos patentes en explotación, la publicación de un artículo en una revista con índice de impacto y diversos artículos en congresos internacionales de relevancia. Algunos de éstos han sido galardonados con premios de distintas instituciones, así como en las conferencias donde han sido presentados. ABSTRACT Information society services have changed most of our daily activities, offering unprecedented opportunities with certain characteristics, such as: ubiquitous access, permanent availability, device independence, multimodality and free-of-charge services, among others. However, all the positive aspects that emerge when thinking about these services have as counterpart not-so-obvious threats and risks, because they feed from and use personal data, thus creating concerns about peoples’ privacy. Nowadays, people that play the role of user of services are constantly generating digital data in different service providers. These data reflect part of their intimacy, particular characteristics, preferences, interests, relationships, consumer behavior, etc. Controversy arises because this personal information is stored and kept by the mentioned providers that can use it beyond the user needs and control. Personal data and, in particular, the knowledge about the user that can be obtained from them (user models) have turned into a new economic asset for the service providers. In this way, these data and models can be used to offer user centric services based, for example, in content recommendation, tailored-products or user behavior, all of which allows connecting with the users, keeping them more engaged and involved with the provider, finally reaching customer loyalty in order to guarantee the success of a business model. However, these resources can be used to establish a different kind of business model; one that does not only processes and individually applies personal data, but also shares and trades these data with other entities. From that perspective, the users lack control over their referred data, because it depends from the conditions imposed by the service providers. The consequence is that the users often face the following dilemma: either giving up their personal data or not using the offered services. The Public Sector takes actions in order to protect the users approving, for example, laws and legal initiatives that reinforce privacy and increase control over personal data, while at the same time the authorities are also key players in the economy development that derives from the information society services. In this context, this PhD Dissertation proposes an architecture and reference model to achieve a user-centric personal data ecosystem that promotes the creation, sharing and use of personal data and user models among different providers, while offering users the tools to control who can access which data and why and if applicable, to obtain different incentives. The original contributions obtained are the specification and design of an architecture that supports a distributed user modelling process defined by this research. This process is based on leveraging scattered resources of heterogeneous entities (data sources) to generate on-demand enriched user models that fulfill individual business needs of third entities, considering the involvement of users and the control over their personal resources (data and user models). This has required identifying and characterizing data sources with potential for supplying resources, defining different generation patterns to produce user models from scattered and heterogeneous data, and establishing identity and privacy management infrastructures that allow users to set their privacy preferences regarding the use and sharing of their resources. Moreover, it has also been proposed a reference business model that supports the aforementioned architecture and this has been studied for two application fields: social networks advertising and new financial services. Finally, it has to be emphasized that the contributions obtained in this dissertation have been validated in the context of several national research projects and master thesis that the author has directed or has collaborated with. Furthermore, these contributions have produced different scientific results such as two patents and different publications in relevant international conferences and one magazine. Some of them have been awarded with different prizes.
Resumo:
En esta tesis se desarrolla un modelo físico-matemático, original, que permite simular el comportamiento de las máquinas de visión, en particular las máquinas ópticas digitales, cuando reciben información a través de la luz reflejada por los mensurandos. El modelo desarrollado se lia aplicado para la determinación de los parámetros que intervienen en el proceso de caracterización de formas geométricas básicas, tales como líneas, círculos y elipses. También se analizan las fuentes de error que intervienen a lo largo de la cadena metrológica y se proponen modelos de estimación de las incertidumbres de medida a través un nuevo enfoque basado en estadística bayesiana y resolución subpíxel. La validez del modelo se ha comprobado por comparación de los resultados teóricos, obtenidos a partir de modelos virtuales y simulaciones informáticas, y los reales, obtenidos mediante la realización de medidas de diferentes mensurandos del ámbito electromecánico y de dimensiones submilimétricas. Utilizando el modelo propuesto, es posible caracterizar adecuadamente mensurandos a partir del filtrado, segmentación y tratamiento matemático de las imágenes. El estudio experimental y validación definitiva de los resultados se ha realizado en el Laboratorio de Metrología Dimensional de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid. Los modelos desarrollados se han implementado sobre imágenes obtenidas con la máquina de visión marca TESA, modelo VISIO 300. Abstract In this PhD Thesis an original mathematic-physic model has been developed. It allows simulating the behaviour of the vision measuring machines, in particular the optical digital machines, where they receive information through the light reflected by the measurands. The developed model has been applied to determine the parameters involved in the process of characterization of basic geometrical features such as lines, circles and ellipses. The error sources involved along the metrological chain also are analyzed and new models for estimating measurement uncertainties through a new approach based on Bayesian statistics and subpixel resolution are proposed. The validity of the model has been verified by comparing the theoretical results obtained from virtual models and computer simulations, with actual ones, obtained by measuring of various measurands belonging to the electromechanical field and of submillimeter dimensions. Using the proposed model, it is possible to properly characterize measurands from filtering, segmentation and mathematical processing of images. The experimental study and final validation of the results has been carried out in the "Laboratorio de Metrología Dimensional" (Dimensional Metrology Laboratory) at the Escuela Técnica Superior de Ingeniería y Diseño Industrial (ETSIDI) (School of Engineering and Industrial Design) at Universidad Politécnica de Madrid (UPM). The developed models have been implemented on images obtained with the vision measuring machine of the brand TESA, model VISIO 300.
Resumo:
Los retos y oportunidades a los que se enfrentan las organizaciones y administraciones de las primeras décadas del siglo XXI se caracterizan por una serie de fuerzas perturbadoras como la globalización, el avance de las tecnologías emergentes y el desequilibrio económico, que están actuando como impulsores de la transformación del mercado. La acción conjunta de estos factores está obligando a todas las empresas industriales a tener que trabajar con mayores y más exigentes niveles de productividad planteándose continuamente como mejorar y lograr satisfacer los requerimientos de los clientes. De esta situación surge la necesidad de volver a plantearse de nuevo ¿quién es el cliente?, ¿qué valora el cliente? y ¿cómo se pueden generan beneficios sostenibles? La aplicación de esta reflexión a la industria naval militar marca los objetivos a los que esta tesis doctoral busca dar respuesta. El primer objetivo, de carácter general, consiste en la definición de un modelo de negocio sostenible para la industria naval militar del 2025 que se adapte a los requisitos del cliente y al nuevo escenario político, económico, social, tecnológico y ambiental que rodea esta industria. El segundo objetivo, consecuencia del modelo general, trata de desarrollar una metodología para ejecutar programas de apoyo al ciclo de vida del “buque militar”. La investigación se estructura en cuatro partes: en la primera se justifica, por un lado, la necesidad del cambio de modelo y por otro se identifican los factores estructurantes para la definición del modelo. La segunda parte revisa la literatura existente sobre uno de los aspectos básicos para el nuevo modelo, el concepto Producto-Servicio. La tercera parte se centra totalmente en la industria naval militar estudiando los aspectos concretos del sector y, en base al trabajo de campo realizado, se identifican los puntos que más valoran las Marinas de Guerra y como estas gestionan al buque militar durante todo su ciclo de vida. Por último se presentan los principios del modelo propuesto y se desarrollan los pilares básicos para la ejecución de proyectos de Apoyo al Ciclo de Vida (ACV). Como resultado de la investigación, el modelo propuesto para la industria naval militar se fundamenta en once principios: 1. El buque militar (producto de alto valor añadido) debe ser diseñado y construido en un astillero del país que desarrolla el programa de defensa. 2. El diseño tiene que estar orientado al valor para el cliente, es decir, se tiene que diseñar el buque militar para que cumpla su misión, eficaz y eficientemente, durante toda su vida operativa, asegurando la seguridad del buque y de las personas y protegiendo el medio ambiente de acuerdo con las regulaciones vigentes. 3. La empresa debe suministrar soluciones integrales de apoyo al ciclo de vida al producto. 4. Desarrollar y mantener las capacidades de integración de sistemas complejos para todo el ciclo de vida del buque militar. 5. Incorporar las tecnologías digitales al producto, a los procesos, a las personas y al propio modelo de negocio. 6. Desarrollar planes de actuación con el cliente domestico a largo plazo. Estos planes tienen que estar basados en tres premisas: (i) deben incluir el ciclo de vida completo, desde la fase de investigación y desarrollo hasta la retirada del buque del servicio; (ii) la demanda debe ser sofisticada, es decir las exigencias del cliente, tanto desde la óptica de producto como de eficiencia, “tiran” del contratista y (iii) permitir el mantenimiento del nivel tecnológico y de las capacidades industriales de la compañía a futuro y posicionarla para que pueda competir en el mercado de exportación. 7. Impulsar el sector militar de exportación mediante una mayor actividad comercial a nivel internacional. 8. Fomentar la multilocalización ya que representa una oportunidad de crecimiento y favorece la exportación posibilitando el suministro de soluciones integrales en el país destino. 9. Reforzar la diplomacia institucional como palanca para la exportación. 10. Potenciar el liderazgo tecnológico tanto en producto como en procesos con políticas activas de I + D+ i. 11. Reforzar la capacidad de financiación con soluciones innovadoras. El segundo objetivo de esta tesis se centra en el desarrollo de soluciones integrales de Apoyo al Ciclo de Vida (ACV). La metodología planteada trata de minimizar la brecha entre capacidades y necesidades a lo largo de la vida operativa del barco. Es decir, el objetivo principal de los programas de ACV es que la unidad conserve durante toda su vida operativa, en términos relativos a las tecnologías existentes, las capacidades equivalentes a las que tendrá cuando entre en servicio. Los ejes de actuación para conseguir que un programa de Apoyo al Ciclo de Vida cumpla su objetivo son: el diseño orientado al valor, la ingeniería de Apoyo al Ciclo de Vida, los proyectos de refresco de tecnología, el mantenimiento Inteligente y los contratos basados en prestaciones. ABSTRACT On the first decades of the 21st century, organizations and administrations face challenges and come across opportunities threatened by a number of disruptive forces such as globalization, the ever-changing emerging technologies and the economic imbalances acting as drivers of the market transformation. This combination of factors is forcing all industrial companies to have more and higher demanding productivity levels, while bearing always in mind how to improve and meet the customer’s requirements. In this situation, we need to question ourselves again: Who is the customer? What does the customer value? And how can we deliver sustainable economic benefits? Considering this matter in a military naval industry framework sets the goals that this thesis intends to achieve. The first general goal is the definition of a new sustainable business model for the 2025 naval industry, adapted to the customer requirements and the new political, economic, social, technological and environmental scenario. And the second goal that arises as a consequence of the general model develops a methodology to implement “warship” through life support programs. The research is divided in four parts: the first one justifies, on the one hand, the need to change the existing model and, on the other, identifies the model structural factors. On the second part, current literature regarding one of the key issues on the new model (the Product-Service concept) is reviewed. Based on field research, the third part focuses entirely on military shipbuilding, analyzing specific key aspects of this field and identifying which of them are valued the most by Navies and how they manage through life cycles of warships. Finally, the foundation of the proposed model is presented and also the basic grounds for implementing a Through Life Support (TLS) program are developed. As a result of this research, the proposed model for the naval industry is based on eleven (11) key principles: 1. The warship (a high added value product) must be designed and built in a shipyard at the country developing the defense program. 2. Design must be customer value oriented, i.e.warship must be designed to effectively fulfill its mission throughout its operational life, ensuring safety at the ship and for the people and protecting the environment in accordance with current regulations. 3. The industry has to provide integrated Through Life Support solutions. 4. Develop and maintain integrated complex systems capabilities for the entire warship life cycle. 5. Introduce the product, processes, people and business model itself to digital technologies. 6. Develop long-term action plans with the domestic customer. These plans must be based on three premises: (i) the complete life cycle must be included, starting from the research and development stage throughout the ship’s disposal; (ii) customer demand has to be sophisticated, i.e. customer requirements, both from the efficiency and product perspective, "attract" the contractor and (iii) technological level and manufacturing capabilities of the company in the future must be maintained and a competitive position on the export market has to be achieved. 7. Promote the military exporting sector through increased international business. 8. Develop contractor multi-location as it entails an opportunity for growth and promote export opportunities providing integrated solutions in the customer's country. 9. Strengthen institutional diplomacy as a lever for export. 10. Promote technological leadership in both product and processes with active R & D & I policies (Research & Development & Innovation) 11. Strengthen financing capacity through innovative solutions. The second goal of this thesis is focused on developing integrated Through Life Support (TLS) solutions. The proposed methodology tries to minimize the gap between needs and capabilities through the ship operational life. It means, the main TLS program objective is to maintain the ship’s performance and capabilities during operational life, in relative terms to current technologies, equivalent to those the ship had when it entered service. The main actions to fulfill the TLS program objectives are: value-oriented design, TLS engineering, technology updating projects, intelligent maintenance and performance based contracts.