27 resultados para Orden de los Mínimos
em Universidad Politécnica de Madrid
Resumo:
Actualmente en el mercado existen una reducida variedad de materiales específicos de ruido de impactos. Los materiales que han de ser utilizados como material resiliente, han de cumplir unos valores muy bajos del módulo de elasticidad E. Mientras el valor del caucho blando está en el orden de los 100 kg/cm2, el valor del acero es de 2.100.000 kg/cm2 (21.000 veces mayor). Estos valores tan bajos hacen que diferencias de apenas 50 kg/cm2 produzcan variaciones muy importantes en las ganancias de aislamiento acústico. La realización de los ensayos de caracterización acústica a ruido de impacto en laboratorio es un proceso largo y caro. En primer lugar se necesita elaborar un forjado de referencia, que ha de ser ensayado de forma independiente. Con posterioridad, se ha de colocar la losa flotante, y volver a realizar la prueba. Con la diferencia de las medidas realizadas, se determinan los valores de módulo de elasticidad. Como alternativa a este método, en la ponencia del congreso “TECNIACÚSTICA GANDÍA 2006” sobre “estudio de cinco métodos para determinar las propiedades dinámicas de capas elásticas para la mejora del aislamiento a ruido de impactos”, presentada por Francisco Simón, David K. Anthony, Mª José Fernández, proponen un total de cinco alternativas al ensayo indicado en la norma. Al margen de las condiciones acústicas, las placas de suelo radiante necesitan garantizar unos valores mínimos de aislamiento térmico. Con las actuales necesidades normativas, la solución habitual consiste en la superposición de dos materiales: en primer lugar, inmediatamente sobre el forjado, se coloca el material encargado de proporcionar el aislamiento acústico, generalmente una lámina flexible de polietileno. Encima de ella se coloca la placa de aislamiento térmico, generalmente una plancha de poliestireno expandido con resaltes en las que se encajan las tuberías que conducen el agua calefactada. El poliestireno expandido convencional, no tiene unos valores de módulo elástico suficientemente bajo para poder actuar como material resiliente. Para conseguir estos valores, es necesario elastificar el material mediante su introducción en una prensa (Poliestireno expandido elastificado EEPS). La utilización de esta técnica es incompatible con el proceso de fabricación de planchas moldeadas con tetones para la integración de los soportes de las tuberías. La lámina flexible de polietileno, si tienes valores aceptables, tanto de aislamiento térmico como acústico, en cambio no es posible la integración de los tetones durante su proceso de fabricación para soportar las canalizaciones de agua. El objetivo de la investigación consiste en integrar en una única placa las características tanto térmicas como acústicas necesarias para satisfacer todas las necesidades. Como se ha indicado más arriba, los materiales resilientes han de cumplir unos valores muy bajos del módulo de elasticidad E. Mientras el valor del caucho blando está en el orden de los 100 kg/cm2, el valor del acero es de 2.100.000 kg/cm2 (21.000 veces mayor). Pero no es menos cierto que con acero, dando la forma adecuada (un helicoide) se consigue un elemento muy elástico, un muelle. Tal es así, que variando la forma se puede conseguir el módulo de elásticidad E deseado, resultando utilidades tan dispares como el resorte de un bolígrafo o la suspensión de un coche. Por otro lado, y como se ha indicado anteriormente, la determinación de los valores mecánicos de los materiales aislantes térmicos es cara y complicada. Como objetivo secundario de la investigación, se establece el proponer un ensayo alternativo, más rápido y económico que el propuesto por la norma para facilitar el estudio de nuevas alternativas, sin tener que hacer grandes desembolsos económicos en
Resumo:
En el artículo se presenta un modelo continuo y determinista de la actividad proliferativa celular. Sobre dicho modelo básico se aplican sucesivos refinamientos que tienen por objeto mejorar el ajuste a datos experimentales existentes. La base experimental del método son los ensayos realizados sobre el pez Cauratus aclimatado a 25 grados con un fotoperiodo de 12 horas durante un mes. Se analizó la actividad proliferativa en las células intestinales observando que aquélla es parcialmente sincronizada. Las medidas efectuadas y su contraste con el método propuesto sugieren que el modelo determinista y contínuo es una aproximación adecuada a la interpretación del ciclo evolutivo. Los resultados numéricos sugieren un comportamiento circadiano también para los tiempos de tránsito en las fases. Las amplitudes se ajustan observando los mínimos de las curvas y la fase se induce mediante análisis armónico de la tendencia general.
Resumo:
El geoide, definido como la superficie equipotencial que mejor se ajusta (en el sentido de los mínimos cuadrados) al nivel medio del mar en una determinada época, es la superficie que utilizamos como referencia para determinar las altitudes ortométricas. Si disponemos de una superficie equipotencial de referencia como dátum altimétrico preciso o geoide local, podemos entonces determinar las altitudes ortométricas de forma eficiente a partir de las altitudes elipsoidales proporcionadas por el Sistema Global de Navegación por Satélite (Global Navigation Satellite System, GNSS ). Como es sabido uno de los problemas no resueltos de la geodesia (quizás el más importante de los mismos en la actualidad) es la carencia de un dátum altimétrico global (Sjoberg, 2011) con las precisiones adecuadas. Al no existir un dátum altimétrico global que nos permita obtener los valores absolutos de la ondulación del geoide con la precisión requerida, es necesario emplear modelos geopotenciales como alternativa. Recientemente fue publicado el modelo EGM2008 en el que ha habido una notable mejoría de sus tres fuentes de datos, por lo que este modelo contiene coeficientes adicionales hasta el grado 2190 y orden 2159 y supone una sustancial mejora en la precisión (Pavlis et al., 2008). Cuando en una región determinada se dispone de valores de gravedad y Modelos Digitales del Terreno (MDT) de calidad, es posible obtener modelos de superficies geopotenciales más precisos y de mayor resolución que los modelos globales. Si bien es cierto que el Servicio Nacional Geodésico de los Estados Unidos de América (National Geodetic Survey, NGS) ha estado desarrollando modelos del geoide para la región de los Estados Unidos de América continentales y todos sus territorios desde la década de los noventa, también es cierto que las zonas de Puerto Rico y las Islas Vírgenes Estadounidenses han quedado un poco rezagadas al momento de poder aplicar y obtener resultados de mayor precisión con estos modelos regionales del geoide. En la actualidad, el modelo geopotencial regional vigente para la zona de Puerto Rico y las Islas Vírgenes Estadounidenses es el GEOID12A (Roman y Weston, 2012). Dada la necesidad y ante la incertidumbre de saber cuál sería el comportamiento de un modelo del geoide desarrollado única y exclusivamente con datos de gravedad locales, nos hemos dado a la tarea de desarrollar un modelo de geoide gravimétrico como sistema de referencia para las altitudes ortométricas. Para desarrollar un modelo del geoide gravimétrico en la isla de Puerto Rico, fue necesario implementar una metodología que nos permitiera analizar y validar los datos de gravedad terrestre existentes. Utilizando validación por altimetría con sistemas de información geográfica y validación matemática por colocación con el programa Gravsoft (Tscherning et al., 1994) en su modalidad en Python (Nielsen et al., 2012), fue posible validar 1673 datos de anomalías aire libre de un total de 1894 observaciones obtenidas de la base de datos del Bureau Gravimétrico Internacional (BGI). El aplicar estas metodologías nos permitió obtener una base de datos anomalías de la gravedad fiable la cual puede ser utilizada para una gran cantidad de aplicaciones en ciencia e ingeniería. Ante la poca densidad de datos de gravedad existentes, fue necesario emplear un método alternativo para densificar los valores de anomalías aire libre existentes. Empleando una metodología propuesta por Jekeli et al. (2009b) se procedió a determinar anomalías aire libre a partir de los datos de un MDT. Estas anomalías fueron ajustadas utilizando las anomalías aire libre validadas y tras aplicar un ajuste de mínimos cuadrados por zonas geográficas, fue posible obtener una malla de datos de anomalías aire libre uniforme a partir de un MDT. Tras realizar las correcciones topográficas, determinar el efecto indirecto de la topografía del terreno y la contribución del modelo geopotencial EGM2008, se obtuvo una malla de anomalías residuales. Estas anomalías residuales fueron utilizadas para determinar el geoide gravimétrico utilizando varias técnicas entre las que se encuentran la aproximación plana de la función de Stokes y las modificaciones al núcleo de Stokes, propuestas por Wong y Gore (1969), Vanicek y Kleusberg (1987) y Featherstone et al. (1998). Ya determinados los distintos modelos del geoide gravimétrico, fue necesario validar los mismos y para eso se utilizaron una serie de estaciones permanentes de la red de nivelación del Datum Vertical de Puerto Rico de 2002 (Puerto Rico Vertical Datum 2002, PRVD02 ), las cuales tenían publicados sus valores de altitud elipsoidal y elevación. Ante la ausencia de altitudes ortométricas en las estaciones permanentes de la red de nivelación, se utilizaron las elevaciones obtenidas a partir de nivelación de primer orden para determinar los valores de la ondulación del geoide geométrico (Roman et al., 2013). Tras establecer un total de 990 líneas base, se realizaron dos análisis para determinar la 'precisión' de los modelos del geoide. En el primer análisis, que consistió en analizar las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A) en función de las distancias entre las estaciones de validación, se encontró que el modelo con la modificación del núcleo de Stokes propuesta por Wong y Gore presentó la mejor 'precisión' en un 91,1% de los tramos analizados. En un segundo análisis, en el que se consideraron las 990 líneas base, se determinaron las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A), encontrando que el modelo que presenta la mayor 'precisión' también era el geoide con la modificación del núcleo de Stokes propuesta por Wong y Gore. En este análisis, el modelo del geoide gravimétrico de Wong y Gore presento una 'precisión' de 0,027 metros en comparación con la 'precisión' del modelo EGM2008 que fue de 0,031 metros mientras que la 'precisión' del modelo regional GEOID12A fue de 0,057 metros. Finalmente podemos decir que la metodología aquí presentada es una adecuada ya que fue posible obtener un modelo del geoide gravimétrico que presenta una mayor 'precisión' que los modelos geopotenciales disponibles, incluso superando la precisión del modelo geopotencial global EGM2008. ABSTRACT The geoid, defined as the equipotential surface that best fits (in the least squares sense) to the mean sea level at a particular time, is the surface used as a reference to determine the orthometric heights. If we have an equipotential reference surface or a precise local geoid, we can then determine the orthometric heights efficiently from the ellipsoidal heights, provided by the Global Navigation Satellite System (GNSS). One of the most common and important an unsolved problem in geodesy is the lack of a global altimetric datum (Sjoberg, 2011)) with the appropriate precision. In the absence of one which allows us to obtain the absolute values of the geoid undulation with the required precision, it is necessary to use alternative geopotential models. The EGM2008 was recently published, in which there has been a marked improvement of its three data sources, so this model contains additional coefficients of degree up to 2190 and order 2159, and there is a substantial improvement in accuracy (Pavlis et al., 2008). When a given region has gravity values and high quality digital terrain models (DTM), it is possible to obtain more accurate regional geopotential models, with a higher resolution and precision, than global geopotential models. It is true that the National Geodetic Survey of the United States of America (NGS) has been developing geoid models for the region of the continental United States of America and its territories from the nineties, but which is also true is that areas such as Puerto Rico and the U.S. Virgin Islands have lagged behind when to apply and get more accurate results with these regional geopotential models. Right now, the available geopotential model for Puerto Rico and the U.S. Virgin Islands is the GEOID12A (Roman y Weston, 2012). Given this need and given the uncertainty of knowing the behavior of a regional geoid model developed exclusively with data from local gravity, we have taken on the task of developing a gravimetric geoid model to use as a reference system for orthometric heights. To develop a gravimetric geoid model in the island of Puerto Rico, implementing a methodology that allows us to analyze and validate the existing terrestrial gravity data is a must. Using altimetry validation with GIS and mathematical validation by collocation with the Gravsoft suite programs (Tscherning et al., 1994) in its Python version (Nielsen et al., 2012), it was possible to validate 1673 observations with gravity anomalies values out of a total of 1894 observations obtained from the International Bureau Gravimetric (BGI ) database. Applying these methodologies allowed us to obtain a database of reliable gravity anomalies, which can be used for many applications in science and engineering. Given the low density of existing gravity data, it was necessary to employ an alternative method for densifying the existing gravity anomalies set. Employing the methodology proposed by Jekeli et al. (2009b) we proceeded to determine gravity anomaly data from a DTM. These anomalies were adjusted by using the validated free-air gravity anomalies and, after that, applying the best fit in the least-square sense by geographical area, it was possible to obtain a uniform grid of free-air anomalies obtained from a DTM. After applying the topographic corrections, determining the indirect effect of topography and the contribution of the global geopotential model EGM2008, a grid of residual anomalies was obtained. These residual anomalies were used to determine the gravimetric geoid by using various techniques, among which are the planar approximation of the Stokes function and the modifications of the Stokes kernel, proposed by Wong y Gore (1969), Vanicek y Kleusberg (1987) and Featherstone et al. (1998). After determining the different gravimetric geoid models, it was necessary to validate them by using a series of stations of the Puerto Rico Vertical Datum of 2002 (PRVD02) leveling network. These stations had published its values of ellipsoidal height and elevation, and in the absence of orthometric heights, we use the elevations obtained from first - order leveling to determine the geometric geoid undulation (Roman et al., 2013). After determine a total of 990 baselines, two analyzes were performed to determine the ' accuracy ' of the geoid models. The first analysis was to analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) in function of the distance between the validation stations. Through this analysis, it was determined that the model with the modified Stokes kernel given by Wong and Gore had the best 'accuracy' in 91,1% for the analyzed baselines. In the second analysis, in which we considered the 990 baselines, we analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) finding that the model with the highest 'accuracy' was also the model with modifying Stokes kernel given by Wong and Gore. In this analysis, the Wong and Gore gravimetric geoid model presented an 'accuracy' of 0,027 meters in comparison with the 'accuracy' of global geopotential model EGM2008, which gave us an 'accuracy' of 0,031 meters, while the 'accuracy ' of the GEOID12A regional model was 0,057 meters. Finally we can say that the methodology presented here is adequate as it was possible to obtain a gravimetric geoid model that has a greater 'accuracy' than the geopotential models available, even surpassing the accuracy of global geopotential model EGM2008.
Resumo:
El objetivo de este proyecto consiste en verificar si existen métodos de ajuste que nos permitan corregir observaciones que llevan introducidas un cierto error grosero. Este error puede ser cometido por el operador al realizar la toma de datos. Cuando se realiza el ajuste por el método clásico de una serie de observaciones que componen una red y éstas llevan incluidas un error grosero, el resultado del ajuste es totalmente inválido, ya que este método tiende a repartir los errores cometidos entre todas las observaciones dando como resultado residuos muy elevados. Normalmente, ante este tipo de casos, el usuario responde invalidando las observaciones con mayor residuo y procediendo a realizar el ajuste sin contar con las observaciones que se anularon. Para llevar a cabo este proceso, debe haber redundancia en la toma de datos, ya que si no se dispusiera de la misma, no podrían eliminarse observaciones. Nuestro objetivo real es llevar a cabo un estudio en el que demostrar que el método de ajuste por técnicas de estimación robusta tiene una capacidad infinitamente superior a los mínimos cuadrados en la detección de errores groseros en observaciones, permitiendo de esta forma al usuario corregir dicho error e incluir esa observación en el ajuste. Este método de ajuste (estimación robusta) comenzó a emplearse en el campo de la fotogrametría. Es por ello que nuestra investigación irá encaminada al empleo de los estimadores robustos en aplicaciones topográficas en las que todavía no han sido utilizados. Se decidió iniciar este estudio porque era un proyecto innovador que nunca había sido realizado y las conclusiones del mismo han sido muy favorables, como se puede comprobar más adelante.
Resumo:
El propósito de esta tesis era analizar las consecuencias arquitectónicas de la obsesión orientalista en tres autores de finales del XIX, intentando plantear con ello los fundamentos de lo que llamamos “imaginario” orientalista. Las autores estudiados son, un escritor, Pierre Loti, y dos pintores, Sir Frederic Leighton y Claude Monet, exponentes cada uno de un enfoque particular del orientalismo. Los tres casos estudiados incluyen las casas donde vivieron transformadas ahora en museos abiertos a la curiosidad de cualquiera. El estudio de estos casos nos llevó a acometer una serie de temáticas que se perfilan en el transcurso de la escritura como lo mas importante del trabajo. Estas temáticas son: la construcción de la interioridad, el rol del vacío como entidad material y física en esas arquitecturas, el orden de los objetos y su protagonismo en esos interiores, las categorías ontológicas del habitar en esas viviendas. Estas temáticas de alguna manera fueron enfocadas y realizadas por el “orientalismo” como dispositivos que intervienen poderosamente en los imaginarios relacionados con Oriente… con ramificaciones en las problemáticas políticas, sociales y culturales que estaba viviendo el “sujeto europeo culto” en el advenimiento de la modernidad. ABSTRACT The purpose of this thesis in the first instance was to analyze three expressions of Orientalism from the field of architecture , trying to prove through them as these examples constituted a closure of Orientalist discourse , while they complete the Orientalist imaginary that starts its construction through literature and painting finishing in architecture. Because of this, the case studies comprise a writer, Pierre Loti, and two painters, Sir Frederic Leighton and Claude Monet, each one as an exponent of a different facet of Orientalism. In each case the legacy of these artists has included his house , which now transformed into a museum , it is possible to visit and study despite the time of its construction. The study of these cases allowed on a second instance, to present a number of issues that in the end were the most important thing in this work, these issues deal with problems such as the construction of interiority in the late nineteenth century , the role which the vacuum play as a mental and physical entity in this architecture , the order of the objects and their role in the interiors of the time, the political and social control and discipline of housing space , the ontological categories of dwelling , etc. . All these issues somehow were enhanced by Orientalism , which with their devices intervened powerfully in building an imaginary not only related to East, but also with the political, social and cultural issues , that Europeans were living in the transit to the advent of modernity, and that will put under a critical view all these issues.
Resumo:
The analysis of the interference modes has an increasing application, especially in the field of optical biosensors. In this type of sensors, the displacement Δν of the interference modes of the transduction signal is observed when a particular biological agent is placed over the biosensor. In order to measure this displacement, the position of a maximum (or a minimum) of the signal must be detected before and after placing the agent over the sensor. A parameter of great importance for this kind of sensors is the period Pν of the signal, which is inversely proportional to the optical thickness h0 of the sensor in the absence of the biological agent. The increase of this period improves the sensitivity of the sensor but it worsens the detection of the maximum. In this paper, authors analyze the propagation of uncertainties in these sensors when using least squares techniques for the detection of the maxima (or minima) of the signal. Techniques described in supplement 2 of the ISO-GUM Guide are used. The result of the analysis allows a metrological educated answer to the question of which is the optimal period Pν of the signal. El análisis del comportamiento de los modos de interferencia tiene una aplicación cada vez más amplia, especialmente en el campo de los biosensores ópticos. En este tipo de sensores se observa el desplazamiento Δν de los modos de interferencia de la señal de transducción al reconocer un de-terminado agente biológico. Para medir ese desplazamiento se debe detectar la posición de un máximo o mínimo de la señal antes y después de dicho desplazamiento. En este tipo de biosensores un parámetro de gran importancia es el periodo Pν de la señal el cual es inversamente proporcional al espesor óptico h0 del sensor en ausencia de agente biológico. El aumento de dicho periodo mejora la sensibilidad del sensor pero parece dificultar la detección del mínimo o máximo. Por tanto, su efecto sobre la incertidumbre del resultado de la medida presenta dos efectos contrapuestos: la mejora de la sensibilidad frente a la dificultad creciente en la detección del mínimo ó máximo. En este trabajo, los autores analizan la propagación de incertidumbres en estos sensores utilizando herramientas de ajuste por MM.CC. para la detección de los mínimos o máximos de la señal y técnicas de propagación de incertidumbres descritas en el suplemento 2 de la Guía ISO-GUM. El resultado del análisis permite dar una respuesta, justificada desde el punto de vista metrológico, de en que condiciones es conveniente o no aumentar el periodo Pν de la señal.
Resumo:
El primer procesamiento estricto realizado con el software científico Bernese y contemplando las más estrictas normas de cálculo recomendadas internacionalmente, permitió obtener un campo puntual de alta exactitud, basado en la integración y estandarización de los datos de una red GPS ubicada en Costa Rica. Este procesamiento contempló un total de 119 semanas de datos diarios, es decir unos 2,3 años, desde enero del año 2009 hasta abril del año 2011, para un total de 30 estaciones GPS, de las cuales 22 están ubicadas en el territorio nacional de Costa Rica y 8 internaciones pertenecientes a la red del Sistema Geocéntrico para las Américas (SIRGAS). Las denominadas soluciones semilibres generaron, semana a semana, una red GPS con una alta exactitud interna definida por medio de los vectores entre las estaciones y las coordenadas finales de la constelación satelital. La evaluación semanal dada por la repetibilidad de las soluciones brindó en promedio errores de 1,7 mm, 1,4 mm y 5,1 mm en las componentes [n e u], confirmando una alta consistencia en estas soluciones. Aunque las soluciones semilibres poseen una alta exactitud interna, las mismas no son utilizables para fines de análisis cinemático, pues carecen de un marco de referencia. En Latinoamérica, la densificación del Marco Internacional Terrestre de Referencia (ITRF), está representado por la red de estaciones de operación continua GNSS de SIRGAS, denominada como SIRGAS-CON. Por medio de las denominadas coordenadas semanales finales de las 8 estaciones consideradas como vínculo, se refirió cada una de las 119 soluciones al marco SIRGAS. La introducción del marco de referencia SIRGAS a las soluciones semilibres produce deformaciones en estas soluciones. Las deformaciones de las soluciones semilibres son producto de las cinemática de cada una de las placas en las que se ubican las estaciones de vínculo. Luego de efectuado el amarre semanal a las coordenadas SIRGAS, se hizo una estimación de los vectores de velocidad de cada una de las estaciones, incluyendo las de amarre, cuyos valores de velocidad se conocen con una alta exactitud. Para la determinación de las velocidades de las estaciones costarricenses, se programó una rutina en ambiente MatLab, basada en una ajuste por mínimos cuadrados. Los valores obtenidos en el marco de este proyecto en comparación con los valores oficiales, brindaron diferencias promedio del orden de los 0,06 cm/a, -0,08 cm/a y -0,10 cm/a respectivamente para las coordenadas [X Y Z]. De esta manera se logró determinar las coordenadas geocéntricas [X Y Z]T y sus variaciones temporales [vX vY vZ]T para el conjunto de 22 estaciones GPS de Costa Rica, dentro del datum IGS05, época de referencia 2010,5. Aunque se logró una alta exactitud en los vectores de coordenadas geocéntricas de las 22 estaciones, para algunas de las estaciones el cálculo de las velocidades no fue representativo debido al relativo corto tiempo (menos de un año) de archivos de datos. Bajo esta premisa, se excluyeron las ocho estaciones ubicadas al sur de país. Esto implicó hacer una estimación del campo local de velocidades con solamente veinte estaciones nacionales más tres estaciones en Panamá y una en Nicaragua. El algoritmo usado fue el denominado Colocación por Mínimos Cuadrados, el cual permite la estimación o interpolación de datos a partir de datos efectivamente conocidos, el cual fue programado mediante una rutina en ambiente MatLab. El campo resultante se estimó con una resolución de 30' X 30' y es altamente constante, con una velocidad resultante promedio de 2,58 cm/a en una dirección de 40,8° en dirección noreste. Este campo fue validado con base en los datos del modelo VEMOS2009, recomendado por SIRGAS. Las diferencias de velocidad promedio para las estaciones usadas como insumo para el cálculo del campo fueron del orden los +0,63 cm/a y +0,22 cm/a para los valores de velocidad en latitud y longitud, lo que supone una buena determinación de los valores de velocidad y de la estimación de la función de covarianza empírica, necesaria para la aplicación del método de colocación. Además, la grilla usada como base para la interpolación brindó diferencias del orden de -0,62 cm/a y -0,12 cm/a para latitud y longitud. Adicionalmente los resultados de este trabajo fueron usados como insumo para hacer una aproximación en la definición del límite del llamado Bloque de Panamá dentro del territorio nacional de Costa Rica. El cálculo de las componentes del Polo de Euler por medio de una rutina programa en ambiente MatLab y aplicado a diferentes combinaciones de puntos no brindó mayores aportes a la definición física de este límite. La estrategia lo que confirmó fue simplemente la diferencia en la dirección de todos los vectores velocidad y no permitió reveló revelar con mayor detalle una ubicación de esta zona dentro del territorio nacional de Costa Rica. ABSTRACT The first strict processing performed with the Bernese scientific software and contemplating the highest standards internationally recommended calculation, yielded a precise field of high accuracy, based on the integration and standardization of data from a GPS network located in Costa Rica. This processing watched a total of 119 weeks of daily data, is about 2.3 years from January 2009 to April 2011, for a total of 30 GPS stations, of which 22 are located in the country of Costa Rica and 8 hospitalizations within the network of Geocentric System for the Americas (SIRGAS). The semi-free solutions generated, every week a GPS network with high internal accuracy defined by vectors between stations and the final coordinates of the satellite constellation. The weekly evaluation given by repeatability of the solutions provided in average errors of 1.7 mm 1.4 mm and 5.1 mm in the components [n e u], confirming a high consistency in these solutions. Although semi-free solutions have a high internal accuracy, they are not used for purposes of kinematic analysis, because they lack a reference frame. In Latin America, the densification of the International Terrestrial Reference Frame (ITRF), is represented by a network of continuously operating GNSS stations SIRGAS, known as SIRGAS-CON. Through weekly final coordinates of the 8 stations considered as a link, described each of the solutions to the frame 119 SIRGAS. The introduction of the frame SIRGAS to semi-free solutions generates deformations. The deformations of the semi-free solutions are products of the kinematics of each of the plates in which link stations are located. After SIRGAS weekly link to SIRGAS frame, an estimate of the velocity vectors of each of the stations was done. The velocity vectors for each SIRGAS stations are known with high accuracy. For this calculation routine in MatLab environment, based on a least squares fit was scheduled. The values obtained compared to the official values, gave average differences of the order of 0.06 cm/yr, -0.08 cm/yr and -0.10 cm/yr respectively for the coordinates [XYZ]. Thus was possible to determine the geocentric coordinates [XYZ]T and its temporal variations [vX vY vZ]T for the set of 22 GPS stations of Costa Rica, within IGS05 datum, reference epoch 2010.5. The high accuracy vector for geocentric coordinates was obtained, however for some stations the velocity vectors was not representative because of the relatively short time (less than one year) of data files. Under this premise, the eight stations located in the south of the country were excluded. This involved an estimate of the local velocity field with only twenty national stations plus three stations in Panama and Nicaragua. The algorithm used was Least Squares Collocation, which allows the estimation and interpolation of data from known data effectively. The algorithm was programmed with MatLab. The resulting field was estimated with a resolution of 30' X 30' and is highly consistent with a resulting average speed of 2.58 cm/y in a direction of 40.8° to the northeast. This field was validated based on the model data VEMOS2009 recommended by SIRGAS. The differences in average velocity for the stations used as input for the calculation of the field were of the order of +0.63 cm/yr, +0.22 cm/yr for the velocity values in latitude and longitude, which is a good determination velocity values and estimating the empirical covariance function necessary for implementing the method of application. Furthermore, the grid used as the basis for interpolation provided differences of about -0.62 cm/yr, -0.12 cm/yr to latitude and longitude. Additionally, the results of this investigation were used as input to an approach in defining the boundary of Panama called block within the country of Costa Rica. The calculation of the components of the Euler pole through a routine program in MatLab and applied to different combinations of points gave no further contributions to the physical definition of this limit. The strategy was simply confirming the difference in the direction of all the velocity vectors and not allowed to reveal more detail revealed a location of this area within the country of Costa Rica.
Resumo:
Plaza Navona representa una de las visitas obligadas de Roma, pero solo algunos advertirán en ella la presencia española en la sala de exposiciones del Instituto Cervantes o en la inmediata Libreria Española. Todavía serán menos los que se percatarán de la huella española dejada en aquella iglesia de fachada anónima situada, en el extremo sur de la plaza: la antigua iglesia de Santiago de los Españoles. La presente tesis pretende, utilizando el dibujo como guía, herramienta y fin del proceso de análisis y estudio, reconstruir el proceso de conformación y construcción de la que fue iglesia española principal, cuya fundación hace patente el destacado papel jugado por la “nación” castellana en Roma durante la Edad Media; y en torno a la que se aglutinaron las actividades religiosas, diplomáticas y financieras de los castellanos que vivieron en la actual capital italiana. Se intentará recrear en el tiempo la que es hoy la iglesia de Nuestra Señora del Sagrado Corazón, sometiéndola a una restitución gráfica disciplinada, homogénea y objetiva en la medida de lo posible de las varias etapas que la han caracterizadas, desde su fundación hasta cuando en 1878 España se deshizo de ella, ya en ruina, vendiéndola. Como nos comenta Gaetano Moroni, de todas las comunidades nacionales que se encontraban en Roma la española parece ser efectivamente una de las más rica y prestigiosa. Aunque lo que no cuenta Moroni no haya sido todavía demostrado, dicho enunciado resulta de todas formas interesante puesto que pone el acento sobre el hecho de que ya desde el siglo X parece ser habitual de ocupar y reutilizar antiguas ruinas, usándolas como base para la construcción de hospitales para los peregrinos. Esta operación se hizo particularmente frecuente sobre todo antes del Gran Jubileo de 1450: de hecho desde la primera mitad del Quattrocento se fundan distintas iglesias y hospitales nacionales para acoger y prestar una adecuada asistencia y socorro a los innumerables peregrinos que llegaban a la ciudad, edificios que se van construyendo sobre los restos de antiguos edificios de época romana. Prueba de ello es en efecto la fundación originaria de la iglesia y hospital de los Españoles que, parte del conjunto de edificios que compone la Plaza Navona, situada en el corazón de Campo Marzio y cuya posición y forma corresponden a la del antiguo Estadio de Domiciano, y que ahora es en sus dimensiones, en su imagen arquitectónica y en su consistencia material, el resultado de la definición proyectual y de las transformaciones que se llevaron a cabo sobre lo que quedaba del antiguo templo español del siglo XV, entre finales del ‘800 y los años 30 del siglo XX . Transformaciones devastadoras, huellas grabadas o canceladas que encuentran una justificación en los acontecimientos históricos reflejados en el patrimonio urbano. El análisis de todas las fuentes permite trazar, si no la totalidad, buena parte de las modificaciones que la antigua iglesia de Santiago ha sufrido. La construcción del templo se puede dividir en tres momentos decisivos: una primera etapa de fundación en 1450-1478 en la que la iglesia tenía fachada y entrada en via de la Sapienza, hoy Corso Rinascimento; una segunda de significativa ampliación hacia Plaza Navona con una nueva fachada monumental hacia ese espacio público en 1496-1500; y una última importante ampliación entre 1525-1526, llevada a cabo por el arquitecto Antonio da Sangallo el Joven. Tras la intensa vida del templo, en el siglo XVIII, éste cae en ruina y finalmente es vendido en 1878 a la orden de los misioneros franceses de Nuestra Señora del Sagrado Corazón que la reconvierten en iglesia reformando totalmente el conjunto en 1881, según proyecto de Luca Carimini. En 1936, en plena fase de rectificación de trazados urbanos por obra del régimen fascista, según proyecto de Arnaldo Foschini, se mutila su extremidad hacia vía de la Sapienza dejando su estado tal y como se contempla en la actualidad. ABSTRACT The objective of this thesis is the reconstruction of the design and edification process -using drawings and sketches as a guide, tool and the end of the analytical process- of a church which was once the preeminent Spanish church in medieval Rome, known today as Nostra Signora del Sacro Cuore (Our Lady of the Sacred Heart). The founding of this church illustrates the important role held by the Castillian “nation” in Rome during the Middle Ages. It was the focal point of all the religious, diplomatic and economic activities of the Castillian community residing in today’s Italian capital. The aim of this proyect is a recreation the church in time by submitting it to a disciplined, homogenous and objective graphic restitution of the various stages most characteristic the temple, starting from its foundation until 1878 when, in a state of ruins, the church was finally sold off by Spain. Gaetano Moroni once commented that of all the international communities found in Rome, the Spanish community seemed to be one of the wealthiest and most prestigious. Such a statement proves interesting as it emphasizes that starting in the 10th century we see there was a widespread custom of occupying and reusing old ruins for use as the bases of new constructions of hospitals for pilgrims. This custom became especially frequent just before the Jubilee Year of 1450: in fact, in the first half of the Quattrocento we see the founding of many different national churches and hospitals which provided shelter and care to the countless pilgrims arriving in the city, buildings which were constructed on top of the ruins of ancient buildings left over from Roman times. Proof of this is the original foundation of the Spanish church and hospital forming part of the Piazza Navona, built upon and following the outline of the Stadium of Domitian, in the heart of Campo Marzio. Now, in its dimensions, its architectural image and its material substance, it represents the predominant result of the planning definitions and the transformations which affected the old 15th-century Spanish temple. Ocurring between the end of the 19th century and the 1930s, the transformations were devastating, erasing original peculiarities and engraving new ones, transformations made justifiable by the historical events reflected in its urban environs. Analyzing all sources allows us to trace, even if not in entirety, still a sizeable portion of the modifications undergone by the old Church of Saint James. The construction of the temple can be divided into three decisive moments: its foundation, from 1450 to 1478, when the church’s façade and main door looked out on to the Via della Sapienza, today’s central avenue of Corso del Rinascimento; the second stage being a major expansion towards the Piazza Navona (1496-1500) with a new, monumental façade facing the public space; and the third was the last significant expansion, carried out from 1525 to 1526 by the architect Antonio da Sangallo the Younger. Despite an intense and bustling life during the Modern Age, in the 18th century the church began to fall into ruin and was finally sold in 1878 to the order of French missionaries of Our Lady of the Sacred Heart, who reconverted it into a church and completely renovated the structure in 1881 in a project supervised by Luca Carimini. In 1936, the corrective urban redesign of Rome carried out by the fascist regime and implemented by Arnaldo Foschini mutilated the part bordering Via della Sapienza, leaving it as we see it today.
Resumo:
La historia de la arquitectura se ha medido - en parte - por la evolución de las modas, épocas y estilos de la arquitectura religiosa. En la aparición de las nuevas capillas interreligiosas universitarias de los años '50 de Norteamérica, la capilla del M.I.T., bautizada tras su inauguración como “Kresge Chapel” en honor al apellido de su benefactor, fue el máximo exponente como prototipo en esta época marcada por la aparición nuevas conciencias de posguerra. (II Guerra Mundial). La tesis centra su investigación en esta capilla, cómo nació en respuesta a la necesidad de compatibilizar la enseñanza reglada científico tecnológica con una formación religiosa y humanista, para el programa impuesto como ampliación del campus universitario del MIT en el barrio universitario de Cambridge, Boston, Massachussets, en torno a dos edificios principales a proyectar: capilla y auditorio. Desde el trabajo de investigación se aporta la información documental necesaria para saber cómo evolucionó desde sus primeros bocetos hasta su construcción. Su nacimiento como necesidad en la sociedad universitaria no fue nada espontáneo, quedando a medias entre la influencia escandinavo - alemana y la tradición americano-luterana de anteriores iglesias neoclásicas herederas del “Plan Akron”. La formación académica y profesional dirigida por su padre, Eliel Saarinen, suman junto a los viajes del arquitecto, una herencia “genética” para con este prototipo ajeno al emergente “estilo internacional” y ayudan a comprender la dimensión compleja de lo que es capaz de representar la capilla. La capilla es refugio emocional de la luz y es un punto de inflexión notable en la recuperación del tipo centrado renovado y evolucionado, que junto con el doble recurso lumínico - efectista, de la vertical para el altar y horizontal inferior, distribuido desde el perímetro ondulado en el interior, el ejemplo es muestra la promoción de una cierta sensibilidad para con las nuevas formas de la "religión" emergentes en la Norteamérica de los años 50. Desde el sincretismo como mecanismo y principal “modus operandi” proyectual, FE versus RAZÓN, aparecen como dualismo permanente en todas las fases del proyecto, desde un proceso de búsqueda de la armonía de ambos y para cada uno de ellos. Con el estudio del modelo prototípico del MIT, buscamos el "patrón" empleado por el arquitecto en su proyección de "nueva iglesia" adaptado a la diversidad cultural y religiosa y de las nuevas y diferentes sensibilidades humanistas para el proyecto. ----------------------------------------------------- SUMMARY--------------------------------------------------- The history of architecture is measured - in part - by the evolution of fashion, periods and styles of religious architecture. In the emergence of the new interfaith university chapel of the 1950s in North America, the chapel of MIT, named after its inauguration as "Kresge Chapel" in honor of its benefactor, was the best example of a prototype, in this time so marked by the emergence of new postwar consciousnesses. The thesis focuses its research on this chapel; how it came about in response to the need to reconcile formal scientific and technological education with religious and humanist training for the program imposed as an extension of the campus of MIT in the university district of Cambridge, Boston Massachusetts, around two main projected buildings : Chapel and auditorium. From research work has been obtained the documentary information necessary to know how it evolved from the first sketches to its construction. Its creation as a necessity of the university society was not at all spontaneous, being halfway between the Scandinavian influence - German and the American Lutheran tradition of neoclassical churches, the heirs to the "Akron Plan". The academic and professional training directed by his father, Eliel Saarinen, together with the travels of the architect, a "genetic" heritage with this external prototype for the emerging "international style", and help to understand the complex dimension of what the chapel is capable of representing. The chapel is an emotional refuge of light and is a remarkable turning point in the recovery of such focused renewed and evolved, along with the double lumen resource - gimmicky, vertical to the altar and lower horizontal, distributed from the undulating perimeter inside, the example is shown to promote a certain sensitivity to the new forms of "religion" but vague religious profile emerging in the America of the 50s. From the syncretism as a mechanism and main "modus operandi" of the project, FAITH versus REASON appears as permanent dualism in all phases of the project from a process of finding the harmony of both and for each of them. With the study of the prototypical model of MIT, we seek the "pattern" used by the architect in his projection of "new church" adapted to the cultural and religious diversity and new and different humanist sensitivities for the project. El desarrollo vierte la luz suficiente para entender los patrones de lo arquitectónico en la capilla, que hacen de ella, la comunión armónica y perfecta de los nombrados opuestos en el campus universitario del MIT. En el camino, además, la investigación arroja luz y orden sobre las fases del proyecto a través de la contribución, recogida, clasificación y orden de los datos, fechas y documentos gráficos, a día de hoy dispersos y confusamente publicados, debido a la no existencia de un estudio profundo y completo como el que pretende ser este trabajo, por ser una obra fundamental en la historia de la arquitectura moderna. El patrón final demostrará el artificio sincrético de cada una de las partes - cada uno en sí misma y cosidas todas - formando el "Ima Summis" de la capilla; resultado de la acción proyectual deducida de su serie genética descifrada. De esta forma, lo sincrético, aparece como el principal atributo del hecho construido, pasando de lo místico a lo científico, de lo intuitivo a lo razonado y siempre con el vehículo de su arquitectura para la interpretación de lo inefable al interior. En cuanto a la estructura de la tesis, se inicia el desarrollo a partir de una introducción en la que se declaran las intenciones y se describe el contexto de lo investigado en torno a la hipótesis principal anunciada en el subtítulo de la tesis. Frente a consideraciones previas de la capilla y de la propia investigación, se expone y explica la hipótesis principal, junto a otros objetivos secundarios. Para finalizar la introducción, se describe el método seguido como estrategia y se justifica la estructura de redacción del documento para la compresión de este trabajo hacia sus conclusiones. Es en el primer capítulo, el C1, donde se inicia el cuerpo central mediante la exposición historiográfica de la situación y contexto previo a la capilla como antecedentes. En un segundo capítulo, el C2, se aborda el estudio del desarrollo del proyecto y de la obra y construcción de la capilla, base documental necesaria. Para ello se inicia con la descripción del lugar, del encargo y del programa, para pasar a mostrar con detalle las distintas propuestas de cada una de las fases del proyecto. En definitiva, qué se proyecto, cómo evolucionó el proyecto y en qué fases transcurrió, para entre otras cuestiones, entender el cambio de estilo desde una fase influenciada por la capilla de Mies construida en el ITT de Chicago, (denominadas en este trabajo por esta influencia como modelos “miesianos”) y la fase reencuentro con el modus de hacer iniciado por su padre Eliel, a través de un modelo a medias de una herencia escandinavo - alemana y la tradición luterano - americana, (denominada en este trabajo como herencia o modelos “saariniana/os”). The development sheds enough light to understand the architectural patterns of the chapel, making it the perfect and harmonic communion named opposites on the campus of MIT. Along the way, furthermore, the research sheds light and order on the phases of the project through the contribution, collection, sorting and order of data, dates and graphic documents, today scattered and confusingly published, due to inexistence of a deep and comprehensive study like this work is meant to be, in the context of such a seminal work in the history of modern architecture. The final pattern will demonstrate the syncretic artifice of each of the parts - each in itself and all together - forming the "Ima Summis" of the chapel; the result of the project action deducted from its deciphered genetic series. Being the SYNCRETIC, the main attribute of the built matter, passing from the mystical to the scientific, from the intuitive to the reasoned and always with the vehicle of architecture as the representation of the ineffable. As for the structure of the thesis, the development starts from an introduction in which the intentions are declared and the context of that which is investigated is described, in terms of the main hypothesis announced in the subtitle of the thesis. Faced with previous considerations of the chapel and the research itself, the principal hypothesis is expressed and explained, along with other secondary objectives. To conclude the introduction, the method followed is described as a strategy and the structuring of the document is justified for the compression of this work towards its conclusions. It is in the first chapter of the thesis, the C1, where the main body of the work is initiated through the historiographical account of the situation and context prior to the chapel as antecedents. A second chapter, C2, addresses the study of the development of the project and of the work and construction of the chapel, based on the necessary documentary evidence. To this end, the analysis begins with the description of the place, the commission and the program, moving on to analyze in detail the various proposals of each phase. What is projected, how it evolved and through what phases passed the project to, among other questions, understand the change in style between the phase of influence of Mies through the projected chapel in the ITT of Chicago chapel (called in this work as "miesian" influences or models) and the reunion with the modus of making initiated by his father Eliel, through a model equally at once of Scandinavian-German heritage and of the American-Lutheran tradition, (referred to in this work as "saarinian" inheritance or models). Para el tercer capítulo, el C3, se llevan a estudio y análisis, los elementos más destacables en los que se prueban las particularidades llamadas “genéticas” en cada uno de las partes principales detectadas en la capilla. Desde ellas se rastrean las influencias - a veces sinergias - que ayudan a justificar y conformar una clasificación genética en torno a cuatro patrones principales, de los que poder discernir al final del capítulo, el “patrón matriz” de la propia capilla en base a la concurrencia de los órdenes arquitectónicos que los conforman. Una vez obtenida la información y orden necesario, se puede afrontar el punto álgido de esta tesis con el cuarto capítulo, el C4, en el que se justifica la capacidad sincrética de la capilla como respuesta a la hipótesis principal señalada en el subtítulo. Para ello se inicia el capítulo con el enfoque y contexto del término “sincretismo” y “sincrético”, aportando la justificación de sus usos para con esta investigación, antes de explicar que la capilla es sincrética por la suma de dos claves fundamentales. La clave primera, correspondiente a la capacidad interconfesional y aconfesional de la capilla, y su capacidad de trascender al interior desde ambas situaciones además de ser reconocible por el religioso y a la vez por el científico. Y la clave segunda, que corresponde a la suma de las distintas partes sincréticas, cada una en si mismas, capaz de sumar todas juntas, este edificio sincrético de los nombrados opuestos. Una vez discernido las claves de lo sincrético en la capilla y a pesar de su doble carácter SACRO Y PROFANO, una comparativa posiciona a la capilla como único entre los ejemplos interconfesionales construidos en los ´50, sin haberse repetido de igual manera y mismo resultado en el tiempo, ni en ninguna otra universidad o centro tecnológico. Así la exposición de este trabajo finaliza con el último capítulo, el C5, en el que desde esa comparativa, una serie de cuestiones unen y distancian a la del MIT y dan acierto a la apuesta inicial, concluyendo que la hipótesis y el patrón de la misma, es el patrón de lo sincrético que modela el ”modus operandi ” del arquitecto. Tras el desarrollo, la investigación cierra filas en torno a cuatro conclusiones para los cuatro capítulos principales; C2, C3, C4, C5. La capilla del MIT como modelo prototípico no se repite en el tiempo, ni en ninguna otra universidad y se posiciona como el mejor prototipo – hito de una nueva arquitectura religiosa universitaria. In the third chapter, C3, we study and analyze the most notable elements in which are found those particularities referred to as "genetic" in each of the principal parts, (see above C3.1.1... - C3.1.8), where these influences - sometimes synergies - are traced, helping to justify and form a classification based on four of those principals (see above C3.2), from which, at the end of this chapter may be discerned a matrix pattern, that of the chapel itself (see above. C3.3.), based on concurrent architectural orders. Once the necessary information and order is obtained, we come to the decisive point in the fourth chapter, C4, where the syncretic capacity of the chapel in response to the main hypothesis indicated in the subtitle of the thesis is justified. For this, the chapter beings with the focus and context of the terms "syncretism" and "syncretic", providing justification for their use for this research, going on to assert that the chapel is syncretic from the sum of two fundamental aspects: the first corresponds to the interfaith and non-denominational capacities of the chapel, its ability to transcend both situations and be recognizable by both the religious and the scientific. The second corresponds to the sum of the different syncretic parts, each in themselves, capable of making together a syncretic building with the opposite. Once discerned the keys to the syncretic and epic in the chapel and despite its dual character both SACRED and PROFANE, a comparatison positions the chapel as being unique among interfaith examples built in the 1950s, without being repeated in the same way and with the same result over time or in any other university or centre of technology. So, the exhibition of this work ends with the last chapter, C5, in which from that comparison a number of issues come together and to distance themselves from MIT and bear out the initial proposition, concluding that the hypothesis and its pattern, the pattern of the syncretic which models the "modus operandi" of the architect to contain the ineffable. The research closes ranks around four conclusions for the four main chapters; C2, C3, C4, and C5 The chapel of MIT as a prototypical model is not repeated in time, or any other university and is positioned as the best prototype - a landmark of a new universitary religious architecture.
Resumo:
En España existen un total de 14,6 millones de viviendas que requieren ser rehabilitadas, para adecuarlas a los estándares normativos, de confort y de eficiencia correspondientes al siglo XXI. El objetivo actual, tanto político como económico, es conseguir a medio plazo que este subsector movilice un volumen de recursos comparable a la obra nueva. Este objetivo requiere de la puesta en marcha de operaciones de rehabilitación a todas las escalas, y, muy particularmente, a gran escala, donde los aspectos urbanos, técnicos y sociales deben tomarse en consideración. Para que este importante subsector pueda desarrollarse en la medida deseada se han de producir ciertos cambios, algunos de importante calado, que afectan a la legislación vigente, a la gestión de las administraciones, al modelo productivo de la construcción y, como no, a la formación de los técnicos y agentes implicados. A su vez, deberá trascenderse el modelo tradicional de Rehabilitación, incorporando las nuevas políticas urbanas de Regeneración Urbana Integrada que se inician en la UE. Se habrá de atender, por consiguiente, a los requerimientos técnicos y a las líneas estratégicas que plantean todas y cada una de las escalas de intervención posibles sobre el citado medio urbano consolidado., como son: • Escala de Ciudad o Barrio, en el orden de las decenas de miles de viviendas. • Escala de Conjunto Urbano, en el orden de los cientos o miles de viviendas. • Escala de Edificio o sus Agrupaciones, en el orden de las decenas de viviendas, a desarrollar con un único proyecto arquitectónico. El medio urbano consolidado presenta, por otra parte, dos características diferenciales esenciales, como son las de encontrarse edificado y habitado, ya sea total o parcialmente. El hecho de estar físicamente consolidado obliga a un conocimiento lo más profundo posible de la edificación, urbanización,… existentes, y establece una serie de restricciones sobre las actuaciones, condicionando su diseño, construcción, estabilidad, etc.. El hecho de que exista una población residente en la pieza de ciudad sobre la que se va a intervenir es determinante a la hora de entender la necesidad de realizar cambios profundos en la formación de los agentes implicados. Las bases para la elaboración de un Programa Docente de la Rehabilitación se desprenden de forma inmediata de todo lo ya expuesto. Habrán de atenderse a los requerimientos de todas y cada una de las escalas de intervención posible sobre el medio urbano consolidado, que afectan a la obtención, con carácter trasversal de conocimientos relativos al campo del urbanismo, de la ejecución de las urbanizaciones de la rehabilitación y reconstrucción de edificios. Asimismo, habrá de contemplar los aspectos novedosos e imprescindibles para los estudios de índole técnica, como son los relativos al campo de la sociología, la educación y mediación social, el derecho, la gestión, tanto participativa como administrativa, la formación de equipos, el trabajo multidisciplinar, la comunicación y divulgación, la economía, la financiación, etc. Desde el punto vista de la programación temporal de la formación se propone una formación especializada que se imparta entre último curso de Grado y el Máster Universitario.
Resumo:
Esta memoria está basada en el crecimiento y caracterización de heteroestructuras Al(Ga)N/GaN y nanocolumnas ordenadas de GaN, y su aplicación en sensores químicos. El método de crecimiento ha sido la epitaxia de haces moleculares asistida por plasma (PAMBE). En el caso de las heteroestructuras Al(Ga)N/GaN, se han crecido barreras de distinto espesor y composición, desde AlN de 5 nm, hasta AlGaN de 35 nm. Además de una caracterización morfológica, estructural y eléctrica básica de las capas, también se han fabricado a partir de ellas dispositivos tipo HEMTs. La caracterización eléctrica de dichos dispositivos (carga y movilidad de en el canal bidimensional) indica que las mejores heteroestructuras son aquellas con un espesor de barrera intermedio (alrededor de 20 nm). Sin embargo, un objetivo importante de esta Tesis ha sido verificar las ventajas que podían tener los sensores basados en heteroestructuras AlN/GaN (frente a los típicos basados en AlGaN/GaN), con espesores de barrera muy finos (alrededor de 5 nm), ya que el canal de conducción que se modula por efecto de cambios químicos está más cerca de la superficie en donde ocurren dichos cambios químicos. De esta manera, se han utilizado los dispositivos tipo HEMTs como sensores químicos de pH (ISFETs), y se ha comprobado la mayor sensibilidad (variación de corriente frente a cambios de pH, Ids/pH) en los sensores basados en AlN/GaN frente a los basados en AlGaN/GaN. La mayor sensibilidad es incluso más patente en aplicaciones en las que no se utiliza un electrodo de referencia. Se han fabricado y caracterizado dispositivos ISFET similares utilizando capas compactas de InN. Estos sensores presentan peor estabilidad que los basados en Al(Ga)N/GaN, aunque la sensibilidad superficial al pH era la misma (Vgs/pH), y su sensibilidad en terminos de corriente de canal (Ids/pH) arroja valores intermedios entre los ISFET basados en AlN/GaN y los valores de los basados en AlGaN/GaN. Para continuar con la comparación entre dispositivos basados en Al(Ga)N/GaN, se fabricaron ISFETs con el área sensible más pequeña (35 x 35 m2), de tamaño similar a los dispositivos destinados a las medidas de actividad celular. Sometiendo los dispositivos a pulsos de voltaje en su área sensible, la respuesta de los dispositivos de AlN presentaron menor ruido que los basados en AlGaN. El ruido en la corriente para dispositivos de AlN, donde el encapsulado no ha sido optimizado, fue tan bajo como 8.9 nA (valor rms), y el ruido equivalente en el potencial superficial 38.7 V. Estos valores son más bajos que los encontrados en los dispositivos típicos para la detección de actividad celular (basados en Si), y del orden de los mejores resultados encontrados en la literatura sobre AlGaN/GaN. Desde el punto de vista de la caracterización electro-química de las superficies de GaN e InN, se ha determinado su punto isoeléctrico. Dicho valor no había sido reportado en la literatura hasta el momento. El valor, determinado por medidas de “streaming potential”, es de 4.4 y 4 respectivamente. Este valor es una importante característica a tener en cuenta en sensores, en inmovilización electrostática o en la litografía coloidal. Esta última técnica se discute en esta memoria, y se aplica en el último bloque de investigación de esta Tesis (i.e. crecimiento ordenado). El último apartado de resultados experimentales de esta Tesis analiza el crecimiento selectivo de nanocolumnas ordenadas de GaN por MBE, utilizando mascaras de Ti con nanoagujeros. Se ha estudiado como los distintos parámetros de crecimiento (i.e. flujos de los elementos Ga y N, temperatura de crecimiento y diseño de la máscara) afectan a la selectividad y a la morfología de las nanocolumnas. Se ha conseguido con éxito el crecimiento selectivo sobre pseudosustratos de GaN con distinta orientación cristalina o polaridad; templates de GaN(0001)/zafiro, GaN(0001)/AlN/Si, GaN(000-1)/Si y GaN(11-20)/zafiro. Se ha verificado experimentalmente la alta calidad cristalina de las nanocolumnas ordenadas, y su mayor estabilidad térmica comparada con las capas compactas del mismo material. Las nanocolumnas ordenadas de nitruros del grupo III tienen una clara aplicación en el campo de la optoelectrónica, principalmente para nanoemisores de luz blanca. Sin embargo, en esta Tesis se proponen como alternativa a la utilización de capas compactas o nanocolumnas auto-ensambladas en sensores. Las nanocolumnas auto-ensambladas de GaN, debido a su alta razón superficie/volumen, son muy prometedoras en el campo de los sensores, pero su amplia dispersión en dimensiones (altura y diámetro) supone un problema para el procesado y funcionamiento de dispositivos reales. En ese aspecto, las nanocolumnas ordenadas son más robustas y homogéneas, manteniendo una alta relación superficie/volumen. Como primer experimento en el ámbito de los sensores, se ha estudiado como se ve afectada la emisión de fotoluminiscencia de las NCs ordenadas al estar expuestas al aire o al vacio. Se observa una fuerte caída en la intensidad de la fotoluminiscencia cuando las nanocolumnas están expuestas al aire (probablemente por la foto-adsorción de oxigeno en la superficie), como ya había sido documentado anteriormente en nanocolumnas auto-ensambladas. Este experimento abre el camino para futuros sensores basados en nanocolumnas ordenadas. Abstract This manuscript deals with the growth and characterization of Al(Ga)N/GaN heterostructures and GaN ordered nanocolumns, and their application in chemical sensors. The growth technique has been the plasma-assisted molecular beam epitaxy (PAMBE). In the case of Al(Ga)N/GaN heterostructures, barriers of different thickness and composition, from AlN (5 nm) to AlGaN (35 nm) have been grown. Besides the basic morphological, structural and electrical characterization of the layers, HEMT devices have been fabricated based on these layers. The best electrical characteristics (larger carriers concentration and mobility in the two dimensional electron gas) are those in AlGaN/GaN heterostructures with a medium thickness (around 20 nm). However, one of the goals of this Thesis has been to verify the advantages that sensors based on AlN/GaN (thickness around 7 nm) have compared to standard AlGaN/GaN, because the conduction channel to be modulated by chemical changes is closer to the sensitive area. In this way, HEMT devices have been used as chemical pH sensors (ISFETs), and the higher sensitivity (conductance change related to pH changes, Ids/pH) of AlN/GaN based sensors has been proved. The higher sensibility is even more obvious in application without reference electrode. Similar ISFETs devices have been fabricated based on InN compact layers. These devices show a poor stability, but its surface sensitivity to pH (Vgs/pH) and its sensibility (Ids/pH) yield values between the corresponding ones of AlN/GaN and AlGaN/GaN heterostructures. In order to a further comparison between Al(Ga)N/GaN based devices, ISFETs with smaller sensitive area (35 x 35 m2), similar to the ones used in cellular activity record, were fabricated and characterized. When the devices are subjected to a voltage pulse through the sensitive area, the response of AlN based devices shows lower noise than the ones based on AlGaN. The noise in the current of such a AlN based device, where the encapsulation has not been optimized, is as low as 8.9 nA (rms value), and the equivalent noise to the surface potential is 38.7 V. These values are lower than the found in typical devices used for cellular activity recording (based on Si), and in the range of the best published results on AlGaN/GaN. From the point of view of the electrochemical characterization of GaN and InN surfaces, their isoelectric point has been experimentally determined. Such a value is the first time reported for GaN and InN surfaces. These values are determined by “streaming potential”, being pH 4.4 and 4, respectively. Isoelectric point value is an important characteristic in sensors, electrostatic immobilization or in colloidal lithography. In particular, colloidal lithography has been optimized in this Thesis for GaN surfaces, and applied in the last part of experimental results (i.e. ordered growth). The last block of this Thesis is focused on the selective area growth of GaN nanocolumns by MBE, using Ti masks decorated with nanoholes. The effect of the different growth parameters (Ga and N fluxes, growth temperature and mask design) is studied, in particular their impact in the selectivity and in the morphology of the nanocolumns. Selective area growth has been successful performed on GaN templates with different orientation or polarity; GaN(0001)/sapphire, GaN(0001)/AlN/Si, GaN(000- 1)/Si and GaN(11-20)/sapphire. Ordered nanocolumns exhibit a high crystal quality, and a higher thermal stability (lower thermal decomposition) than the compact layers of the same material. Ordered nanocolumns based on III nitrides have a clear application in optoelectronics, mainly for white light nanoemitters. However, this Thesis proposes them as an alternative to compact layers and self-assembled nanocolumns in sensor applications. Self-assembled GaN nanocolumns are very appealing for sensor applications, due to their large surface/volume ratio. However, their large dispersion in heights and diameters are a problem in terms of processing and operation of real devices. In this aspect, ordered nanocolumns are more robust and homogeneous, keeping the large surface/volume ratio. As first experimental evidence of their sensor capabilities, ordered nanocolumns have been studied regarding their photoluminiscence on air and vacuum ambient. A big drop in the intensity is observed when the nanocolumns are exposed to air (probably because of the oxygen photo-adsortion), as was already reported in the case of self-assembled nanocolumns. This opens the way to future sensors based on ordered III nitrides nanocolumns.
Resumo:
Las fuentes de alimentación de modo conmutado (SMPS en sus siglas en inglés) se utilizan ampliamente en una gran variedad de aplicaciones. La tarea más difícil para los diseñadores de SMPS consiste en lograr simultáneamente la operación del convertidor con alto rendimiento y alta densidad de energía. El tamaño y el peso de un convertidor de potencia está dominado por los componentes pasivos, ya que estos elementos son normalmente más grandes y más pesados que otros elementos en el circuito. Para una potencia de salida dada, la cantidad de energía almacenada en el convertidor que ha de ser entregada a la carga en cada ciclo de conmutación, es inversamente proporcional a la frecuencia de conmutación del convertidor. Por lo tanto, el aumento de la frecuencia de conmutación se considera un medio para lograr soluciones más compactas con los niveles de densidad de potencia más altos. La importancia de investigar en el rango de alta frecuencia de conmutación radica en todos los beneficios que se pueden lograr: además de la reducción en el tamaño de los componentes pasivos, el aumento de la frecuencia de conmutación puede mejorar significativamente prestaciones dinámicas de convertidores de potencia. Almacenamiento de energía pequeña y el período de conmutación corto conducen a una respuesta transitoria del convertidor más rápida en presencia de las variaciones de la tensión de entrada o de la carga. Las limitaciones más importantes del incremento de la frecuencia de conmutación se relacionan con mayores pérdidas del núcleo magnético convencional, así como las pérdidas de los devanados debido a los efectos pelicular y proximidad. También, un problema potencial es el aumento de los efectos de los elementos parásitos de los componentes magnéticos - inductancia de dispersión y la capacidad entre los devanados - que causan pérdidas adicionales debido a las corrientes no deseadas. Otro factor limitante supone el incremento de las pérdidas de conmutación y el aumento de la influencia de los elementos parásitos (pistas de circuitos impresos, interconexiones y empaquetado) en el comportamiento del circuito. El uso de topologías resonantes puede abordar estos problemas mediante el uso de las técnicas de conmutaciones suaves para reducir las pérdidas de conmutación incorporando los parásitos en los elementos del circuito. Sin embargo, las mejoras de rendimiento se reducen significativamente debido a las corrientes circulantes cuando el convertidor opera fuera de las condiciones de funcionamiento nominales. A medida que la tensión de entrada o la carga cambian las corrientes circulantes incrementan en comparación con aquellos en condiciones de funcionamiento nominales. Se pueden obtener muchos beneficios potenciales de la operación de convertidores resonantes a más alta frecuencia si se emplean en aplicaciones con condiciones de tensión de entrada favorables como las que se encuentran en las arquitecturas de potencia distribuidas. La regulación de la carga y en particular la regulación de la tensión de entrada reducen tanto la densidad de potencia del convertidor como el rendimiento. Debido a la relativamente constante tensión de bus que se encuentra en arquitecturas de potencia distribuidas los convertidores resonantes son adecuados para el uso en convertidores de tipo bus (transformadores cc/cc de estado sólido). En el mercado ya están disponibles productos comerciales de transformadores cc/cc de dos puertos que tienen muy alta densidad de potencia y alto rendimiento se basan en convertidor resonante serie que opera justo en la frecuencia de resonancia y en el orden de los megahercios. Sin embargo, las mejoras futuras en el rendimiento de las arquitecturas de potencia se esperan que vengan del uso de dos o más buses de distribución de baja tensión en vez de una sola. Teniendo eso en cuenta, el objetivo principal de esta tesis es aplicar el concepto del convertidor resonante serie que funciona en su punto óptimo en un nuevo transformador cc/cc bidireccional de puertos múltiples para atender las necesidades futuras de las arquitecturas de potencia. El nuevo transformador cc/cc bidireccional de puertos múltiples se basa en la topología de convertidor resonante serie y reduce a sólo uno el número de componentes magnéticos. Conmutaciones suaves de los interruptores hacen que sea posible la operación en las altas frecuencias de conmutación para alcanzar altas densidades de potencia. Los problemas posibles con respecto a inductancias parásitas se eliminan, ya que se absorben en los Resumen elementos del circuito. El convertidor se caracteriza con una muy buena regulación de la carga propia y cruzada debido a sus pequeñas impedancias de salida intrínsecas. El transformador cc/cc de puertos múltiples opera a una frecuencia de conmutación fija y sin regulación de la tensión de entrada. En esta tesis se analiza de forma teórica y en profundidad el funcionamiento y el diseño de la topología y del transformador, modelándolos en detalle para poder optimizar su diseño. Los resultados experimentales obtenidos se corresponden con gran exactitud a aquellos proporcionados por los modelos. El efecto de los elementos parásitos son críticos y afectan a diferentes aspectos del convertidor, regulación de la tensión de salida, pérdidas de conducción, regulación cruzada, etc. También se obtienen los criterios de diseño para seleccionar los valores de los condensadores de resonancia para lograr diferentes objetivos de diseño, tales como pérdidas de conducción mínimas, la eliminación de la regulación cruzada o conmutación en apagado con corriente cero en plena carga de todos los puentes secundarios. Las conmutaciones en encendido con tensión cero en todos los interruptores se consiguen ajustando el entrehierro para obtener una inductancia magnetizante finita en el transformador. Se propone, además, un cambio en los señales de disparo para conseguir que la operación con conmutaciones en apagado con corriente cero de todos los puentes secundarios sea independiente de la variación de la carga y de las tolerancias de los condensadores resonantes. La viabilidad de la topología propuesta se verifica a través una extensa tarea de simulación y el trabajo experimental. La optimización del diseño del transformador de alta frecuencia también se aborda en este trabajo, ya que es el componente más voluminoso en el convertidor. El impacto de de la duración del tiempo muerto y el tamaño del entrehierro en el rendimiento del convertidor se analizan en un ejemplo de diseño de transformador cc/cc de tres puertos y cientos de vatios de potencia. En la parte final de esta investigación se considera la implementación y el análisis de las prestaciones de un transformador cc/cc de cuatro puertos para una aplicación de muy baja tensión y de decenas de vatios de potencia, y sin requisitos de aislamiento. Abstract Recently, switch mode power supplies (SMPS) have been used in a great variety of applications. The most challenging issue for designers of SMPS is to achieve simultaneously high efficiency operation at high power density. The size and weight of a power converter is dominated by the passive components since these elements are normally larger and heavier than other elements in the circuit. If the output power is constant, the stored amount of energy in the converter which is to be delivered to the load in each switching cycle is inversely proportional to the converter’s switching frequency. Therefore, increasing the switching frequency is considered a mean to achieve more compact solutions at higher power density levels. The importance of investigation in high switching frequency range comes from all the benefits that can be achieved. Besides the reduction in size of passive components, increasing switching frequency can significantly improve dynamic performances of power converters. Small energy storage and short switching period lead to faster transient response of the converter against the input voltage and load variations. The most important limitations for pushing up the switching frequency are related to increased conventional magnetic core loss as well as the winding loss due to the skin and proximity effect. A potential problem is also increased magnetic parasitics – leakage inductance and capacitance between the windings – that cause additional loss due to unwanted currents. Higher switching loss and the increased influence of printed circuit boards, interconnections and packaging on circuit behavior is another limiting factor. Resonant power conversion can address these problems by using soft switching techniques to reduce switching loss incorporating the parasitics into the circuit elements. However the performance gains are significantly reduced due to the circulating currents when the converter operates out of the nominal operating conditions. As the input voltage or the load change the circulating currents become higher comparing to those ones at nominal operating conditions. Multiple Input-Output Many potential gains from operating resonant converters at higher switching frequency can be obtained if they are employed in applications with favorable input voltage conditions such as those found in distributed power architectures. Load and particularly input voltage regulation reduce a converter’s power density and efficiency. Due to a relatively constant bus voltage in distributed power architectures the resonant converters are suitable for bus voltage conversion (dc/dc or solid state transformation). Unregulated two port dc/dc transformer products achieving very high power density and efficiency figures are based on series resonant converter operating just at the resonant frequency and operating in the megahertz range are already available in the market. However, further efficiency improvements of power architectures are expected to come from using two or more separate low voltage distribution buses instead of a single one. The principal objective of this dissertation is to implement the concept of the series resonant converter operating at its optimum point into a novel bidirectional multiple port dc/dc transformer to address the future needs of power architectures. The new multiple port dc/dc transformer is based on a series resonant converter topology and reduces to only one the number of magnetic components. Soft switching commutations make possible high switching frequencies to be adopted and high power densities to be achieved. Possible problems regarding stray inductances are eliminated since they are absorbed into the circuit elements. The converter features very good inherent load and cross regulation due to the small output impedances. The proposed multiple port dc/dc transformer operates at fixed switching frequency without line regulation. Extensive theoretical analysis of the topology and modeling in details are provided in order to compare with the experimental results. The relationships that show how the output voltage regulation and conduction losses are affected by the circuit parasitics are derived. The methods to select the resonant capacitor values to achieve different design goals such as minimum conduction losses, elimination of cross regulation or ZCS operation at full load of all the secondary side bridges are discussed. ZVS turn-on of all the switches is achieved by relying on the finite magnetizing inductance of the Abstract transformer. A change of the driving pattern is proposed to achieve ZCS operation of all the secondary side bridges independent on load variations or resonant capacitor tolerances. The feasibility of the proposed topology is verified through extensive simulation and experimental work. The optimization of the high frequency transformer design is also addressed in this work since it is the most bulky component in the converter. The impact of dead time interval and the gap size on the overall converter efficiency is analyzed on the design example of the three port dc/dc transformer of several hundreds of watts of the output power for high voltage applications. The final part of this research considers the implementation and performance analysis of the four port dc/dc transformer in a low voltage application of tens of watts of the output power and without isolation requirements.
Resumo:
El aumento de las capacidades de interconexión de dispositivos de todo tipo está suponiendo una revolución en el campo de la prestación de servicios, tanto en la cantidad como en la variedad. Esta evolución ha puesto de manifiesto la necesidad de abordar un desarrollo tecnológico sin precedentes, donde la previsión de dispositivos interconectados e interoperando entre sí y con las personas alcanza cifras del orden de los millardos. Esta idea de un mundo de cosas interconectadas ha dado lugar a una visión que se ha dado en llamar Internet de las Cosas. Un mundo donde las cosas de cualquier tipo pueden interactuar con otras cosas, incluyendo las que forman parte de redes con recurso limitados. Y esto además conduce a la creación de servicios compuestos que superan a la suma de las partes. Además de la relevancia tecnológica, esta nueva visión enlaza con la de la Ciudad del Futuro. Un concepto que recurre a la convergencia de la energía, el transporte y las tecnologías de la información y las comunicaciones para definir una forma mediante la que lograr el crecimiento sostenible y competitivo, mejorando así la calidad de vida y abriendo el gobierno de las ciudades a la participación ciudadana. En la línea de desarrollo que permite avanzar hacia la consecución de tales objetivos, este Proyecto Fin de Carrera propone una forma de virtualizar los servicios ofrecidos por la diversidad de dispositivos que van adquiriendo la capacidad de interoperar en una red. Para ello se apoya en el uso de una capa de intermediación orientada a servicios, nSOM, desarrollada en la EUITT. Sobre esta arquitectura se proponen como objetivos el diseño y desarrollo de una pasarela de servicios que haga accesibles desde la web los recursos ofrecidos en una red de sensores; el diseño y desarrollo de un registro de dispositivos y servicios en concordancia a la propuesta de arquitectura de referencia para Internet de las Cosas; y el estudio y diseño de un marco para la composición de servicios orquestados en redes de recursos limitados. Para alcanzar estos objetivos primero se abordará un estudio del estado del arte donde se profundizará en el conocimiento de la las tecnologías para la interoperatividad entre cosas, abordando los principios de las redes inalámbricas de sensores y actuadores, las arquitecturas para las comunicaciones Máquina a Máquina e Internet de las Cosas, y la visión de la Web de las Cosas. Seguidamente se tratarán las tecnologías de red y de servicios de interés, para finalizar con un breve repaso a las tecnologías para la composición de servicios. Le seguirá una descripción detallada de la arquitectura nSOM y del diseño propuesto para este proyecto. Finalmente se propondrá un escenario sobre el que se llevarán a cabo diferentes pruebas de validación. ABSTRACT. The increasing of the capabilities of all kind of devices is causing a revolution in the field of the provision of services, both in quantity and in diversity. This situation has highlighted the need to address unprecedented technological development, where the forecast of interconnected and interoperable devices between them and human beings reaches the order of billions. And these numbers go further when the connectivity of constrained networks is taken into account. This idea of an interconnected world of things has led to a vision that has been called "The Internet of Things". It’s a vision of a world where things of any kind can interact with other things, even those in the domain of a constrained network. This also leads to the creation of new composed services that exceed the sum of the parts. Besides the technological interest, this new vision relates with the one from the Smart City. A concept that uses the convergence of the energy, the transport, and the information and communication technologies to define a way to achieve sustainable and competitive growth, improving the quality of life, and opening the governance of the cities to the participation. In the development pathway to reach these goals, this Final Degree Dissertation proposes a way for the virtualization of the services offered by the variety of devices that are reaching the ability to interoperate in a network. For this it is supported by a service oriented middleware called nSOM that has been developed at EUITT. Using this architecture the goals proposed for this project are the design and development of a service gateway that makes available the resources of a sensor network through a web interface; the design and development of a Device & Service Registry according to the reference architecture proposal for the Internet of Things; and the study and design of a composition framework for orchestrated services in constrained networks. To achieve these goals this dissertation begins with a State of the Art study where the background knowledge about the technologies in use for the interoperation of things will be settled. At first it starts talking about Wireless Sensor and Actuator Networks, the architectures for Machine-to-Machine communication and Internet of Things, and also the concepts for the Web of Things vision. Next the related network and services technologies are explored, ending with a brief review of service composition technologies. Then will follow a detailed description of the nSOM architecture, and also of the proposed design for this project. Finally a scenario will be proposed where a series of validation tests will be conducted.
Resumo:
El libro comienza haciendo referencia a la seguridad en los sistemas estructurales, centrándose específicamente en las incertidumbres, la fiabilidad estructural y los métodos de comprobación de la seguridad. Posteriormente se tratan algunos métodos de nivel II utilizados para valorar la probabilidad de fallo; así, se hace referencia al índice de fiabilidad en general y, en particular al de Cornell y al de Hasofer y Lind; respecto a los métodos de cálculo del índice de fiabilidad, se estudia el método de los momentos de segundo orden y el método de las estimaciones puntuales. Del método de los momentos de segundo orden se analizan las funciones de fallo no lineales, esquema iterativo, las variables correlacionadas y la transformación de variables aleatorias. El capítulo destinado a las normas basadas en los conceptos de fiabilidad estructural analiza la relación entre los métodos de comprobación de la seguridad nivel I y nivel ll, la obtención de los coeficientes de ponderación mediante el método de los momentos de segundo orden y los formatos de cálculo en valores medios y valores característicos para terminar con la aplicación de a un caso práctico. Finalmente, se realiza un estudio de niveles de seguridad en túneles, para lo que se realiza una descripción física del problema, se plantea un modelo matemático de cálculo y se realiza un análisis de la seguridad así como la caracterización de variables.
Resumo:
La segmentación de imágenes es un campo importante de la visión computacional y una de las áreas de investigación más activas, con aplicaciones en comprensión de imágenes, detección de objetos, reconocimiento facial, vigilancia de vídeo o procesamiento de imagen médica. La segmentación de imágenes es un problema difícil en general, pero especialmente en entornos científicos y biomédicos, donde las técnicas de adquisición imagen proporcionan imágenes ruidosas. Además, en muchos de estos casos se necesita una precisión casi perfecta. En esta tesis, revisamos y comparamos primero algunas de las técnicas ampliamente usadas para la segmentación de imágenes médicas. Estas técnicas usan clasificadores a nivel de pixel e introducen regularización sobre pares de píxeles que es normalmente insuficiente. Estudiamos las dificultades que presentan para capturar la información de alto nivel sobre los objetos a segmentar. Esta deficiencia da lugar a detecciones erróneas, bordes irregulares, configuraciones con topología errónea y formas inválidas. Para solucionar estos problemas, proponemos un nuevo método de regularización de alto nivel que aprende información topológica y de forma a partir de los datos de entrenamiento de una forma no paramétrica usando potenciales de orden superior. Los potenciales de orden superior se están popularizando en visión por computador, pero la representación exacta de un potencial de orden superior definido sobre muchas variables es computacionalmente inviable. Usamos una representación compacta de los potenciales basada en un conjunto finito de patrones aprendidos de los datos de entrenamiento que, a su vez, depende de las observaciones. Gracias a esta representación, los potenciales de orden superior pueden ser convertidos a potenciales de orden 2 con algunas variables auxiliares añadidas. Experimentos con imágenes reales y sintéticas confirman que nuestro modelo soluciona los errores de aproximaciones más débiles. Incluso con una regularización de alto nivel, una precisión exacta es inalcanzable, y se requeire de edición manual de los resultados de la segmentación automática. La edición manual es tediosa y pesada, y cualquier herramienta de ayuda es muy apreciada. Estas herramientas necesitan ser precisas, pero también lo suficientemente rápidas para ser usadas de forma interactiva. Los contornos activos son una buena solución: son buenos para detecciones precisas de fronteras y, en lugar de buscar una solución global, proporcionan un ajuste fino a resultados que ya existían previamente. Sin embargo, requieren una representación implícita que les permita trabajar con cambios topológicos del contorno, y esto da lugar a ecuaciones en derivadas parciales (EDP) que son costosas de resolver computacionalmente y pueden presentar problemas de estabilidad numérica. Presentamos una aproximación morfológica a la evolución de contornos basada en un nuevo operador morfológico de curvatura que es válido para superficies de cualquier dimensión. Aproximamos la solución numérica de la EDP de la evolución de contorno mediante la aplicación sucesiva de un conjunto de operadores morfológicos aplicados sobre una función de conjuntos de nivel. Estos operadores son muy rápidos, no sufren de problemas de estabilidad numérica y no degradan la función de los conjuntos de nivel, de modo que no hay necesidad de reinicializarlo. Además, su implementación es mucho más sencilla que la de las EDP, ya que no requieren usar sofisticados algoritmos numéricos. Desde un punto de vista teórico, profundizamos en las conexiones entre operadores morfológicos y diferenciales, e introducimos nuevos resultados en este área. Validamos nuestra aproximación proporcionando una implementación morfológica de los contornos geodésicos activos, los contornos activos sin bordes, y los turbopíxeles. En los experimentos realizados, las implementaciones morfológicas convergen a soluciones equivalentes a aquéllas logradas mediante soluciones numéricas tradicionales, pero con ganancias significativas en simplicidad, velocidad y estabilidad. ABSTRACT Image segmentation is an important field in computer vision and one of its most active research areas, with applications in image understanding, object detection, face recognition, video surveillance or medical image processing. Image segmentation is a challenging problem in general, but especially in the biological and medical image fields, where the imaging techniques usually produce cluttered and noisy images and near-perfect accuracy is required in many cases. In this thesis we first review and compare some standard techniques widely used for medical image segmentation. These techniques use pixel-wise classifiers and introduce weak pairwise regularization which is insufficient in many cases. We study their difficulties to capture high-level structural information about the objects to segment. This deficiency leads to many erroneous detections, ragged boundaries, incorrect topological configurations and wrong shapes. To deal with these problems, we propose a new regularization method that learns shape and topological information from training data in a nonparametric way using high-order potentials. High-order potentials are becoming increasingly popular in computer vision. However, the exact representation of a general higher order potential defined over many variables is computationally infeasible. We use a compact representation of the potentials based on a finite set of patterns learned fromtraining data that, in turn, depends on the observations. Thanks to this representation, high-order potentials can be converted into pairwise potentials with some added auxiliary variables and minimized with tree-reweighted message passing (TRW) and belief propagation (BP) techniques. Both synthetic and real experiments confirm that our model fixes the errors of weaker approaches. Even with high-level regularization, perfect accuracy is still unattainable, and human editing of the segmentation results is necessary. The manual edition is tedious and cumbersome, and tools that assist the user are greatly appreciated. These tools need to be precise, but also fast enough to be used in real-time. Active contours are a good solution: they are good for precise boundary detection and, instead of finding a global solution, they provide a fine tuning to previously existing results. However, they require an implicit representation to deal with topological changes of the contour, and this leads to PDEs that are computationally costly to solve and may present numerical stability issues. We present a morphological approach to contour evolution based on a new curvature morphological operator valid for surfaces of any dimension. We approximate the numerical solution of the contour evolution PDE by the successive application of a set of morphological operators defined on a binary level-set. These operators are very fast, do not suffer numerical stability issues, and do not degrade the level set function, so there is no need to reinitialize it. Moreover, their implementation is much easier than their PDE counterpart, since they do not require the use of sophisticated numerical algorithms. From a theoretical point of view, we delve into the connections between differential andmorphological operators, and introduce novel results in this area. We validate the approach providing amorphological implementation of the geodesic active contours, the active contours without borders, and turbopixels. In the experiments conducted, the morphological implementations converge to solutions equivalent to those achieved by traditional numerical solutions, but with significant gains in simplicity, speed, and stability.