715 resultados para No Convencionales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años, las sociedades industrializadas han tomado una mayor conciencia sobre el problema que suponen las emisiones indiscriminadas de gases de efecto invernadero a la atmósfera. El hormigón, cuyo principal componente es el cemento, es probablemente el material más utilizado en construcción. En la actualidad, las emisiones globales de CO2 debidas a la combustión del CaCO3 del cemento Pórtland representan entre el 5% y el 10% respecto del total. Estos valores son de gran interés si se considera que el compromiso aceptado al firmar el Protocolo de Kioto es de una reducción del 5% antes del año 2020, sobre el total de gases producidos. El principal objetivo del presente trabajo es el estudio microestructural y de los procesos de hidratación de los cementos con adiciones. Para ello se propone contribuir a la investigación sobre nuevos productos cementicios basados en micropartículas esféricas vítreas que pueden adicionarse al cemento antes del proceso de amasado. Los resultados obtenidos se han contrastado con las adiciones convencionales de más uso en la actualidad. El nuevo material basa su composición en la química del aluminio y el silicio. Al disminuir la cantidad de CaCO3, se contribuye al desarrollo sostenible y a la reducción de emisiones de CO2. La patente creada por el Grupo Cementos Pórtland Valderrivas (GCPV), describe el proceso de producción de las cemesferas (WO 2009/007470, 2010). Los productos que forman la materia prima para la elaboración de las cemesferas son arcillas, calizas, margas o productos o subproductos industriales, que tras su molienda, son fundidos mediante un fluido gaseoso a elevada temperatura (entre 1250ºC y 1600ºC). Este proceso permite obtener un producto final en forma esférica maciza o microesfera, que tras estabilizarse mediante un enfriamiento rápido, consigue una alta vitrificación idónea para su reactividad química, con una mínima superficie específica en relación a su masa. El producto final obtenido presenta prácticamente la finura requerida y no precisa ser molido, lo que reduce las emisiones de CO2 por el ahorro de combustible durante el proceso de molienda. El proceso descrito permite obtener un amplio abanico de materiales cementantes que, no solo pueden dar respuesta a los problemas generados por las emisiones de CO2, sino también a la disponibilidad de materiales en países donde hasta el momento no se puede fabricar cemento debido a la falta de calizas. Complementariamente se ha optimizado el método de cálculo del grado de hidratación a partir de los resultados del ensayo de ATD-TG en base a los modelos de cálculo de Bhatty y Pane. El método propuesto permite interpretar el comportamiento futuro del material a partir de la interpolación numérica de la cantidad de agua químicamente enlazada. La evolución del grado de hidratación tiene una relación directa con el desarrollo de la resistencia mecánica del material. Con el fin de caracterizar los materiales de base cemento, se ha llevado a cabo una amplia campaña experimental en pasta de cemento, mortero y hormigón. La investigación abarca tres niveles: caracterización microestructural, macroestructural y caracterización del comportamiento a largo plazo, fundamentalmente durabilidad. En total se han evaluado ocho adiciones diferentes: cuatro adiciones convencionales y cuatro tipos de cemesferas con diferente composición química. Los ensayos a escala microscópica comprenden la caracterización química, granulométrica y de la superficie específica BET de los materiales anhidros, análisis térmico diferencial y termogravimétrico en pasta de cemento y mortero, resonancia magnética de silicio en pasta de cemento, difracción de rayos X de los materiales anhidros y de las probetas de pasta, microscopía electrónica de barrido con analizador de energía dispersiva por rayos X en pasta y mortero, y porosimetría por intrusión de mercurio en mortero. La caracterización macroscópica del material comprende ensayos de determinación del agua de consistencia normal y de los tiempos de inicio y fin de fraguado en pasta de cemento, ensayos de resistencia mecánica a flexión y compresión en probetas prismáticas de mortero, y ensayos de resistencia a compresión en probetas de hormigón. Para caracterizar la durabilidad se han desarrollado ensayos de determinación del coeficiente de migración de cloruros y ensayos de resistividad eléctrica en probetas de mortero. Todos los ensayos enumerados permiten clarificar el comportamiento de las cemesferas y compararlo con las distintas adiciones de uso convencional. Los resultados reflejan un buen comportamiento resistente y durable de los materiales con adición de cemesferas. La caracterización microscópica refleja su relación con las propiedades mesoscópicas y permite comprender mejor la evolución en los procesos de hidratación de las cemesferas. In recent years industrialised societies have become increasingly aware of the problem posed by indiscriminate emission of greenhouse gases into the atmosphere. Concrete, with a main component being cement, is arguably the most widely used construction material. At present, global emissions of CO2 due to the combustion of CaCO3 from Portland cement represent between 5% and 10% of the total. If the requirement of the Kyoto Protocol of a reduction of 5% of the total gas produced before 2020 is considered, then such values are of significant interest. The main objective of this work is the assessment of the microstructure and the hydration processes of cements with additions. Such an examination proposes research into new cementitious products based on vitreous spherical microparticles that may be added to the cement before the mixing process. The results are compared with the most commonly used conventional additions. The new material bases its composition on the chemistry of aluminium and silicates. By decreasing the amount of CaCO3, it is possible both to contribute to sustainable development and reduce CO2 emissions. The patent created by Grupo Cementos Portland Valderrivas (GCPV) describes the production process of microspheres (WO 2009/007470, 2010). The products that form the raw material for manufacture are clays, lime-stone, marl and industrial products or by-products that melt after being ground and fed into a gaseous fluid at high temperatures (1250°C and 1600°C). This process allows the obtaining of a product with a solid-spherical or micro-spherical shape and which, after being stabilised in a solid state by rapid cooling, obtains a high vitrification suitable for chemical reactivity, having a minimal surface in relation to its mass. Given that the final product has the fineness required, it prevents grinding that reduces CO2 emissions by saving fuel during this process. The process, which allows a wide range of cementitious materials to be obtained, not only addresses the problems caused by CO2 emissions but also enhances the availability of materials in countries that until the time of writing have not produced cement due to a lack of limestone. In addition, the calculation of the degree of hydration from the test results of DTA-TG is optimised and based on Bhatty and Pane calculation models. The proposed method allows prediction of the performance of the material from numerical interpolation of the amount of chemically bound water. The degree of hydration has a direct relationship with the development of material mechanical strength. In order to characterise the cement-based materials, an extensive experimental campaign in cement paste, concrete and mortar is conducted. The research comprises three levels: micro-structural characterisation, macro-structural and long-term behaviour (mainly durability). In total, eight additions are assessed: four conventional additions and four types of microspheres with different chemical compositions. The micro-scale tests include characterisation of chemical composition, particle size distribution and the BET specific surface area of anhydrous material, differential thermal and thermogravimetric analysis in cement paste and mortar, silicon-29 nuclear magnetic resonance in cement paste, X-ray diffraction of the anhydrous materials and paste specimens, scanning of electron microscopy with energy dispersive X-ray analyser in cement paste and mortar, and mercury intrusion porosimetry in mortar. The macroscopic material characterisation entails determination of water demand for normal consistency, and initial and final setting times of cement paste, flexural and compressive mechanical strength tests in prismatic mortar specimens, and compressive strength tests in concrete specimens. Tests for determining the chloride migration coefficient are performed to characterise durability, together with electrical resistivity tests in mortar specimens. All the tests listed allow clarification of the behaviour of the microspheres and comparison with the various additions of conventional use. The results show good resistance and durable behaviour of materials with a microsphere addition. Microscopic characterisation reflects their relationship with mesoscopic properties and provides insights into the hydration processes of the microspheres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis presenta el resultado de la investigación sobre la lectura histórica, territorial y espacial del problema del desplazamiento forzado por la violencia en Colombia asociado en particular a las condiciones del desplazado en Bogotá. Para ello el problema del desplazamiento se asume desde la perspectiva de los procesos migratorios como un proceso emergente asociado al impacto que tiene sobre el territorio rural colombiano, las regiones urbanizadas y las grandes ciudades como principales receptores de este tipo de población. La investigación analiza los procesos migratorios emergentes en Bogotá, desde una visión compleja y contemporánea de la ciudad y del territorio como resultado de la interacción entre lo regional y lo urbano. Para ello se desarrollan cuatro escenarios. El primero desde el impacto que tiene sobre el territorio el problema del desplazamiento forzoso y los procesos migratorios, el segundo desde la caracterización física y espacial de los sectores periféricos receptores, el tercero desde de la informalidad como constante en el proceso de migración y movilidad interna de este tipo de población, y finalmente, se asume la necesidad de identificar sobre la ciudad el carácter local como unidad mínima de control por parte del ciudadano. Desde una lectura histórica del territorio colombiano y la relación con el conflicto un armado con sesenta años de existencia, el trabajo analiza las circunstancias políticas, sociales y económicas que derivan las situaciones de conflicto y su impacto sobre los procesos migratorios: un territorio inmenso en sus recursos pero desequilibrado en su desarrollo. Por un lado, zonas productivas y en proceso de desarrollo bajo los márgenes y leyes convencionales del mundo contemporáneo global, y por otro, extensas zonas controladas por pocos, abandonadas por el Estado y desaprovechadas en sus recursos. Como resultado, se observa un país territorialmente sin una reforma agraria con una vocación productiva del campo, con niveles desiguales de crecimiento fragmentado geográficamente con una vetusta infraestructura. Sobre esto, el desplazamiento interno se presenta como una constante en la medida en que evoluciona el conflicto. Los índices migratorios aumentan o disminuyen en concordancia con los niveles de conflicto. De hecho, los municipios expulsores son aquellos con mayor presencia de actos de violencia. Para el análisis del problema del desplazamiento como fenómeno urbano, se toma como punto de referencia la visión contemporánea de la ciudad precisando la relación y comprensión de la complejidad en la disciplina urbanística. Teniendo en cuenta que la condición de desplazado plantea particularidades en la manera de apropiarse de la ciudad, la investigación se desarrolla analizando el impacto del conflicto armado sobre el territorio rural colombiano y como camino paralelo sobre la base de un alto porcentaje de desplazados interesados en permanecer en Bogotá, la condición estratégica de la periferia de la ciudad como principal espacio de residencia de esta población. Para poder identificar tanto los procesos de asentamiento como los patrones de movilidad, se realizaron encuestas en cinco localidades de Bogotá: Usme, Suba, Mártires, Usaquén y Bosa; escogidas por su ubicación geográfica, su condición periférica y por ser los lugares con mayor número de población registrada como desplazada, así como por el hecho de reconocerse como los principales centros de recepción de la ciudad. En la caracterización de las condiciones físicas y espaciales de unidades habitacionales de los barrios de origen informal se ha identificado y analizado algunas condiciones de habitabilidad en las alternativas en vivienda de la población desplazada como son albergues, los inquilinatos, los apartamentos o los cambuches. Para efectos de este análisis se ha realizado un muestro no probabilístico seleccionando en seis localidades con alta presencia de población desplazada algunas unidades habitacionales de diferente tipo. Finalmente este trabajo demuestra la necesidad de abrir un espacio de análisis desde la perspectiva física y espacial sobre la cual se plantea a nivel de conclusiones escenarios presentes y futuros sobre el problema del desplazamiento en Colombia y la repercusiones sobre el territorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El requerimiento de proveer alta frecuencia de datos en los modernos sistema de comunicación inalámbricos resulta en complejas señales moduladas de radio-frequencia (RF) con un gran ancho de banda y alto ratio pico-promedio (PAPR). Para garantizar la linealidad del comportamiento, los amplificadores lineales de potencia comunes funcionan típicamente entre 4 y 10 dB de back-o_ desde la máxima potencia de salida, ocasionando una baja eficiencia del sistema. La eliminación y restauración de la evolvente (EER) y el seguimiento de la evolvente (ET) son dos prometedoras técnicas para resolver el problema de la eficiencia. Tanto en EER como en ET, es complicado diseñar un amplificador de potencia que sea eficiente para señales de RF de alto ancho de banda y alto PAPR. Una propuesta común para los amplificadores de potencia es incluir un convertidor de potencia de muy alta eficiencia operando a frecuencias más altas que el ancho de banda de la señal RF. En este caso, la potencia perdida del convertidor ocasionado por la alta frecuencia desaconseja su práctica cuando el ancho de banda es muy alto. La solución a este problema es el enfoque de esta disertación que presenta dos arquitecturas de amplificador evolvente: convertidor híbrido-serie con una técnica de evolvente lenta y un convertidor multinivel basado en un convertidor reductor multifase con control de tiempo mínimo. En la primera arquitectura, una topología híbrida está compuesta de una convertidor reductor conmutado y un regulador lineal en serie que trabajan juntos para ajustar la tensión de salida para seguir a la evolvente con precisión. Un algoritmo de generación de una evolvente lenta crea una forma de onda con una pendiente limitada que es menor que la pendiente máxima de la evolvente original. La salida del convertidor reductor sigue esa forma de onda en vez de la evolvente original usando una menor frecuencia de conmutación, porque la forma de onda no sólo tiene una pendiente reducida sino también un menor ancho de banda. De esta forma, el regulador lineal se usa para filtrar la forma de onda tiene una pérdida de potencia adicional. Dependiendo de cuánto se puede reducir la pendiente de la evolvente para producir la forma de onda, existe un trade-off entre la pérdida de potencia del convertidor reductor relacionada con la frecuencia de conmutación y el regulador lineal. El punto óptimo referido a la menor pérdida de potencia total del amplificador de evolvente es capaz de identificarse con la ayuda de modelo preciso de pérdidas que es una combinación de modelos comportamentales y analíticos de pérdidas. Además, se analiza el efecto en la respuesta del filtro de salida del convertidor reductor. Un filtro de dampeo paralelo extra es necesario para eliminar la oscilación resonante del filtro de salida porque el convertidor reductor opera en lazo abierto. La segunda arquitectura es un amplificador de evolvente de seguimiento de tensión multinivel. Al contrario que los convertidores que usan multi-fuentes, un convertidor reductor multifase se emplea para generar la tensión multinivel. En régimen permanente, el convertidor reductor opera en puntos del ciclo de trabajo con cancelación completa del rizado. El número de niveles de tensión es igual al número de fases de acuerdo a las características del entrelazamiento del convertidor reductor. En la transición, un control de tiempo mínimo (MTC) para convertidores multifase es novedosamente propuesto y desarrollado para cambiar la tensión de salida del convertidor reductor entre diferentes niveles. A diferencia de controles convencionales de tiempo mínimo para convertidores multifase con inductancia equivalente, el propuesto MTC considera el rizado de corriente por cada fase basado en un desfase fijo que resulta en diferentes esquemas de control entre las fases. La ventaja de este control es que todas las corrientes vuelven a su fase en régimen permanente después de la transición para que la siguiente transición pueda empezar muy pronto, lo que es muy favorable para la aplicación de seguimiento de tensión multinivel. Además, el control es independiente de la carga y no es afectado por corrientes de fase desbalanceadas. Al igual que en la primera arquitectura, hay una etapa lineal con la misma función, conectada en serie con el convertidor reductor multifase. Dado que tanto el régimen permanente como el estado de transición del convertidor no están fuertemente relacionados con la frecuencia de conmutación, la frecuencia de conmutación puede ser reducida para el alto ancho de banda de la evolvente, la cual es la principal consideración de esta arquitectura. La optimización de la segunda arquitectura para más alto anchos de banda de la evolvente es presentada incluyendo el diseño del filtro de salida, la frecuencia de conmutación y el número de fases. El área de diseño del filtro está restringido por la transición rápida y el mínimo pulso del hardware. La rápida transición necesita un filtro pequeño pero la limitación del pulso mínimo del hardware lleva el diseño en el sentido contrario. La frecuencia de conmutación del convertidor afecta principalmente a la limitación del mínimo pulso y a las pérdidas de potencia. Con una menor frecuencia de conmutación, el ancho de pulso en la transición es más pequeño. El número de fases relativo a la aplicación específica puede ser optimizado en términos de la eficiencia global. Otro aspecto de la optimización es mejorar la estrategia de control. La transición permite seguir algunas partes de la evolvente que son más rápidas de lo que el hardware puede soportar al precio de complejidad. El nuevo método de sincronización de la transición incrementa la frecuencia de la transición, permitiendo que la tensión multinivel esté más cerca de la evolvente. Ambas estrategias permiten que el convertidor pueda seguir una evolvente con un ancho de banda más alto que la limitación de la etapa de potencia. El modelo de pérdidas del amplificador de evolvente se ha detallado y validado mediante medidas. El mecanismo de pérdidas de potencia del convertidor reductor tiene que incluir las transiciones en tiempo real, lo cual es diferente del clásico modelos de pérdidas de un convertidor reductor síncrono. Este modelo estima la eficiencia del sistema y juega un papel muy importante en el proceso de optimización. Finalmente, la segunda arquitectura del amplificador de evolvente se integra con el amplificador de clase F. La medida del sistema EER prueba el ahorro de energía con el amplificador de evolvente propuesto sin perjudicar la linealidad del sistema. ABSTRACT The requirement of delivering high data rates in modern wireless communication systems results in complex modulated RF signals with wide bandwidth and high peak-to-average ratio (PAPR). In order to guarantee the linearity performance, the conventional linear power amplifiers typically work at 4 to 10 dB back-off from the maximum output power, leading to low system efficiency. The envelope elimination and restoration (EER) and envelope tracking (ET) are two promising techniques to overcome the efficiency problem. In both EER and ET, it is challenging to design efficient envelope amplifier for wide bandwidth and high PAPR RF signals. An usual approach for envelope amplifier includes a high-efficiency switching power converter operating at a frequency higher than the RF signal's bandwidth. In this case, the power loss of converter caused by high switching operation becomes unbearable for system efficiency when signal bandwidth is very wide. The solution of this problem is the focus of this dissertation that presents two architectures of envelope amplifier: a hybrid series converter with slow-envelope technique and a multilevel converter based on a multiphase buck converter with the minimum time control. In the first architecture, a hybrid topology is composed of a switched buck converter and a linear regulator in series that work together to adjust the output voltage to track the envelope with accuracy. A slow envelope generation algorithm yields a waveform with limited slew rate that is lower than the maximum slew rate of the original envelope. The buck converter's output follows this waveform instead of the original envelope using lower switching frequency, because the waveform has not only reduced slew rate but also reduced bandwidth. In this way, the linear regulator used to filter the waveform has additional power loss. Depending on how much reduction of the slew rate of envelope in order to obtain that waveform, there is a trade-off between the power loss of buck converter related to the switching frequency and the power loss of linear regulator. The optimal point referring to the lowest total power loss of this envelope amplifier is identified with the help of a precise power loss model that is a combination of behavioral and analytic loss model. In addition, the output filter's effect on the response is analyzed. An extra parallel damping filter is needed to eliminate the resonant oscillation of output filter L and C, because the buck converter operates in open loop. The second architecture is a multilevel voltage tracking envelope amplifier. Unlike the converters using multi-sources, a multiphase buck converter is employed to generate the multilevel voltage. In the steady state, the buck converter operates at complete ripple cancellation points of duty cycle. The number of the voltage levels is equal to the number of phases according the characteristics of interleaved buck converter. In the transition, a minimum time control (MTC) for multiphase converter is originally proposed and developed for changing the output voltage of buck converter between different levels. As opposed to conventional minimum time control for multiphase converter with equivalent inductance, the proposed MTC considers the current ripple of each phase based on the fixed phase shift resulting in different control schemes among the phases. The advantage of this control is that all the phase current return to the steady state after the transition so that the next transition can be triggered very soon, which is very favorable for the application of multilevel voltage tracking. Besides, the control is independent on the load condition and not affected by the unbalance of phase current. Like the first architecture, there is also a linear stage with the same function, connected in series with the multiphase buck converter. Since both steady state and transition state of the converter are not strongly related to the switching frequency, it can be reduced for wide bandwidth envelope which is the main consideration of this architecture. The optimization of the second architecture for wider bandwidth envelope is presented including the output filter design, switching frequency and the number of phases. The filter design area is restrained by fast transition and the minimum pulse of hardware. The fast transition needs small filter but the minimum pulse of hardware limitation pushes the filter in opposite way. The converter switching frequency mainly affects the minimum pulse limitation and the power loss. With lower switching frequency, the pulse width in the transition is smaller. The number of phases related to specific application can be optimized in terms of overall efficiency. Another aspect of optimization is improving control strategy. Transition shift allows tracking some parts of envelope that are faster than the hardware can support at the price of complexity. The new transition synchronization method increases the frequency of transition, allowing the multilevel voltage to be closer to the envelope. Both control strategies push the converter to track wider bandwidth envelope than the limitation of power stage. The power loss model of envelope amplifier is detailed and validated by measurements. The power loss mechanism of buck converter has to include the transitions in real time operation, which is different from classical power loss model of synchronous buck converter. This model estimates the system efficiency and play a very important role in optimization process. Finally, the second envelope amplifier architecture is integrated with a Class F amplifier. EER system measurement proves the power saving with the proposed envelope amplifier without disrupting the linearity performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se plantea aquí el estudio de la Casa Huarte (1966) como un experimento doméstico -así lo concibió el matrimonio Huarte desde la libertad de acción y la entrega al talento de los arquitectos- que sintetizó los principios de los proyectos de la primera etapa de la obra de José Antonio Corrales (1921-2010) y Ramón Vázquez Molezún (1922-1993): paisaje construido, topografía modificada, basamento pesado y arraigado, cubierta ligera flotante y abstracción compositiva. La considerada vivienda experimental del siglo XX estaba asociada a estructuras familiares reducidas, como mucho formadas por un matrimonio con dos hijos. La Casa Huarte, sin embargo, pertenece a un grupo no reconocido de viviendas experimentales de gran formato, que aportaban -en entornos de vida socio-familiar no convencionales- una complejidad funcional, espacial y de relaciones interpersonales que la vivienda mínima no tenía. La Casa Huarte supuso un punto de inflexión en la carrera de Corrales y Molezún, culminando una primera etapa donde se concentraron sus obras más destacadas: Instituto en Herrera de Pisuerga (1956), Residencia de Miraflores (1958) y Pabellón de Bruselas, en sus versiones belga (1958) y española (1959). El proyecto de la Casa Huarte adelantó estrategias que aplicarían en proyectos posteriores -dinamismo del plano horizontal, visuales diagonales, entrada tangencial- y culminó la evolución de un tipo de vivienda que Corrales y Molezún comenzaron a investigar diez años antes. Entre 1956 y 1961 proyectaron cuatro viviendas (Casa Remírez Escudero, Casa Álvarez Mon, Casa Gómez Acebo y Casa Cela) que anticiparon soluciones y situaciones presentes y perfeccionadas en la Casa Huarte. Corrales aseguraba que si la vida es contradictoria la arquitectura también debería serlo. La Casa Huarte es compleja y contradictoria funcional y espacialmente, homogeneizada por una imagen exterior rotunda y atractiva de juegos de volúmenes maclados. El proyecto se muestra así de contundente detrás de habilidosas maniobras tectónicas que ocultan las muchas complejidades y contradicciones aparentemente inapreciables. Estas maniobras confunden la imagen que de la casa se tiene. Debajo de su manto cerámico de reminiscencias vernáculas - híbrido de casa castellana y arquitectura nórdica- se esconde una obra de arquitectura avanzada tecnológicamente. La tesis se desarrolla en cuatro apartados denominados procesos, por lo que tienen de secuencia en el desarrollo de la investigación. Estos procesos son: proceso descriptivo, proceso analítico, proceso interpretativo y proceso poético. Después del necesario e introductorio proceso descriptivo, el cuerpo central de la tesis -que contiene los procesos analítico, interpretativo y poético- sigue un guión marcado por la defensa de la categoría experimental de la Casa Huarte. Se han tratado los conceptos más característicos de la vivienda, desde los más generales a los más específicos divididos en cuatro grupos: Composición, volumen y espacio; El patio como lugar; El jardín: horizonte construido; Domesticidad del mundo interior; y Euritmia: materia y espíritu Molezún aseguraba que para entender una obra de arquitectura había que dibujarla. La Casa Huarte ha sido redibujada en sus tres etapas fundamentales: el proyecto de ejecución (marzo 1965), la casa acabada (noviembre 1966) y el estado actual (2012). El estudio y análisis se centra en la casa construida, por ser la realidad tridimensional en que el proyecto se nos manifiesta. La documentación gráfica del estado actual de la vivienda es inédita y ha sido posible gracias a múltiples inspecciones de la Casa Huarte en visitas facilitadas por las hijas de Jesús Huarte, actuales propietarias de la vivienda. Esta documentación nos permite constatar las alteraciones sobre la obra construida y conocer que modificaciones serían necesarias para recuperar el estado original de la casa. La Casa Huarte es una obra singular, una de las cinco viviendas unifamiliares pertenecientes a la Arquitectura del Movimiento Moderno en España y Portugal de mayor interés registrada por el Docomomo Internacional. Su futuro es incierto, se encuentra deshabitada y en venta. La familia Huarte ha cumplido con creces la misión de conservar su patrimonio. Es pertinente reivindicar su vigencia como obra de referencia de la arquitectura española del siglo XX, y, de esa manera, evitar que caiga en el olvido y el abandono. ABSTRACT The Huarte House (1966) will be analysed as a domestic experiment – that is how the Huarte’s conceived it, putting their faith in the architects – that synthesized the principles from the projects of the first phase of the work of Jose Antonio Corrales (1921-2010) and Ramón Vázquez Molezún (1922-1993): built landscape, modified topography, heavy and rooted base, light, floating roof and abstraction in composition. The experimental house of the 20th century was associated with small nuclear families of at the most a couple and two children. The Huarte House belongs to a group of non-recognised experimental houses of a larger size -and more unconventional familial settings- that lent themselves to greater functional, spatial and interpersonal complexity than their smaller counterparts. The Huarte House represented a turning point in the careers of Corrales and Molezún, capping a first phase that includes their most prominent work: the Institute at Herrera de Pisuerga (1965), the Residence at Miraflores (1958) and the Brussels Pavilion, in its Belgian (1958) and Spanish (1959) version. The project for the Huarte house anticipated strategies which they would apply to later projects: dynamism of the horizontal plane, diagonal visuals, and tangential entrances. It was also the culmination of the evolution of a type of house that Corrales and Molezún had started to investigate ten years earlier. Between 1956 and 1961 they designed four houses (Ramírez Escudero House, Álvarez Mon House, Gómez Acebo House and Cela House) that anticipated the solutions applied and perfected in the Huarte House. Corrales believed that if life was contradictory architecture should be so too. The Huarte House is complex and contradictory. Corrales and Molezún homogenised the project under a bold and attractive image of intersecting volumes. The project appears emphatic thanks to skilful tectonic manoeuvres that conceal the many complexities and contradictions so that they become imperceptible. These manoeuvres confound the image of the house. Under its ceramic blanket of vernacular reminiscences (a mixture of Castilian house and Nordic architecture) lies a technologically advanced piece of architecture. The thesis is organised in four chapters named ‘processes’ in reference to their sequence in the development of the research. These processes are: descriptive process, analytic process, interpretative process and poetic process. After the necessary and introductory descriptive process, the main body of the thesis, which encompasses the analytical, interpretative and poetic processes, develops the argument for incorporating the Huarte House into the experimental category. The thesis addresses the characteristic concepts of a house, from the general to the more specific, divided in four groups: composition, volume and space; the patio: architecture and landscape; the garden: building the horizon and eurythmy: spirit and matter. Molezún was convinced that to get to know a work of architecture it was necessary to draw it. The Huarte House is redrawn in its three main phases: the executive project (march 1965), the finished house (november 1966) and its actual state (2012). The study and analysis centers on the built house, as the actual tri-dimensional manifestation of the project. The graphic documentation of the present state of the house has never been published before and has been made possible by numerous visits to the House facilitated by Jesus Huarte’s daughters who are the current owners. This documentation allows us to determine any alterations of the constructed work and derive the necessary modifications to bring the house back to its original state. The Huarte House is a unique work, one of five single family homes registered by the International Docomomo. Its future is uncertain. It is currently uninhabited and up for sale. The Huarte family has more than delivered on the mission to safeguard its patrimony. It is important to defend its place as a key work of Spanish architecture of the 20th century and so avoid it being forgotten and abandoned.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En las últimas décadas se han incrementado las investigaciones, con el fin de acceder a nuevas tecnologías que nos faculten satisfacer un mejoramiento de los materiales utilizados en obras de ingeniería. Con base a lo dicho en el párrafo precedente y teniendo en cuenta que: - El hormigón se puede considerar como el material más utilizado en la gran empresa de la construcción. - Se debe estimar un preciado cuidado para su elaboración en función del propósito que requiera solventar. - Por la necesidad de construir estructuras más durables y resistentes. Todo lo anterior nos conduce al desarrollo de hormigones que permitan ganar mayores prestaciones teniendo siempre en cuenta que sus propiedades dependen en gran medida de las proporciones y calidad de los componentes en la mezcla. Debido a lo antes mencionado, nos lleva a estudiar el hormigón con nano adiciones y fibras de poliolefinas; el cual hace referencia a un hormigón convencional hecho a partir de cemento hidráulico, árido fino, árido grueso, agua y aditivos, adicionando nano sílice, nano alúmina y fibras de poliolefinas para mejorar las prestaciones y/o características de dicho hormigón convencional, cuyo estudio es el objeto del presente Trabajo Fin de Máster. La evolución del presente trabajo consta de diferentes capítulos, los cuales se sintetizan de la siguiente manera: - Se elabora un pequeño estudio del estado del conocimiento, referente a hormigones convencionales con adiciones en nano sílices y nano alúminas y fibras de poliolefinas encontrado en la literatura; con el fin de revisar un marco teórico, que nos permita inducir una metodología que sirva de base para futuras investigaciones, empezando por la propuesta en el presente trabajo. - Desarrollar trabajos integrados dentro del campo del laboratorio, los cuáles nos permitan familiarizarnos con los materiales comprendidos dentro del hormigón a tratar, pasando por cada uno de sus procedimientos de fabricación y curado, así como también conocer y desarrollar los pertinentes ensayos tanto para su estado fresco y endurecido. - Finalmente, analizar resultados obtenidos de los diferentes ensayos de Laboratorio. Debido a las antes expuesto, se hace interesante establecer unos objetivos precisos del Proyecto que son: - Estudiar la posible incorporación de adiciones de nano sílice y de nano alúmina en el hormigón convencional y la influencia en el mismo; a su vez valorar la también incorporación de un tipo de fibra llamada poliolefina. - Para investigar tales influencias de las adiciones de nano sílice y de nano alúmina y la fibra de poliolefina, se realiza un estudio experimental el cual consiste en realizar en primera medida, un hormigón convencional con nano adiciones de sílice y alúmina llamado hormigón de referencia; el cual se realizo dentro del Laboratorio de Materiales de la Escuela Técnica Superior de Caminos Canales y Puertos de la UPM ; con el fin de servir como un hormigón de referencia con respecto al hormigón convencional con nano adiciones y fibras de poliolefinas, el cual es el objeto de este estudio. Dicha comparación se efectúa en estado freso y endurecido del hormigón, evaluando las diferentes propiedades físicas y mecánicas de un hormigón con respecto a otro, basándonos en ensayos de laboratorio mediante probetas cilíndricas, cubicas y prismáticas. - Analizar y comparar los resultados obtenidos tanto para el hormigón de referencia como también para el hormigón de estudio con el fin de evaluar las posibles mejoras respecto de un hormigón convencional. - Con base en el estudio realizado y con la experiencia adquirida, plantear posibles futuras líneas de investigación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo general del trabajo fin de máster es estudiar la influencia de la adición de nano-sílice y nano-alúmina acompañada con fibras de acero en un hormigón convencional. Con el objetivo general planteado será necesario realizar ensayos para comparar los resultados entre hormigones convencionales con distintas proporciones de fibras de acero, este trabajo fin de máster tiene los siguientes objetivos particulares. •Evaluar los cambios que se producen en las propiedades en estado fresco de los distintos hormigones ensayados. •Dentro del trabajo experimental en laboratorio y evaluando la influencia de las adiciones en el hormigón convencional realizar ensayos como la resistencia a la compresión, tracción indirecta o ensayo brasileño, obtención del módulo de Elasticidad y coeficiente de Poisson, carga de rotura por flexotracción con el fin de determinar las características mecánicas. •Realizar ensayos de permeabilidad para evaluar el comportamiento y su influencia en la durabilidad del hormigón. Para realizar el trabajo y también cumplir con los objetivos, se procedió a la comparación del comportamiento de tres tipos de hormigón con la misma cantidad de cemento y relación agua/cemento: El primer ensayo se inicio con hormigón convencional con adición de 2% de nano-sílice, 2% de nano-alúmina. El segundo ensayo se realizó con hormigón convencional con adición de 2% de nano-sílice, 2% de nano-alúmina y 0.25% (en volumen de la mezcla) de fibras de acero. Y por último el tercer ensayo se realizo añadiendo 2% de nano-sílice, 2% de nano-alúmina y 0.51% (en volumen de la mezcla) de fibras de acero. Las etapas seguidas en este trabajo son las siguientes: Revisión bibliográfica relativa a los hormigones convencionales reforzados con fibras de acero, adición de nano-sílice y/o nano-alúmina. Estudio y elección de las dosificaciones para los hormigones objeto de estudio: hormigón convencional con adiciones y hormigón convencional con adiciones y fibras de acero con diferentes cantidades añadidas. Evaluación de los hormigones reforzados con fibras en estado fresco en base a la normativa vigente y a las exigencias de la Instrucción del Hormigón Estructural (EHE- 08). Evaluación de las propiedades mecánicas de los hormigones en estado endurecido mediante los ensayos correspondientes. Determinación de la profundidad de penetración de agua bajo presión en hormigones endurecidos. Establecer un análisis de los resultados obtenidos con los hormigones ensayados, estudiando su comportamiento con cada adición de fibras, con el fin de fijar recomendaciones de uso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El crecimiento de nuestra red viaria y el proyecto de nuevas autopistas ha incrementado extraordinariamente el número de obras de fábrica a construir. Es evidente, entonces,la importancia económica de estudios más detallados que intenten optimizar estas estructuras. En contrapartida, la complejidad de las estructuras exigidas por las necesidades de las modernas intersecciones es creciente. Complicaciones geométricas y estructurales, tales como planta curva, espesor variable, apoyos arbitrariamente dispuestos, aislados y continuos, etc., son encontradas frecuentemente en los proyectos actuales. De aquí la necesidad perentoria de utilizar métodos de cálculo distintos de los convencionales. La aparición de los ordenadores electrónicos, descargando al proyectista de la parte más rutinaria de su trabajo -el cálculo- ha exigido a los nuevos procedimientos de análisis de estructuras una mayor fidelidad en su representación de la realidad y la posibilidad de un tratamiento único a muy distintas estructuras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde la aparición de Internet, hace ya más de 20 años ha existido por parte de diversos sectores de la sociedad, científicos, empresas, usuarios, etc. la inquietud por la aplicación de esta tecnología a lo que se ha dado en llamar “El Internet de las Cosas”, que no es más que el control a distancia de cualquier elemento útil o necesario para la vida cotidiana y la industria. Sin embargo el desarrollo masivo de aplicaciones orientadas a esto, no ha evolucionado hasta que no se han producido avances importantes en dos campos: por un lado, en las Redes Inalámbricas de Sensores (WSN), redes compuestas por un conjunto de pequeños dispositivos capaces de transmitir la información que recogen, haciéndola llegar desde su propia red inalámbrica, a otras de amplia cobertura y por otro con la miniaturización cada vez mayor de dispositivos capaces de tener una autonomía suficiente como para procesar datos e interconectarse entre sí. Al igual que en las redes de ordenadores convencionales, las WSN se pueden ver comprometidas en lo que a seguridad se refiere, ya que la masiva implementación de estas redes hará que millones de Terabytes de datos, muchas veces comprometidos o sometidos a estrictas Leyes de protección de los mismos, circulen en la sociedad de la información, de forma que lo que nace como una ventaja muy interesante para sus usuarios, puede convertirse en una pesadilla debido a la amenaza constante hacia los servicios mínimos de seguridad que las compañías desarrolladoras han de garantizar a los usuarios de sus aplicaciones. Éstas, y con el objetivo de proveer un ámbito de seguridad mínimo, deben de realizar un minucioso estudio de la aplicación en particular que se quiere ofrecer con una WSN y también de las características específicas de la red ya que, al estar formadas por dispositivos prácticamente diminutos, pueden tener ciertas limitaciones en cuanto al tamaño de la batería, capacidad de procesamiento, memoria, etc. El presente proyecto desarrolla una aplicación, única, ya que en la actualidad no existe un software con similares características y que aporta un avance importante en dos campos principalmente: por un lado ayudará a los usuarios que deseen desplegar una aplicación en una red WSN a determinar de forma automática cuales son los mecanismos y servicios específicos de seguridad que se han de implementar en dicha red para esa aplicación concreta y, por otro lado proporcionará un apoyo extra a expertos de seguridad que estén investigando en la materia ya que, servirá de plataforma de pruebas para centralizar la información sobre seguridad que se tengan en ese momento en una base de conocimientos única, proporcionando también un método útil de prueba para posibles escenarios virtuales. ABSTRACT. It has been more than 20 years since the Internet appeared and with it, scientists, companies, users, etc. have been wanted to apply this technology to their environment which means to control remotely devices, which are useful for the industry or aspects of the daily life. However, the huge development of these applications oriented to that use, has not evolve till some important researches has been occurred in two fields: on one hand, the field of the Wireless Sensor Networks (WSN) which are networks composed of little devices that are able to transmit the information that they gather making it to pass through from their wireless network to other wider networks and on the other hand with the increase of the miniaturization of the devices which are able to work in autonomous mode so that to process data and connect to each other. WSN could be compromised in the matter of security as well as the conventional computer networks, due to the massive implementation of this kind of networks will cause that millions of Terabytes of data will be going around in the information society, thus what it is thought at first as an interesting advantage for people, could turn to be a nightmare because of the continuous threat to the minimal security services that developing companies must guarantee their applications users. These companies, and with the aim to provide a minimal security realm, they have to do a strict research about the application that they want to implement in one WSN and the specific characteristics of the network as they are made by tiny devices so that they could have certain limitations related to the battery, throughput, memory, etc. This project develops a unique application since, nowadays, there is not any software with similar characteristics and it will be really helpful in mainly two areas: on one side, it will help users who want to deploy an application in one WSN to determine in an automatically way, which ones security services and mechanisms are those which is necessary to implement in that network for the concrete application and, on the other side, it will provide an extra help for the security experts who are researching in wireless sensor network security so that ti will an exceptional platform in order to centralize information about security in the Wireless Sensor Networks in an exclusive knowledge base, providing at the same time a useful method to test virtual scenarios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La introducción de la automatización de servicios en los edificios de vivienda comenzó a implementarse a finales del siglo XX. Desde entonces, los edificios que incluyen instalaciones completas de automatización suelen conocerse como edificios domotizados o edificios inteligentes e implican la introducción en la arquitectura de tecnologías que hasta la fecha eran ajenas a ésta. El diseño de estos nuevos edificios de viviendas implica cada vez más el trabajo de equipos multidisciplinares y exige por parte del arquitecto la adquisición de nuevos conocimientos y herramientas proyectuales que aseguren la viabilidad constructiva de dichos servicios de automatización doméstica. La presente tesis tiene como objetivo determinar la influencia de la automatización de servicios domésticos en la fase de proyecto constructivo de los edificios para finalmente ofrecer al arquitecto herramientas, criterios y una metodología que le ayude a proyectar estos edificios satisfactoriamente. Esta influencia se evalúa y determina en función de los condicionantes constructivos, que se definen como aquellas consideraciones que el proyectista puede tener en cuenta en la fase de diseño o de concepción de un edificio. La metodología utilizada en esta investigación incluye el análisis conceptual y de contenidos de documentos normativos, técnicos, y de investigación así como un estudio de mercado de las aplicaciones más habituales en domótica. Finalmente la investigación se centra en la envolvente interior del edificio para determinar la influencia de los servicios de domotización no convencionales en el proyecto arquitectónico. Al margen de las aportaciones teóricas de esta investigación, las cuales se han propuesto para afianzar el marco teórico de la disciplina, los resultados obtenidos constatan que dicha influencia en la fase de proyecto existe y que es posible detectar qué condicionantes constructivos se derivan de la normativa de aplicación en este tipo de proyectos, de las nuevas tecnologías implicadas en las instalaciones de automatización y de los esfuerzos de estandarización de las asociaciones de empresas en el campo de la domótica. ABSTRACT The automation of services in residential buildings (also called home automation) began to be implemented in the late twentieth century. Since then, those buildings with full automation services are often known as intelligent buildings or smart buildings, and they imply the introduction into the architecture of technologies that where foreign to the field until then. The design of these new residential buildings increasingly involves the need of multidisciplinary teams and requires the architect to acquire new knowledge and project tools in order to ensure the constructability of such home automation services. This thesis pretends to determine the impact and influence of the introduction of home automation services in the design stage of residential buildings in order to, finally, provide the architect with the tools, criteria and methodology to help him design such projects successfully. This impact is evaluated and determined by the constructive constraints or factors implied, which are defined as those considerations that the designer may take into account in the conception and design stage of the project. The methodology used in this research includes conceptual and content analysis applied to normative and technical documents, regulatory standards and research papers, as well as a market survey of the most common applications and services in home automation. Finally, the investigation focuses on the inner partitions of the building to determine the influence of unconventional domotics services in the architectural design. Besides the theoretical contributions of this research, which have been proposed to strengthen the theoretical framework of the discipline, the achieved results find that such influence in the design stage exists and that it is possible to detect which constructive constraints are derived from the application of building regulations, from the new technologies involved in home automation facilities or from the standardization efforts of the joint ventures in the field of home automation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto tiene como objetivo el estudio de la viabilidad ecológica de la fracturación hidráulica. Para ello, demuestra primeramente que el beneficio de la aplicación de dicha técnica es una realidad., tomando como referencia a los Estados Unidos. Tras mostrar su rentabilidad, el estudio se centra en los riesgos que supone el uso de la fracturación hidráulica, a partir de los antecedentes para los cuales se realiza un análisis de cada uno de ellos y se aportan posibles soluciones. Para la realización de este estudio es necesario el abordarlo desde distintos puntos de vista, analizando tanto las opiniones contrarias a esta tecnología como a las opiniones favorables. Es también importante referirse a la legislación respectiva a la explotación de los recursos no convencionales, para comprobar su nivel de desarrollo. ABSTRACT The objective of this project is to investigate the ecological viability of fracking. To do this, we firstly demonstrate that the benefit of the application of this technique is a reality, taking the example of the United States. After this, the study focus on risks that can appear with the use of the hydraulic fracturing, referring to existing background, analyzing these cases and searching solutions for each one. For the realization of this study, it is necessary to focus it from different points of view, analyzing favorable and contrary opinions about this new technology. It also is necessary to address the legislative issue about the unconventional resources exploitation, checking it level or development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El alcance de este proyecto es dimensionar un sistema de trigeneración para una industria papelera. El proyecto se realizará en base a la propuesta de la nueva reforma de la ley energética, por la cual no se podrá vender la energía eléctrica generada a la red sino que toda la energía generada ha de ser utilizada de forma exclusiva para autoconsumo. En primer lugar se desarrolla un proceso de selección de los equipos y tecnologías para la cogeneración, que posteriormente servirá para el dimensionamiento de la planta, en el cual se elegirá la tecnología oportuna para la generación de energía eléctrica y energía térmica, tanto en forma de frío como de calor. Con este estudio se podrá calcular el ahorro conseguido por el nuevo sistema propuesto, comparado con los costes de la generación por sistemas convencionales y desde ese ahorro, analizar la rentabilidad y viabilidad del proyecto en función de la inversión inicial que supone dicho proyecto. Abstract The scope of this project is to measure a trigeneration system for paper industry. The project will be based on the proposal of the new reform of the energy law, by which the electricity generated to the network may not be sold but that all the generated energy has to be used exclusively for self-consumption. First of all the study develops a process of selection of the equipment and technologies for cogeneration, which subsequently will be used for the dimensioning of the plant, the result will be an election of the appropriate technology for the generation of electric power and heat energy, both in the form of cold and heat. With this study the savings achieved by the new proposed system will be estimated, compared with costs of conventional generation and from these savings, analized for profitability and viability of the project on the basis of the initial investment involved in this project.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Hogar Digital Accesible (HDA) de la ETSIST nace con el propósito de acercar las nuevas Tecnologías de la Información a las personas que precisan de necesidades concretas de accesibilidad y usabilidad, dotándoles de herramientas que les permitan aumentar su calidad de vida, confort, seguridad y autonomía. El entorno del HDA consta de elementos de control para puertas, persianas, iluminación, agua o gas, sensores de temperatura, incendios, gas, sistemas de climatización, sistemas de entretenimiento y sistemas de seguridad tales como detectores de presencia y alarmas. Todo ello apoyado sobre una arquitectura de red que proporciona una pasarela residencial y un acceso a banda ancha. El objetivo principal de este PFG ha sido el desarrollo de un sistema de autenticación para el Hogar Digital Accesible de bajo coste. La idea de integrar un sistema de autenticación en el HDA, surge de la necesidad de proteger de accesos no deseados determinados servicios disponibles dentro de un ámbito privado. Algunos de estos servicios pueden ser tales como el acceso a la lectura de los mensajes disponibles en el contestador automático, el uso de equipos multimedia, la desconexión de alarmas de seguridad o simplemente la configuración de ambientes según el usuario que esté autenticado (intensidad de luz, temperatura de la sala, etc.). En el desarrollo han primado los principios de accesibilidad, usabilidad y seguridad necesarios para la creación de un entorno no invasivo, que permitiera acreditar la identidad del usuario frente al sistema HDA. Se ha planteado como posible solución, un sistema basado en el reconocimiento de un trazo realizado por el usuario. Este trazo se usará como clave de cara a validar a los usuarios. El usuario deberá repetir el trazado que registró en el sistema para autenticarse. Durante la ejecución del presente PFG, se justificará la elección de este mecanismo de autenticación frente a otras alternativas disponibles en el mercado. Para probar la aplicación, se ha podido contar con dos periféricos de distintas gamas, el uDraw creado para la PS3 que se compone de una tableta digitalizadora y un lápiz que permite recoger los trazos realizados por el usuario de forma inalámbrica y la tableta digitalizadora Bamboo de Wacom. La herramienta desarrollada permite a su vez, la posibilidad de ser usada por otro tipo de dispositivos como es el caso del reloj con acelerómetro de 3 ejes de Texas Instruments Chronos eZ430 capaz de trasladar los movimientos del usuario al puntero de un ratón. El PFG se encuentra dividido en tres grandes bloques de flujo de trabajo. El primero se centra en el análisis del sistema y las tecnologías que lo componen, incluyendo los distintos algoritmos disponibles para realizar la autenticación basada en reconocimiento de patrones aplicados a imágenes que mejor se adaptan a las necesidades del usuario. En el segundo bloque se recoge una versión de prueba basada en el análisis y el diseño UML realizado previamente, sobre la que se efectuaron pruebas de concepto y se comprobó la viabilidad del proyecto. El último bloque incluye la verificación y validación del sistema mediante pruebas que certifican que se han alcanzado los niveles de calidad necesarios para la consecución de los objetivos planteados, generando finalmente la documentación necesaria. Como resultado del trabajo realizado, se ha obtenido un sistema que plantea una arquitectura fácilmente ampliable lograda a través del uso de técnicas como la introspección, que permiten separar la lógica de la capa de negocio del código que la implementa, pudiendo de forma simple e intuitiva sustituir código mediante ficheros de configuración, lo que hace que el sistema sea flexible y escalable. Tras la realización del PFG, se puede concluir que el producto final obtenido ha respondido de forma satisfactoria alcanzando los niveles de calidad requeridos, siendo capaz de proporcionar un sistema de autenticación alternativo a los convencionales, manteniendo unas cotas de seguridad elevadas y haciendo de la accesibilidad y el precio sus características más reseñables. ABSTRACT. Accessible Digital Home (HDA) of the ETSIST was created with the aim of bringing the latest information and communications technologies closer to the people who has special needs of accessibility and usability increasing their quality of life, comfort, security and autonomy. The HDA environment has different control elements for doors, blinds, lighting, water or gas, temperature sensors, fire protection systems, gas flashover, air conditioning systems, entertainments systems and security systems such as intruders detectors and alarms. Everything supported by an architecture net which provides a broadband residential services gateway. The main goal of this PFG was the development of a low-cost authentication system for the Accessible Digital Home. The idea of integrating an authentication system on the HDA, stems from the need to safeguard certain private key network resources from unauthorized access. Some of said resources are the access to the answering machine messages, the use of multimedia devices, the alarms deactivation or the parameter settings for each environment as programmed by the authenticated user (light intensity, room temperature, etc.). During the development priority was given to concepts like accessibility, usability and security. All of them necessary to create a non invasive environment that allows the users to certify their identity. A system based on stroke pattern recognition, was considered as a possible solution. This stroke is used as a key to validate users. The user must repeat the stroke that was saved on the system to validate access. The selection of this authentication mechanism among the others available options will be justified during this PFG. Two peripherals with different ranges were used to test the application. One of them was uDraw design for the PS3. It is wireless and is formed by a pen and a drawing tablet that allow us to register the different strokes drawn by the user. The other one was the Wacom Bamboo tablet, that supports the same functionality but with better accuracy. The developed tool allows another kind of peripherals like the 3-axes accelerometer digital wristwatch Texas Instruments Chronos eZ430 capable of transfering user movements to the mouse cursor. The PFG is divided by three big blocks that represent different workflows. The first block is focused on the system analysis and the technologies related to it, including algorithms for image pattern recognition that fits the user's needs. The second block describes how the beta version was developed based on the UML analysis and design previously done. It was tested and the viability of the project was verified. The last block contains the system verification and validation. These processes certify that the requirements have been fulfilled as well as the quality levels needed to reach the planned goals. Finally all the documentation has been produced. As a result of the work, an expandable system has been created, due to the introspection that provides the opportunity to separate the business logic from the code that implements it. With this technique, the code could be replaced throughout configuration files which makes the system flexible and highly scalable. Once the PFG has finished, it must therefore be concluded that the final product has been a success and high levels of quality have been achieved. This authentication tool gives us a low-cost alternative to the conventional ones. The new authentication system remains security levels reasonably high giving particular emphasis to the accessibility and the price.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este artículo discutimos las limitaciones y ventajas de la distribución cuántica de claves y los primeros pasos hacia su inclusión dentro de la infraestructura de seguridad en las redes de comunicaciones convencionales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Leyenda en parte inferior derecha con los signos convencionales utilizados

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nanotecnología es un área de investigación de reciente creación que trata con la manipulación y el control de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. A escala nanométrica, los materiales exhiben fenómenos físicos, químicos y biológicos singulares, muy distintos a los que manifiestan a escala convencional. En medicina, los compuestos miniaturizados a nanoescala y los materiales nanoestructurados ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, así como una mejora en la focalización del medicamento hacia la diana terapéutica, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales (desde el nivel de población hasta el nivel de célula) y, por tanto, cualquier flujo de trabajo en nanomedicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Desafortunadamente, la informática biomédica todavía no ha proporcionado el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, ni ha adaptado sus métodos y herramientas a este nuevo campo de investigación. En este contexto, la nueva área de la nanoinformática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Las observaciones expuestas previamente determinan el contexto de esta tesis doctoral, la cual se centra en analizar el dominio de la nanomedicina en profundidad, así como en el desarrollo de estrategias y herramientas para establecer correspondencias entre las distintas disciplinas, fuentes de datos, recursos computacionales y técnicas orientadas a la extracción de información y la minería de textos, con el objetivo final de hacer uso de los datos nanomédicos disponibles. El autor analiza, a través de casos reales, alguna de las tareas de investigación en nanomedicina que requieren o que pueden beneficiarse del uso de métodos y herramientas nanoinformáticas, ilustrando de esta forma los inconvenientes y limitaciones actuales de los enfoques de informática biomédica a la hora de tratar con datos pertenecientes al dominio nanomédico. Se discuten tres escenarios diferentes como ejemplos de actividades que los investigadores realizan mientras llevan a cabo su investigación, comparando los contextos biomédico y nanomédico: i) búsqueda en la Web de fuentes de datos y recursos computacionales que den soporte a su investigación; ii) búsqueda en la literatura científica de resultados experimentales y publicaciones relacionadas con su investigación; iii) búsqueda en registros de ensayos clínicos de resultados clínicos relacionados con su investigación. El desarrollo de estas actividades requiere el uso de herramientas y servicios informáticos, como exploradores Web, bases de datos de referencias bibliográficas indexando la literatura biomédica y registros online de ensayos clínicos, respectivamente. Para cada escenario, este documento proporciona un análisis detallado de los posibles obstáculos que pueden dificultar el desarrollo y el resultado de las diferentes tareas de investigación en cada uno de los dos campos citados (biomedicina y nanomedicina), poniendo especial énfasis en los retos existentes en la investigación nanomédica, campo en el que se han detectado las mayores dificultades. El autor ilustra cómo la aplicación de metodologías provenientes de la informática biomédica a estos escenarios resulta efectiva en el dominio biomédico, mientras que dichas metodologías presentan serias limitaciones cuando son aplicadas al contexto nanomédico. Para abordar dichas limitaciones, el autor propone un enfoque nanoinformático, original, diseñado específicamente para tratar con las características especiales que la información presenta a nivel nano. El enfoque consiste en un análisis en profundidad de la literatura científica y de los registros de ensayos clínicos disponibles para extraer información relevante sobre experimentos y resultados en nanomedicina —patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.—, seguido del desarrollo de mecanismos para estructurar y analizar dicha información automáticamente. Este análisis concluye con la generación de un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento y de test anotados manualmente—, el cual ha sido aplicado a la clasificación de registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nanodrogas y nanodispositivos de aquellos enfocados a testear productos farmacéuticos tradicionales. El presente trabajo pretende proporcionar los métodos necesarios para organizar, depurar, filtrar y validar parte de los datos nanomédicos existentes en la actualidad a una escala adecuada para la toma de decisiones. Análisis similares para otras tareas de investigación en nanomedicina ayudarían a detectar qué recursos nanoinformáticos se requieren para cumplir los objetivos actuales en el área, así como a generar conjunto de datos de referencia, estructurados y densos en información, a partir de literatura y otros fuentes no estructuradas para poder aplicar nuevos algoritmos e inferir nueva información de valor para la investigación en nanomedicina. ABSTRACT Nanotechnology is a research area of recent development that deals with the manipulation and control of matter with dimensions ranging from 1 to 100 nanometers. At the nanoscale, materials exhibit singular physical, chemical and biological phenomena, very different from those manifested at the conventional scale. In medicine, nanosized compounds and nanostructured materials offer improved drug targeting and efficacy with respect to traditional formulations, and reveal novel diagnostic and therapeutic properties. Nevertheless, the complexity of information at the nano level is much higher than the complexity at the conventional biological levels (from populations to the cell). Thus, any nanomedical research workflow inherently demands advanced information management. Unfortunately, Biomedical Informatics (BMI) has not yet provided the necessary framework to deal with such information challenges, nor adapted its methods and tools to the new research field. In this context, the novel area of nanoinformatics aims to build new bridges between medicine, nanotechnology and informatics, allowing the application of computational methods to solve informational issues at the wide intersection between biomedicine and nanotechnology. The above observations determine the context of this doctoral dissertation, which is focused on analyzing the nanomedical domain in-depth, and developing nanoinformatics strategies and tools to map across disciplines, data sources, computational resources, and information extraction and text mining techniques, for leveraging available nanomedical data. The author analyzes, through real-life case studies, some research tasks in nanomedicine that would require or could benefit from the use of nanoinformatics methods and tools, illustrating present drawbacks and limitations of BMI approaches to deal with data belonging to the nanomedical domain. Three different scenarios, comparing both the biomedical and nanomedical contexts, are discussed as examples of activities that researchers would perform while conducting their research: i) searching over the Web for data sources and computational resources supporting their research; ii) searching the literature for experimental results and publications related to their research, and iii) searching clinical trial registries for clinical results related to their research. The development of these activities will depend on the use of informatics tools and services, such as web browsers, databases of citations and abstracts indexing the biomedical literature, and web-based clinical trial registries, respectively. For each scenario, this document provides a detailed analysis of the potential information barriers that could hamper the successful development of the different research tasks in both fields (biomedicine and nanomedicine), emphasizing the existing challenges for nanomedical research —where the major barriers have been found. The author illustrates how the application of BMI methodologies to these scenarios can be proven successful in the biomedical domain, whilst these methodologies present severe limitations when applied to the nanomedical context. To address such limitations, the author proposes an original nanoinformatics approach specifically designed to deal with the special characteristics of information at the nano level. This approach consists of an in-depth analysis of the scientific literature and available clinical trial registries to extract relevant information about experiments and results in nanomedicine —textual patterns, common vocabulary, experiment descriptors, characterization parameters, etc.—, followed by the development of mechanisms to automatically structure and analyze this information. This analysis resulted in the generation of a gold standard —a manually annotated training or reference set—, which was applied to the automatic classification of clinical trial summaries, distinguishing studies focused on nanodrugs and nanodevices from those aimed at testing traditional pharmaceuticals. The present work aims to provide the necessary methods for organizing, curating and validating existing nanomedical data on a scale suitable for decision-making. Similar analysis for different nanomedical research tasks would help to detect which nanoinformatics resources are required to meet current goals in the field, as well as to generate densely populated and machine-interpretable reference datasets from the literature and other unstructured sources for further testing novel algorithms and inferring new valuable information for nanomedicine.