34 resultados para novelty inventive
em Universidad Politécnica de Madrid
Resumo:
Métrica de calidad de video de alta definición construida a partir de ratios de referencia completa. La medida de calidad de video, en inglés Visual Quality Assessment (VQA), es uno de los mayores retos por solucionar en el entorno multimedia. La calidad de vídeo tiene un impacto altísimo en la percepción del usuario final (consumidor) de los servicios sustentados en la provisión de contenidos multimedia y, por tanto, factor clave en la valoración del nuevo paradigma denominado Calidad de la Experiencia, en inglés Quality of Experience (QoE). Los modelos de medida de calidad de vídeo se pueden agrupar en varias ramas según la base técnica que sustenta el sistema de medida, destacando en importancia los que emplean modelos psicovisuales orientados a reproducir las características del sistema visual humano, en inglés Human Visual System, del que toman sus siglas HVS, y los que, por el contrario, optan por una aproximación ingenieril en la que el cálculo de calidad está basado en la extracción de parámetros intrínsecos de la imagen y su comparación. A pesar de los avances recogidos en este campo en los últimos años, la investigación en métricas de calidad de vídeo, tanto en presencia de referencia (los modelos denominados de referencia completa), como en presencia de parte de ella (modelos de referencia reducida) e incluso los que trabajan en ausencia de la misma (denominados sin referencia), tiene un amplio camino de mejora y objetivos por alcanzar. Dentro de ellos, la medida de señales de alta definición, especialmente las utilizadas en las primeras etapas de la cadena de valor que son de muy alta calidad, son de especial interés por su influencia en la calidad final del servicio y no existen modelos fiables de medida en la actualidad. Esta tesis doctoral presenta un modelo de medida de calidad de referencia completa que hemos llamado PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), basado en la ponderación de cuatro ratios de calidad calculados a partir de características intrínsecas de la imagen. Son: El Ratio de Fidelidad, calculado mediante el gradiente morfológico o gradiente de Beucher. El Ratio de Similitud Visual, calculado mediante los puntos visualmente significativos de la imagen a través de filtrados locales de contraste. El Ratio de Nitidez, que procede de la extracción del estadístico de textura de Haralick contraste. El Ratio de Complejidad, obtenido de la definición de homogeneidad del conjunto de estadísticos de textura de Haralick PARMENIA presenta como novedad la utilización de la morfología matemática y estadísticos de Haralick como base de una métrica de medida de calidad, pues esas técnicas han estado tradicionalmente más ligadas a la teledetección y la segmentación de objetos. Además, la aproximación de la métrica como un conjunto ponderado de ratios es igualmente novedosa debido a que se alimenta de modelos de similitud estructural y otros más clásicos, basados en la perceptibilidad del error generado por la degradación de la señal asociada a la compresión. PARMENIA presenta resultados con una altísima correlación con las valoraciones MOS procedentes de las pruebas subjetivas a usuarios que se han realizado para la validación de la misma. El corpus de trabajo seleccionado procede de conjuntos de secuencias validados internacionalmente, de modo que los resultados aportados sean de la máxima calidad y el máximo rigor posible. La metodología de trabajo seguida ha consistido en la generación de un conjunto de secuencias de prueba de distintas calidades a través de la codificación con distintos escalones de cuantificación, la obtención de las valoraciones subjetivas de las mismas a través de pruebas subjetivas de calidad (basadas en la recomendación de la Unión Internacional de Telecomunicaciones BT.500), y la validación mediante el cálculo de la correlación de PARMENIA con estos valores subjetivos, cuantificada a través del coeficiente de correlación de Pearson. Una vez realizada la validación de los ratios y optimizada su influencia en la medida final y su alta correlación con la percepción, se ha realizado una segunda revisión sobre secuencias del hdtv test dataset 1 del Grupo de Expertos de Calidad de Vídeo (VQEG, Video Quality Expert Group) mostrando los resultados obtenidos sus claras ventajas. Abstract Visual Quality Assessment has been so far one of the most intriguing challenges on the media environment. Progressive evolution towards higher resolutions while increasing the quality needed (e.g. high definition and better image quality) aims to redefine models for quality measuring. Given the growing interest in multimedia services delivery, perceptual quality measurement has become a very active area of research. First, in this work, a classification of objective video quality metrics based on their underlying methodologies and approaches for measuring video quality has been introduced to sum up the state of the art. Then, this doctoral thesis describes an enhanced solution for full reference objective quality measurement based on mathematical morphology, texture features and visual similarity information that provides a normalized metric that we have called PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), with a high correlated MOS score. The PARMENIA metric is based on the pooling of different quality ratios that are obtained from three different approaches: Beucher’s gradient, local contrast filtering, and contrast and homogeneity Haralick’s texture features. The metric performance is excellent, and improves the current state of the art by providing a wide dynamic range that make easier to discriminate between very close quality coded sequences, especially for very high bit rates whose quality, currently, is transparent for quality metrics. PARMENIA introduces a degree of novelty against other working metrics: on the one hand, exploits the structural information variation to build the metric’s kernel, but complements the measure with texture information and a ratio of visual meaningful points that is closer to typical error sensitivity based approaches. We would like to point out that PARMENIA approach is the only metric built upon full reference ratios, and using mathematical morphology and texture features (typically used in segmentation) for quality assessment. On the other hand, it gets results with a wide dynamic range that allows measuring the quality of high definition sequences from bit rates of hundreds of Megabits (Mbps) down to typical distribution rates (5-6 Mbps), even streaming rates (1- 2 Mbps). Thus, a direct correlation between PARMENIA and MOS scores are easily constructed. PARMENIA may further enhance the number of available choices in objective quality measurement, especially for very high quality HD materials. All this results come from validation that has been achieved through internationally validated datasets on which subjective tests based on ITU-T BT.500 methodology have been carried out. Pearson correlation coefficient has been calculated to verify the accuracy of PARMENIA and its reliability.
Resumo:
El microclima urbano juega un rol importante en el consumo energético de los edificios y en las sensaciones de confort en los espacios exteriores. La urgente necesidad de aumentar la eficiencia energética, reducir las emisiones de los contaminantes y paliar la evidente falta de sostenibilidad que afecta a las ciudades, ha puesto la atención en el urbanismo bioclimático como referente para una propuesta de cambio en la forma de diseñar y vivir la ciudad. Hasta ahora las investigaciones en temas de microclima y eficiencia energética se han concentrado principalmente en como orientar el diseño de nuevos desarrollo. Sin embargo los principales problemas de la insostenibilidad de las actuales conurbaciones son el resultado del modelo de crecimiento especulativo y altamente agotador de recursos que han caracterizado el boom inmobiliario de las últimas décadas. Vemos entonces, tanto en España como en el resto de los Países Europeos, la necesidad de reorientar el sector de la construcción hacía la rehabilitación del espacio construido, como una alternativa capaz de dar una solución más sostenible para el mercado inmobiliario. En este propósito de mejorar la calidad de las ciudades actuales, el espacio público juega un papel fundamental, sobre todo como lugar para el encuentro y la socialización entre los ciudadanos. La sensación térmica condiciona la percepción de un ambiente, así que el microclima puede ser determinante para el éxito o el fracaso de un espacio urbano. Se plantea entonces cómo principal objetivo de la investigación, la definición de estrategias para el diseño bioclimático de los entornos urbanos construidos, fundamentados en las componentes morfotipológica, climática y de los requerimientos de confort para los ciudadanos. Como ulterior elemento de novedad se decide estudiar la rehabilitación de los barrios de construcción de mediado del siglo XX, que en muchos casos constituyen bolsas de degrado en la extendida periferia de las ciudades modernas. La metodología empleada para la investigación se basa en la evaluación de las condiciones climáticas y de confort térmico de diferentes escenarios de proyecto, aplicados a tres casos de estudio situados en un barrio periurbano de la ciudad de Madrid. Para la determinación de los parámetros climáticos se han empleado valores obtenidos con un proceso de simulación computarizada, basados en los principios de fluidodinámica, termodinámica y del intercambio radioactivo en el espacio construido. A través de uso de programas de simulación podemos hacer una previsión de las condiciones microclimáticas de las situaciones actuales y de los efectos de la aplicación de medidas. La gran ventaja en el uso de sistemas de cálculo es que se pueden evaluar diferentes escenarios de proyecto y elegir entre ellos el que asegura mejores prestaciones ambientales. Los resultados obtenidos en los diferentes escenarios han sido comparados con los valores de confort del estado actual, utilizando como indicador de la sensación térmica el índice UTCI. El análisis comparativo ha permitido la realización de una tabla de resumen donde se muestra la evaluación de las diferentes soluciones de rehabilitación. Se ha podido así demostrar que no existe una solución constructiva eficaz para todas las aplicaciones, sino que cada situación debe ser estudiada individualmente, aplicando caso por caso las medidas más oportunas. Si bien los sistemas de simulación computarizada pueden suponer un importante apoyo para la fase de diseño, es responsabilidad del proyectista emplear las herramientas más adecuadas en cada fase y elegir las soluciones más oportunas para cumplir con los objetivos del proyecto. The urban microclimate plays an important role on buildings energy consumption and comfort sensation in exterior spaces. Nowadays, cities need to increase energy efficiency, reduce the pollutants emissions and mitigate the evident lack of sustainability. In reason of this, attention has focused on the bioclimatic urbanism as a reference of change proposal of the way to design and live the city. Hitherto, the researches on microclimate and energy efficiency have mainly concentrated on guiding the design of new constructions. However the main problems of unsustainability of existing conurbations are the result of the growth model highly speculative and responsible of resources depletion that have characterized the real estate boom of recent decades. In Spain and other European countries, become define the need to redirect the construction sector towards urban refurbishment. This alternative is a more sustainable development model and is able to provide a solution for the real estate sector. In order to improve the quality of today's cities, the public space plays a key role, especially in order to provide to citizens places for meeting and socializing. The thermal sensation affects the environment perception, so microclimate conditions can be decisive for the success or failure of urban space. For this reasons, the main objective of this work is focused on the definition of bioclimatic strategies for existing urban spaces, based on the morpho-typological components, climate and comfort requirements for citizens. As novelty element, the regeneration of neighborhoods built in middle of the twentieth century has been studied, because are the major extended in periphery of modern cities and, in many cases, they represent deprived areas. The research methodology is based on the evaluation of climatic conditions and thermal comfort of different project scenarios, applied to three case studies located in a suburban neighborhood of Madrid. The climatic parameters have been obtained by computer simulation process, based on fluid dynamics, thermodynamics and radioactive exchange in urban environment using numerical approach. The great advantage in the use of computing systems is the capacity for evaluate different project scenarios. The results in the different scenarios were compared with the comfort value obtained in the current state, using the UTCI index as indicator of thermal sensation. Finally, an abacus of the thermal comfort improvement obtained by different countermeasures has been performed. One of the major achievement of doctoral work is the demonstration of there are not any design solution suitable for different cases. Each situation should be analyzed and specific design measures should be proposed. Computer simulation systems can be a significant support and help the designer in the decision making phase. However, the election of the most suitable tools and the appropriate solutions for each case is designer responsibility.
Resumo:
As the use of recommender systems becomes more consolidated on the Net, an increasing need arises to develop some kind of evaluation framework for collaborative filtering measures and methods which is capable of not only testing the prediction and recommendation results, but also of other purposes which until now were considered secondary, such as novelty in the recommendations and the users? trust in these. This paper provides: (a) measures to evaluate the novelty of the users? recommendations and trust in their neighborhoods, (b) equations that formalize and unify the collaborative filtering process and its evaluation, (c) a framework based on the above-mentioned elements that enables the evaluation of the quality results of any collaborative filtering applied to the desired recommender systems, using four graphs: quality of the predictions, the recommendations, the novelty and the trust.
Resumo:
As wireless sensor networks are usually deployed in unattended areas, security policies cannot be updated in a timely fashion upon identification of new attacks. This gives enough time for attackers to cause significant damage. Thus, it is of great importance to provide protection from unknown attacks. However, existing solutions are mostly concentrated on known attacks. On the other hand, mobility can make the sensor network more resilient to failures, reactive to events, and able to support disparate missions with a common set of sensors, yet the problem of security becomes more complicated. In order to address the issue of security in networks with mobile nodes, we propose a machine learning solution for anomaly detection along with the feature extraction process that tries to detect temporal and spatial inconsistencies in the sequences of sensed values and the routing paths used to forward these values to the base station. We also propose a special way to treat mobile nodes, which is the main novelty of this work. The data produced in the presence of an attacker are treated as outliers, and detected using clustering techniques. These techniques are further coupled with a reputation system, in this way isolating compromised nodes in timely fashion. The proposal exhibits good performances at detecting and confining previously unseen attacks, including the cases when mobile nodes are compromised.
Resumo:
Los cambios percibidos hacia finales del siglo XX y a principios del nuevo milenio, nos ha mostrado que la crisis cultural de la que somos participes refleja también una crisis de los modelos universales. Nuestra situación contemporánea, parece indicar que ya no es posible formular un sistema estético para atribuirle una vigencia universal e intemporal más allá de su estricta eficacia puntual. La referencia organizada, delimitada, invariable y específica que ofrecía cualquier emplazamiento, en tanto preexistencia, reflejaba una jerarquía del sistema formal basado en lo extensivo: la medida, las normas, el movimiento, el tiempo, la modulación, los códigos y las reglas. Sin embargo, actualmente, algunos aspectos que permanecían latentes sobre lo construido, emergen bajo connotaciones intensivas, transgrediendo la simple manifestación visual y expresiva, para centrase en las propiedades del comportamiento de la materia y la energía como determinantes de un proceso de adaptación en el entorno. A lo largo del todo el siglo XX, el desarrollo de la relación del proyecto sobre lo construido ha sido abordado, casi en exclusiva, entre acciones de preservación o intervención. Ambas perspectivas, manifestaban esfuerzos por articular un pensamiento que diera una consistencia teórica, como soporte para la producción de la acción aditiva. No obstante, en las últimas décadas de finales de siglo, la teoría arquitectónica terminó por incluir pensamientos de otros campos que parecen contaminar la visión sesgada que nos refería lo construido. Todo este entramado conceptual previo, aglomeraba valiosos intentos por dar contenido a una teoría que pudiese ser entendida desde una sola posición argumental. Es así, que en 1979 Ignasi Solá-Morales integró todas las imprecisiones que referían una actuación sobre una arquitectura existente, bajo el termino de “intervención”, el cual fue argumentado en dos sentidos: El primero referido a cualquier tipo de actuación que se puede hacer en un edificio, desde la defensa, preservación, conservación, reutilización, y demás acciones. Se trata de un ámbito donde permanece latente el sentido de intensidad, como factor común de entendimiento de una misma acción. En segundo lugar, más restringido, la idea de intervención se erige como el acto crítico a las ideas anteriores. Ambos representan en definitiva, formas de interpretación de un nuevo discurso. “Una intervención, es tanto como intentar que el edificio vuelva a decir algo o lo diga en una determinada dirección”. A mediados de 1985, motivado por la corriente de revisión historiográfica y la preocupación del deterioro de los centros históricos que recorría toda Europa, Solá-Morales se propone reflexionar sobre “la relación” entre una intervención de nueva arquitectura y la arquitectura previamente existente. Relación condicionada estrictamente bajo consideraciones lingüísticas, a su entender, en sintonía con toda la producción arquitectónica de todo el siglo XX. Del Contraste a la Analogía, resumirá las transformaciones en la concepción discursiva de la intervención arquitectónica, como un fenómeno cambiante en función de los valores culturales, pero a su vez, mostrando una clara tendencia dialógica entres dos categorías formales: El Contraste, enfatizando las posibilidades de la novedad y la diferencia; y por otro lado la emergente Analogía, como una nueva sensibilidad de interpretación del edificio antiguo, donde la semejanza y la diversidad se manifiestan simultáneamente. El aporte reflexivo de los escritos de Solá-Morales podría ser definitivo, si en las últimas décadas antes del fin de siglo, no se hubiesen percibido ciertos cambios sobre la continuidad de la expresión lingüística que fomentaba la arquitectura, hacia una especie de hipertrofia figurativa. Entre muchos argumentos: La disolución de la consistencia compositiva y el estilo unitario, la incorporación volumétrica del proyecto como dispositivo reactivo, y el cambio de visión desde lo retrospectivo hacia lo prospectivo que sugiere la nueva conservación. En este contexto de desintegración, el proyecto, en tanto incorporación o añadido sobre un edificio construido, deja de ser considerado como un apéndice volumétrico subordinado por la reglas compositivas y formales de lo antiguo, para ser considerado como un organismo de orden reactivo, que produce en el soporte existente una alteración en su conformación estructural y sistémica. La extensión, antes espacial, se considera ahora una extensión sensorial y morfológica con la implementación de la tecnología y la hiper-información, pero a su vez, marcados por una fuerte tendencia de optimización energética en su rol operativo, ante el surgimiento del factor ecológico en la producción contemporánea. En una sociedad, como la nuestra, que se está modernizando intensamente, es difícil compartir una adecuada sintonía con las formas del pasado. Desde 1790, fecha de la primera convención francesa para la conservación de monumentos, la escala de lo que se pretende preservar es cada vez más ambiciosa, tanto es así, que al día de hoy el repertorio de lo que se conserva incluye prácticamente todas las tipologías del entorno construido. Para Koolhaas, el intervalo entre el objeto y el momento en el cual se decide su conservación se ha reducido, desde dos milenios en 1882 a unas décadas hoy en día. En breve este lapso desaparecerá, demostrando un cambio radical desde lo retrospectivo hacia lo prospectivo, es decir, que dentro de poco habrá que decidir que es lo que se conserva antes de construir. Solá-Morales, en su momento, distinguió la relación entre lo nuevo y lo antiguo, entre el contraste y la analogía. Hoy casi tres décadas después, el objetivo consiste en evaluar si el modelo de intervención arquitectónica sobre lo construido se ha mantenido desde entonces o si han aparecido nuevas formas de posicionamiento del proyecto sobre lo construido. Nuestro trabajo pretende demostrar el cambio de enfoque proyectual con la preexistencia y que éste tiene estrecha relación con la incorporación de nuevos conceptos, técnicas, herramientas y necesidades que imprimen el contexto cultural, producido por el cambio de siglo. Esta suposición nos orienta a establecer un paralelismo arquitectónico entre los modos de relación en que se manifiesta lo nuevo, entre una posición comúnmente asumida (Tópica), genérica y ortodoxa, fundamentada en lo visual y expresivo de las últimas décadas del siglo XX, y una realidad emergente (Heterotópica), extraordinaria y heterodoxa que estimula lo inmaterial y que parece emerger con creciente intensidad en el siglo XXI. Si a lo largo de todo el siglo XX, el proyecto de intervención arquitectónico, se debatía entre la continuidad y discontinuidad de las categorías formales marcadas por la expresión del edificio preexistente, la nueva intervención contemporánea, como dispositivo reactivo en el paisaje y en el territorio, demanda una absoluta continuidad, ya no visual, expresiva, ni funcional, sino una continuidad fisiológica de adaptación y cambio con la propia dinámica del territorio, bajo nuevas reglas de juego y desplegando planes y estrategias operativas (proyectivas) desde su propia lógica y contingencia. El objeto de esta investigación es determinar los nuevos modos de continuidad y las posibles lógicas de producción que se manifiestan dentro de la Intervención Arquitectónica, intentando superar lo aparente de su relación física y visual, como resultado de la incorporación del factor operativo desplegado por el nuevo dispositivo contemporáneo. Creemos que es acertado mantener la senda connotativa que marca la denominación intervención arquitectónica, por aglutinar conceptos y acercamientos teóricos previos que han ido evolucionando en el tiempo. Si bien el término adolece de mayor alcance operativo desde su formulación, una cualidad que infieren nuestras lógicas contemporáneas, podría ser la reformulación y consolidación de un concepto de intervención más idóneo con nuestros tiempos, anteponiendo un procedimiento lógico desde su propia necesidad y contingencia. Finalmente, nuestro planteamiento inicial aspira a constituir un nueva forma de reflexión que nos permita comprender las complejas implicaciones que infiere la nueva arquitectura sobre la preexistencia, motivada por las incorporación de factores externos al simple juicio formal y expresivo preponderante a finales del siglo XX. Del mismo modo, nuestro camino propuesto, como alternativa, permite proyectar posibles sendas de prospección, al considerar lo preexistente como un ámbito que abarca la totalidad del territorio con dinámicas emergentes de cambio, y con ellas, sus lógicas de intervención.Abstract The perceived changes towards the end of the XXth century and at the beginning of the new milennium have shown us that the cultural crisis in which we participate also reflects a crisis of the universal models. The difference between our contemporary situation and the typical situations of modern orthodoxy and post-modernistic fragmentation, seems to indicate that it is no longer possible to formulate a valid esthetic system, to assign a universal and eternal validity to it beyond its strictly punctual effectiveness; which is even subject to questioning because of the continuous transformations that take place in time and in the sensibility of the subject itself every time it takes over the place. The organised reference that any location offered, limited, invariable and specific, while pre-existing, reflected a hierarchy of the formal system based on the applicable: measure, standards, movement, time, modulation, codes and rules. Authors like Marshall Mc Luhan, Paul Virilio, or Marc Augé anticipated a reality where the conventional system already did not seem to respond to the new architectural requests in which information, speed, disappearance and the virtual had blurred the traditional limits of place; pre-existence did no longer possess a specific delimitation and, on the contrary, they expect to reach a global scale. Currently, some aspects that stayed latent relating to the constructed, surface from intensive connotations, transgressing the simple visual and expressive manifestation in order to focus on the traits of the behaviour of material and energy as determinants of a process of adaptation to the surroundings. Throughout the entire Century, the development of the relation of the project relating to the constructed has been addressed, almost exclusively, in preservational or interventianal actions. Both perspectives showed efforts in order to express a thought that would give a theoretical consistency as a base for the production of the additive action. Nevertheless, the last decades of the Century, architectural theory ended up including thoughts from other fields that seem to contaminate the biased vision 15 which the constructed related us. Ecology, planning, philosophy, global economy, etc, suggest new approaches to the construction of the contemporary city; but this time with a determined idea of change and continuous transformation, that enriches the panorama of thought and architectural practice, at the same time, according to some, it puts disciplinary specification at risk, given that there is no architecture without destruction, the constructed organism requires mutation in order to adjust to the change of shape. All of this previous conceptual framework gathered valuable intents to give importance to a theory that could be understood solely from an argumental position. Thusly, in 1979 Ignasi Solá-Morales integrated all of the imprecisions that referred to an action in existing architecture under the term of “Intervention”, which was explained in two ways: The first referring to any type of intervention that can be carried out in a building, regarding protection, conservation, reuse, etc. It is about a scope where the meaning of intensity stays latent as a common factor of the understanding of a single action. Secondly, more limitedly, the idea of intervention is established as the critical act to the other previous ideas such as restauration, conservation, reuse, etc. Both ultimately represent ways of interpretation of a new speech. “An intervention, is as much as trying to make the building say something again or that it be said in a certain direction”. Mid 1985, motivated by the current of historiographical revision and the concerns regarding the deterioration of historical centres that traversed Europe, Solá-Morales decides to reflect on “the relationship” between an intervention of the new architecture and the previously existing architecture. A relationship determined strictly by linguistic considerations, to his understanding, in harmony with all of the architectural production of the XXth century. From Contrast to Analogy would summarise transformations in the discursive perception of architectural intervention, as a changing phenomenon depending on cultural values, but at the same time, showing a clear dialogical tendency between two formal categories: Contrast, emphasising the possibilities of novelty and difference; and on the other hand the emerging Analogy, as a new awareness of interpretation of the ancient building, where the similarity and diversity are manifested simultaneously. For Solá-Morales the analogical procedure is not based on the visible simultaneity of formal orders, but on associations that the subject establishes throughout time. Through analogy it is tried to overcome the simple visual relationship with the antique, to focus on its spacial, physical and geographical nature. If the analogical attempt guides an opening towards a new continuity; it still persists in the connection of dimensional, typological and figurative factors, subordinate to the formal hierarchy of the preexisting subjects. 16 The reflexive contribution of Solá-Morales’ works could be final, if in the last decades before the end of the century there had not been certain changes regarding linguistic expression, encouraged by architecture, towards a kind of figurative hypertrophy, amongst many arguments we are in this case interested in three moments: The dissolution of the compositional consistency and the united style, the volumetric incorporation of the project as a reactive mechanism, and the change of the vision from retrospective towards prospective that the new conservation suggests. The recurrence to the history of architecture and its recognisable forms, as a way of perpetuating memory and establishing a reference, dissolved any instinct of compositive unity and style, provoking permanent relationships to tend to disappear. The composition and coherence lead to suppose a type of discontinuity of isolated objects in which only possible relationships could appear; no longer as an order of certain formal and compositive rules, but as a special way of setting elements in a specific work. The new globalised field required new forms of consistency between the project and the pre-existent subject, motivated amongst others by the higher pace of market evolution, increase of consumer tax and the level of information and competence between different locations; aspects which finally made stylistic consistence inefficient. In this context of disintegration, the project, in incorporation as well as added to a constructed building, stops being considered as a volumetric appendix subordinate to compositive and formal rules of old, to be considered as an organism of reactive order, that causes a change in the structural and systematic configuration of the existing foundation. The extension, previsouly spatial, is now considered a sensorial and morphological extension, with the implementation of technology and hyper-information, but at the same time, marked by a strong tendency of energetic optimization in its operational role, facing the emergence of the ecological factor in contemporary production. The technological world turns into a new nature, a nature that should be analysed from ecological terms; in other words, as an event of transition in the continuous redistribution of energy. In this area, effectiveness is not only determined by the capacity of adaptation to changing conditions, but also by its transforming capacity “expressly” in order to change an environment. In a society, like ours, that is modernising intensively, it is difficult to share an adecuate agreement with the forms of the past. From 1790, the date of the first French convention for the conservation of monuments, the scale of what is expexted to be preserved is more and more ambitious, so much so that nowadays the repertoire of that what is conserved includes practically all typologies of the constructed surroundings. For Koolhaas, the ínterval between the object and the moment when its conservation is decided has been reduced, from two 17 milennia in 1882 to a few decades nowadays. Shortly this lapse will disappear, showing a radical change of retrospective towards prospective, that is to say, that soon it will be necessary to decide what to conserve before constructing. The shapes of cities are the result of the continuous incorporation of architecture, and perhaps that only through architecture the response to the universe can be understood, the continuity of what has already been constructed. Our work is understood also within that system, modifying the field of action and leaving the road ready for the next movement of those that will follow after us. Continuity does not mean conservatism, continuity means being conscient of the transitory value of our answers to specific needs, accepting the change that we have received. That what has been constructed to remain and last, should cause future interventions to be integrated in it. It is necessary to accept continuity as a rule. Solá-Morales, in his time, distinguished between the relationship with new and old, between contrast and analogy. Today, almost three decades later, the objective consists of evaluating whether the model of architectural intervention in the constructed has been maintained since then or if new ways of positioning the project regarding the constructed have appeared. Our work claims to show the change of the approach of projects with pre-existing subjects and that this has got a close relation to the incorporation of new concepts, techniques, tools and necessities that impress the cultural context, caused by the change of centuries. This assumption guides us to establish a parallelism between the forms of connection where that what is new is manifested between a commonly assumed (topical), generic and orthodox position, based on that what is visual and expressive in the last decades of the XXth century, and an emerging (heterotopical), extraordinary and heterodox reality that stimulates the immaterial and that seems to emerge with growing intensity in the XXIst century. If throughout the XXth century the project of architectural intervention was considered from the continuity and discontinuity of formal categories, marked by the expression of the pre-existing building, the new contemporary intervention, as a reactive device in the landscape and territory, demands an absolute continuity. No longer a visual, expressive or functional one but a morphological continuity of adaptation and change with its own territorial dynamics, under new game rules and unfolding new operative (projective) strategies from its own logic and contingency. 18 The aim of this research is to determine new forms of continuity and the possible logic of production that are expressed in the Architectural Intervention, trying to overcome the obviousness of its physical and visual relationship, at the beginning of this new century, as a result of the incorporation of the operative factor that the new architectural device unfolds. We think it is correct to maintain the connotative path that marks the name architectural intervention by bringing previous concepts and theorical approaches that have been evolving through time together. If the name suffers from a wider operational range because of its formulation, a quality that our contemporary logic provokes, the reformulation and consolidation of an interventional concept could be more suitable for our times, giving preference to a logical method from its own necessity and contingency. It seems that now time shapes the topics, it is no longer about materialising a certain time but about expressing the changes that its new temporality generates. Finally, our initial approach aspires to form a new way of reflection that permits us to understand the complex implications that the new architecture submits the pre-existing subject to, motivated by the incorporation of factors external to simple formal and expressive judgement, prevailing at the end of the XXth century. In the same way, our set road, as an alternative, permits the contemplation of possible research paths, considering that what is pre-existing as an area that spans the whole territory with emerging changing dynamics and, with them, their interventional logics.
Resumo:
A system for estimation of unknown rectangular room dimensions based on two radio transceivers, both capable of full duplex operations, is presented. The approach is based on CIR measurements taken at the same place where the signal is transmitted (generated), commonly known as self- to-self CIR. Another novelty is the receiver antenna design which consists of eight sectorized antennas with 45° aperture in the horizontal plane, whose total coverage corresponds to the isotropic one. The dimensions of a rectangular room are reconstructed directly from radio impulse responses by extracting the information regarding features like round trip time, received signal strength and reverberation time. Using radar approach the estimation of walls and corners positions are derived. Additionally, the analysis of the absorption coefficient of the test environment is conducted and a typical coefficient for office room with furniture is proposed. Its accuracy is confirmed through the results of volume estimation. Tests using measured data were performed, and the simulation results confirm the feasibility of the approach.
Resumo:
A system for simultaneous 2D estimation of rectangular room and transceiver localization is proposed. The system is based on two radio transceivers, both capable of full duplex operations (simultaneous transmission and reception). This property enables measurements of channel impulse response (CIR) at the same place the signal is transmitted (generated), commonly known as self-to-self CIR. Another novelty of the proposed system is the spatial CIR discrimination that is possible with the receiver antenna design which consists of eight sectorized antennas with 45° aperture in the horizontal plane and total coverage equal to the isotropic one. The dimensions of a rectangular room are reconstructed directly from spatial radio impulse responses by extracting the information regarding round trip time (RTT). Using radar approach estimation of walls and corners positions is derived. Tests using measured data were performed, and the simulation results confirm the feasibility of the approach.
Resumo:
This paper describes a novel deployment of an intelligent user-centered HVAC (Heating, Ventilating and Air Conditioner) control system. The main objective of this system is to optimize user comfort and to reduce energy consumption in office buildings. Existing commercial HVAC control systems work in a fixed and predetermined way. The novelty of the proposed system is that it adapts dynamically to the user and to the building environment. For this purpose the system architecture has been designed under the paradigm of Ambient Intelligence. A prototype of the system proposed has been tested in a real-world environment.
Resumo:
The growth of the Internet has increased the need for scalable congestion control mechanisms in high speed networks. In this context, we propose a rate-based explicit congestion control mechanism with which the sources are provided with the rate at which they can transmit. These rates are computed with a distributed max-min fair algorithm, SLBN. The novelty of SLBN is that it combines two interesting features not simultaneously present in existing proposals: scalability and fast convergence to the max-min fair rates, even under high session churn. SLBN is scalable because routers only maintain a constant amount of state information (only three integer variables per link) and only incur a constant amount of computation per protocol packet, independently of the number of sessions that cross the router. Additionally, SLBN does not require processing any data packet, and it converges independently of sessions' RTT. Finally, by design, the protocol is conservative when assigning rates, even in the presence of high churn, which helps preventing link overshoots in transient periods. We claim that, with all these features, our mechanism is a good candidate to be used in real deployments.
Resumo:
El sector porcino ibérico es un sector típicamente español. La imagen que asocia el consumidor a los productos ibéricos es la correspondiente a los productos elaborados a partir de cerdos ibéricos en explotaciones extensivas, (dehesas), y cebados en montanera. Sin embargo, según los datos publicados por el Ministerio de Agricultura, Alimentación y Medio Ambiente, más de un 70 por ciento de los cerdos ibéricos que se producen en España son criados en granjas intensivas. El sector porcino ibérico está en pleno proceso de cambio, tanto por las variaciones que se derivan de la crisis que sufre el sector, como por las modificaciones que se esperan en la norma de calidad, recientemente acordadas. En este entorno en el que existe una reducción importante de los márgenes comerciales en todos los eslabones de la cadena de valor del jamón ibérico de bellota, adquiere importancia el estudio de su estructura y funcionamiento, la determinación de los aspectos que mejoran la eficiencia económica a lo largo de la misma y su concordancia a lo largo de ella. Así mismo, un sector de los consumidores comienza a buscar productos de calidad, se interesa por productos con determinados etiquetados que garantizan la calidad o unas determinadas prácticas de producción y elaboración, como sucede con los productos ecológicos. Existen numerosos estudios sobre distintos aspectos del sector porcino ibérico, realizados por distintas instituciones, como universidades, instituciones privadas y proyectos europeos. En general, se centran en la mejora de la producción de los cerdos ibéricos o en la mejora de la elaboración de los jamones. La novedad de la investigación realizada en la presente Tesis Doctoral reside en el estudio de los aspectos que determinan la mayor eficiencia económica de la cadena de valor del jamón ibérico de bellota de la denominación de origen de Guijuelo, y en las características que aporta al jamón ibérico de bellota la producción ecológica frente a la convencional. Resumen Los objetivos planteados en esta investigación son la mejora de la cadena de valor del jamón ibérico de bellota de la denominación de origen de Guijuelo, mediante el estudio de la problemática estructural y de funcionamiento de la misma. Como objetivos específicos se proponen la mejora de la eficiencia económica en las relaciones comerciales entre los distintos eslabones de la cadena de valor, y el impulso de la oferta de los productos ecológicos de ibérico, mediante el estudio comparativo de las producciones convencionales y ecológicas. Para alcanzar estos objetivos la metodología utilizada es la cadena de valor agroalimentaria, utilizando como herramientas de análisis el método Delphi y la realización de un análisis DAFO del sector porcino ibérico. Las fuentes de información primarias utilizadas proceden por una parte de la colaboración realizada en el proyecto europeo Q-Porkchains, coordinado por el Dr. Jacques H. Trienekens, y por otra parte de los cuestionarios especialmente diseñados para el análisis Delphi realizado. Las fuentes de información secundarias proceden de artículos académicos publicados, de artículos de revistas especializadas en el sector y de informes y estadísticas publicados por el Ministerio de Agricultura, Alimentación y Medio Ambiente. Las conclusiones de la investigación son las siguientes. Las relaciones comerciales de la cadena de valor estudiada están gestionadas, ya que se otorga gran valor a las relaciones comerciales basadas en la confianza, tanto en el aprovisionamiento de productos como en la venta de los mismos en cada eslabón. Sin embargo, no se gestiona adecuadamente la gama de productos que se oferta a lo largo de la cadena de valor, puesto que los eslabones de la misma obtienen diferente eficiencia económica para el mismo producto. Por otra parte, aunque la denominación de origen de Guijuelo es una marca conocida por el consumidor, el esfuerzo por tener una marca colectiva de calidad no ha sido totalmente satisfactorio, en especial para el eslabón de la distribución. Por esta razón, es importante resaltar que es recomendable la creación de una marca propia que cuide la calidad con especial atención, modificando incluso las empresas integrantes de la cadena de valor si el objetivo de calidad no coincide. Es importante garantizar la calidad del producto al consumidor, mediante la trasmisión la información generada por los informes de inspección y certificación realizados por las entidades correspondientes en relación a la norma de calidad de los productos de cerdo ibérico y por el Consejo Regulador de Guijuelo. Se requiere un estudio detallado de los posibles nichos de mercado para llegar a los clientes que buscan un producto de calidad diferenciada como es el jamón ibérico de denominación de origen de Guijuelo. Dentro de los posibles clientes debe tenerse en consideración al colectivo de personas alérgicas, ya que no se encuentran con facilidad en el mercado productos cárnicos de cerdo libres de alérgenos. Por último, la innovación es muy importante en este sector, y pueden ofertarse nuevos productos que ayuden al acortamiento de la cadena de valor, como podría ser la carne fresca de cerdo ibérico de bellota. La producción ecológica de porcino ibérico, en la actualidad no es significativa. El manejo que se realiza de los cerdos ibéricos convencionales de bellota es muy similar al manejo que se realiza de los cerdos ecológicos, salvo en la alimentación que reciben los cerdos ibéricos antes del cebo en montanera y en los medicamentos permitidos en ambas producciones. La producción de porcino ecológico de bellota puede ser interesante para la exportación. Los jamones ibéricos de bellota dispondrían de un sello que garantiza un manejo tradicional –como se realiza en muchas explotaciones extensivas de cerdos ibéricos de bellota-, y que es apreciado por los consumidores de otros países, dispuestos a pagar por productos de calidad diferenciada. Este tipo de producción quizá podría solventar la limitación al ámbito nacional de la norma de calidad de los productos de cerdo ibérico. La falta de claridad y unanimidad en el sector sobre la calidad de los productos de ibéricos que se percibe en los cambios previstos en la legislación, y el interés del eslabón de la industria elaboradora de jamones en calidades no ligadas a producciones extensivas sino intensivas, por su mayor volumen de ventas y sus mejores rendimientos, mueven a los productores de “ibérico puro de bellota” a desmarcarse del sector “ibérico”, donde el peso del producto ibérico cruzado de pienso tiene mucho peso en las decisiones que se toman. The Iberian pork industry is a typically Spanish industry. The associated image by the consumer to these products corresponds to products made from Iberian pigs in extensive farms (meadows), and fattened in open range. However, according to data released by the Ministry of Agriculture, Food and Environment, more than 70 percent of the Iberian pigs produced in Spain are raised on factory farms. The Iberian pork industry is in process of change, both by modifications resulting from the crisis in the sector, and the expected ones in the quality standard, recently agreed. In this environment where there is a significant reduction in trade margins in all links of the value chain of Iberian ham, becomes important to study its structure and operation, identifying the aspects that improve economic efficiency along the value chain and their concordance along it. Likewise, part of the consumers begins searching for quality products, they are interested in certain products that guarantee some sort of quality or production and processing practices, like organic products. There are several studies on various aspects of the Iberian pork industry, made by different institutions, such as universities, private institutions and some European projects. In general, their goal is focused on improving the Iberian hog production or on improving the elaboration of hams. The novelty of the research conducted in this PhD thesis lies in the study of the aspects that determine the economic efficiency of the value chain of Iberian ham from Guijuelo designation of origin, and the comparison between the features that organic or conventional production of Iberian ham brings to it. The objectives propound in this research are the improvement of the value chain of Iberian ham from Guijuelo designation of origin, through the study of its structural and operational problematic. The proposed specific objectives are the improvement of the economic efficiency Resumen in trade relations between the different links in the value chain, and the promotion of the supply of Iberian organic pork products, through the comparative study of conventional and organic productions. In order to achieve these objectives, the used methodology is the agrifood value chain, using as analysis tools the Delphi method, and a SWOT analysis of the Iberian pork industry. The primary sources of information come partly from the collaboration in the European project Q-Porkchains, coordinated by Dr. Jacques Trienekens, and partly from the questionnaires specially designed for the Delphi analysis performed. The secondary sources come from published academic papers, specialized journal articles and reports published by the Ministry of Agriculture, Food and Environment. The research conclusions are as follows. Trade relations in the studied value chain are managed, as it is granted a great value to business relationships based on trust, both in the supply of products and in the sale in each link. However, the portfolio that is offered throughout the value chain is not properly managed, since the economic efficiency obtained for the same product is different in each link. Moreover, although the designation of origin of Guijuelo is a well-known brand, the effort made to acquire a collective quality trademark has not been entirely satisfactory, especially in the distribution link. Due to it, it is important to highlight that it is recommended to create a brand focused on quality, and indeed to change the firms integrating the vale chain, if the goal is not shared by all the companies. It is essential to ensure the quality of the product to the consumer, through the transmission of the available information related to the quality standard of Iberian pork products and of the Guijuelo Regulating Council. A detailed study of potential niche markets is required, in order to reach customers looking for a differentiated quality product as Iberian ham of Guijuelo designation of origin. It should be taken into consideration the group of allergy sufferers as potential customers, as they do not easily find pork products in the market free of allergens. Innovation is very important in this industry, and new products could be commercialized that help to shorten the value chain, as fresh acorn Iberian pork. Nowadays, the organic production of Iberian pork products is not significant. The operation is very similar in both conventional and organic production of Iberian pork products, except in the food received by Iberian hogs and the sort of medicinal treatments allowed in each production. The organic acorn Iberian pork production could be interesting for export. Acorn Iberian hams would have a well-known hallmark, which guarantees a traditional production, -as it is done in many extensive holdings of Iberian acorn-pigs-, and that is appreciated by consumers in other countries This niche of consumers could pay for differentiated quality products. Perhaps, this sort of production could solve the limitation to national scope of the quality standard of Iberian pork products. The lack of clarity and unanimity in the industry on the quality of Iberian pork products has been perceived in the agreed changes of the legislation as well as the interest of the processing industry in hams of quality categories which are not linked to extensive but intensive productions, due to their higher sales volume and better yields. This situation pushed "acorn pure Iberian " pigs farmers to split from the Iberian industry, where the importance of cross Iberian pig from intensive farms is growing so high that they can influence the negotiations and decisions taken inside and outside the industry.
Resumo:
The latest video coding standards developed, like HEVC (High Efficiency Video Coding, approved in January 2013), require for their implementation the use of devices able to support a high computational load. Considering that currently it is not enough the usage of one unique Digital Signal Processor (DSP), multicore devices have appeared recently in the market. However, due to its novelty, the working methodology that allows produce solutions for these configurations is in a very initial state, since currently the most part of the work needs to be performed manually. In consequence, the objective set consists on finding methodologies that ease this process. The study has been focused on extend a methodology, under development, for the generation of solutions for PCs and embedded systems. During this study, the standards RVC (Reconfigurable Video Coding) and HEVC have been employed, as well as DSPs of the Texas Instruments company. In its development, it has been tried to address all the factors that influence both the development and deployment of these new implementations of video decoders, ranging from tools up to aspects of the partitioning of algorithms, without this can cause a drop in application performance. The results of this study are the description of the employed methodology, the characterization of the software migration process and performance measurements for the HEVC standard in an RVC-based implementation. RESUMEN Los estándares de codificación de vídeo desarrollados más recientemente, como HEVC (High Efficiency Video Coding, aprobado en enero de 2013), requieren para su implementación el uso de dispositivos capaces de soportar una elevada carga computacional. Teniendo en cuenta que actualmente no es suficiente con utilizar un único Procesador Digital de Señal (DSP), han aparecido recientemente dispositivos multinúcleo en el mercado. Sin embargo, debido a su novedad, la metodología de trabajo que permite elaborar soluciones para tales configuraciones se encuentra en un estado muy inicial, ya que actualmente la mayor parte del trabajo debe realizarse manualmente. En consecuencia, el objetivo marcado consiste en encontrar metodologías que faciliten este proceso. El estudio se ha centrado en extender una metodología, en desarrollo, para la generación de soluciones para PC y sistemas empotrados. Durante dicho estudio se han empleado los estándares RVC (Reconfigurable Video Coding) y HEVC, así como DSPs de la compañía Texas Instruments. En su desarrollo se ha tratado de atender a todos los factores que influyen tanto en el desarrollo como en la puesta en marcha de estas nuevas implementaciones de descodificadores de vídeo; abarcando desde las herramientas a utilizar hasta aspectos del particionado de los algoritmos, sin que por ello se produzca una reducción en el rendimiento de las aplicaciones. Los resultados de este estudio son una descripción de la metodología empleada, la caracterización del proceso de migración de software, y medidas de rendimiento para el estándar HEVC en una implementación basada en RVC.
Resumo:
El presente trabajo trata de elementos reforzados con barras de armadura y Fibras Metálicas Recicladas (FMR). El objetivo principal es mejorar el comportamiento a fisuración de elementos sometidos a flexión pura y a flexión compuesta, aumentando en consecuencia las prestaciones en servicio de aquellas estructuras con requerimientos estrictos con respecto al control de fisuración. Entre éstas últimas se encuentran las estructuras integrales, es decir aquellas estructuras sin juntas (puentes o edificios), sometidas a cargas gravitatorias y deformaciones impuestas en los elementos horizontales debidas a retracción, fluencia y temperatura. Las FMR son obtenidas a partir de los neumáticos fuera de uso, y puesto que el procedimiento de reciclado se centra en el caucho en vez que en el acero, su forma es aleatoria y con longitud variable. A pesar de que la eficacia del fibrorefuerzo mediante FMR ha sido demostrada en investigaciones anteriores, la innovación que representa este trabajo consiste en proponer la acción combinada de barras convencionales y FMR en la mejora del comportamiento a fisuración. El objetivo es por tanto mejorar la sostenibilidad del proyecto de la estructura en HA al utilizar materiales reciclados por un lado, y aumentando por el otro la durabilidad. En primer lugar, se presenta el estado del arte con respecto a la fisuración en elementos de HA, que sucesivamente se amplía a elementos reforzados con barras y fibras. Asimismo, se resume el método simplificado para el análisis de columnas de estructuras sin juntas ya propuesto por Pérez et al., con particular énfasis en aquellos aspectos que son incompatibles con la acción de las fibras a nivel seccional. A continuación, se presenta un modelo para describir la deformabilidad seccional y la fisuración en elementos en HA, que luego se amplía a aquellos elementos reforzados con barras y fibras, teniendo en cuenta también los efectos debidos a la retracción (tension stiffening negativo). El modelo es luego empleado para ampliar el método simplificado para el análisis de columnas. La aportación consiste por tanto en contar con una metodología amplia de análisis para este tipo de elementos. Seguidamente, se presenta la campaña experimental preliminar que ha involucrado vigas a escala reducida sometidas a flexión simple, con el objetivo de validar la eficiencia y la usabilidad en el hormigón de las FMR de dos diferentes tipos, y su comportamiento con respecto a fibras de acero comerciales. Se describe a continuación la campaña principal, consistente en ensayos sobre ocho vigas en flexión simple a escala 1:1 (variando contenido en FRM, Ø/s,eff y recubrimiento) y doce columnas a flexión compuesta (variando contenido en FMR, Ø/s,eff y nivel de fuerza axil). Los resultados obtenidos en la campaña principal son presentados y comentados, resaltando las mejoras obtenidas en el comportamiento a fisuración de las vigas y columnas, y la rigidez estructural de las columnas. Estos resultados se comparan con las predicciones del modelo propuesto. Los principales parámetros estudiados para describir la fisuración y el comportamiento seccional de las vigas son: la separación entre fisuras, el alargamiento medio de las armaduras y la abertura de fisura, mientras que en los ensayos de las columnas se ha contrastado las leyes momento/curvatura, la tensión en las barras de armadura y la abertura de fisura en el empotramiento en la base. La comparación muestra un buen acuerdo entre las predicciones y los resultados experimentales. Asimismo, se nota la mejora en el comportamiento a fisuración debido a la incorporación de FMR en aquellos elementos con cuantías de armadura bajas en flexión simple, en elementos con axiles bajos y para el control de la fisuración en elementos con grandes recubrimientos, siendo por tanto resultados de inmediato impacto en la práctica ingenieril (diseño de losas, tanques, estructuras integrales, etc.). VIIIComo punto final, se presentan aplicaciones de las FMR en estructuras reales. Se discuten dos casos de elementos sometidos a flexión pura, en particular una viga simplemente apoyada y un tanque para el tratamiento de agua. En ambos casos la adicción de FMR al hormigón lleva a mejoras en el comportamiento a fisuración. Luego, utilizando el método simplificado para el análisis en servicio de columnas de estructuras sin juntas, se calcula la máxima longitud admisible en casos típicos de puentes y edificación. En particular, se demuestra que las limitaciones de la práctica ingenieril actual (sobre todo en edificación) pueden ser aumentadas considerando el comportamiento real de las columnas en HA. Finalmente, los mismos casos son modificados para considerar el uso de MFR, y se presentan las mejoras tanto en la máxima longitud admisible como en la abertura de fisura para una longitud y deformación impuesta. This work deals with elements reinforced with both rebars and Recycled Steel Fibres (RSFs). Its main objective is to improve cracking behaviour of elements subjected to pure bending and bending and axial force, resulting in better serviceability conditions for these structures demanding keen crack width control. Among these structures a particularly interesting type are the so-called integral structures, i.e. long jointless structures (bridges and buildings) subjected to gravitational loads and imposed deformations due to shrinkage, creep and temperature. RSFs are obtained from End of Life Tyres, and due to the recycling process that is focused on the rubber rather than on the steel they come out crooked and with variable length. Although the effectiveness of RSFs had already been proven by previous research, the innovation of this work consists in the proposing the combined action of conventional rebars and RSFs to improve cracking behaviour. Therefore, the objective is to improve the sustainability of RC structures by, on the one hand, using recycled materials, and on the other improving their durability. A state of the art on cracking in RC elements is firstly drawn. It is then expanded to elements reinforced with both rebars and fibres (R/FRC elements). Finally, the simplified method for analysis of columns of long jointless structures already proposed by Pérez et al. is resumed, with a special focus on the points that conflict when taking into account the action of fibres. Afterwards, a model to describe sectional deformability and cracking of R/FRC elements is presented, taking also into account the effect of shrinkage (negative tension stiffening). The model is then used to implement the simplified method for columns. The novelty represented by this is that a comprehensive methodology to analyse this type of elements is presented. A preliminary experimental campaign consisting in small beams subjected to pure bending is described, with the objective of validating the effectiveness and usability in concrete of RSFs of two different types, and their behaviour when compared with commercial steel fibres. With the results and lessons learnt from this campaign in mind, the main experimental campaign is then described, consisting in cracking tests of eight unscaled beams in pure bending (varying RSF content, Ø/s,eff and concrete cover) and twelve columns subjected to imposed displacement and axial force (varying RSF content, Ø/s,eff and squashing load ratio). The results obtained from the main campaign are presented and discussed, with particular focus on the improvement in cracking behaviour for the beams and columns, and structural stiffness for the columns. They are then compared with the proposed model. The main parameters studied to describe cracking and sectional behaviours of the beam tests are crack spacing, mean steel strain and crack width, while for the column tests these were moment/curvature, stress in rebars and crack with at column embedment. The comparison showed satisfactory agreement between experimental results and model predictions. Moreover, it is pointed out the improvement in cracking behaviour due to the addition of RSF for elements with low reinforcement ratios, elements with low squashing load ratios and for crack width control of elements with large concrete covers, thus representing results with a immediate impact in engineering practice (slab design, tanks, integral structures, etc.). Applications of RSF to actual structures are finally presented. Two cases of elements in pure bending are presented, namely a simple supported beam and a water treatment tank. In both cases the addition of RSF to concrete leads to improvements in cracking behaviour. Then, using the simplified model for the serviceability analysis of columns of jointless structures, the maximum achievable jointless length of typical cases of a bridge and building is obtained. In XIIparticular, it is shown how the limitations of current engineering practice (this is especially the case of buildings) can be increased by considering the actual behaviour of RC supports. Then, the same cases are modified considering the use of RSF, and the improvements both in maximum achievable length and in crack width for a given length and imposed strain at the deck/first floor are shown.
Resumo:
We present MBIS (Multivariate Bayesian Image Segmentation tool), a clustering tool based on the mixture of multivariate normal distributions model. MBIS supports multi-channel bias field correction based on a B-spline model. A second methodological novelty is the inclusion of graph-cuts optimization for the stationary anisotropic hidden Markov random field model. Along with MBIS, we release an evaluation framework that contains three different experiments on multi-site data. We first validate the accuracy of segmentation and the estimated bias field for each channel. MBIS outperforms a widely used segmentation tool in a cross-comparison evaluation. The second experiment demonstrates the robustness of results on atlas-free segmentation of two image sets from scan-rescan protocols on 21 healthy subjects. Multivariate segmentation is more replicable than the monospectral counterpart on T1-weighted images. Finally, we provide a third experiment to illustrate how MBIS can be used in a large-scale study of tissue volume change with increasing age in 584 healthy subjects. This last result is meaningful as multivariate segmentation performs robustly without the need for prior knowledge.
Resumo:
One of the main obstacles to the widespread adoption of quantum cryptography has been the difficulty of integration into standard optical networks, largely due to the tremendous difference in power of classical signals compared with the single quantum used for quantum key distribution. This makes the technology expensive and hard to deploy. In this letter, we show an easy and straightforward integration method of quantum cryptography into optical access networks. In particular, we analyze how a quantum key distribution system can be seamlessly integrated in a standard access network based on the passive optical and time division multiplexing paradigms. The novelty of this proposal is based on the selective post-processing that allows for the distillation of secret keys avoiding the noise produced by other network users. Importantly, the proposal does not require the modification of the quantum or classical hardware specifications neither the use of any synchronization mechanism between the network and quantum cryptography devices.
Resumo:
Animal models and human functional imaging data implicate the dopamine system in mediating enhanced encoding of novel stimuli into human memory. A separate line of investigation suggests an association between a functional polymorphism in the promoter region for the human dopamine 4 receptor gene (DRD4) and sensitivity to novelty. We demonstrate, in two independent samples, that the -521Cmayor queT DRD4 promoter polymorphism determines the magnitude of human memory enhancement for contextually novel, perceptual oddball stimuli in an allele dose-dependent manner. The genotype-dependent memory enhancement conferred by the C allele is associated with increased neuronal responses during successful encoding of perceptual oddballs in the ventral striatum, an effect which is again allele dose-dependent. Furthermore, with repeated presentations of oddball stimuli, this memory advantage decreases, an effect mirrored by adaptation of activation in the hippocampus and substantia nigra/ventral tegmental area in C carriers only. Thus, a dynamic modulation of human memory enhancement for perceptually salient stimuli is associated with activation of a dopaminergic-hippocampal system, which is critically dependent on a functional polymorphism in the DRD4 promoter region.