905 resultados para Senseurs multiples
Resumo:
Mode switches are used to partition the system’s behavior into different modes to reduce the complexity of large embedded systems. Such systems operate in multiple modes in which each one corresponds to a specific application scenario; these are called Multi-Mode Systems (MMS). A different piece of software is normally executed for each mode. At any given time, the system can be in one of the predefined modes and then be switched to another as a result of a certain condition. A mode switch mechanism (or mode change protocol) is used to shift the system from one mode to another at run-time. In this thesis we have used a hierarchical scheduling framework to implement a multi-mode system called Multi-Mode Hierarchical Scheduling Framework (MMHSF). A two-level Hierarchical Scheduling Framework (HSF) has already been implemented in an open source real-time operating system, FreeRTOS, to support temporal isolation among real-time components. The main contribution of this thesis is the extension of the HSF featuring a multimode feature with an emphasis on making minimal changes in the underlying operating system (FreeRTOS) and its HSF implementation. Our implementation uses fixed-priority preemptive scheduling at both local and global scheduling levels and idling periodic servers. It also now supports different modes of the system which can be switched at run-time. Each subsystem and task exhibit different timing attributes according to mode, and upon a Mode Change Request (MCR) the task-set and timing interfaces of the entire system (including subsystems and tasks) undergo a change. A Mode Change Protocol specifies precisely how the system-mode will be changed. However, an application may not only need to change a mode but also a different mode change protocol semantic. For example, the mode change from normal to shutdown can allow all the tasks to be completed before the mode itself is changed, while changing a mode from normal to emergency may require aborting all tasks instantly. In our work, both the system mode and the mode change protocol can be changed at run-time. We have implemented three different mode change protocols to switch from one mode to another: the Suspend/resume protocol, the Abort protocol, and the Complete protocol. These protocols increase the flexibility of the system, allowing users to select the way they want to switch to a new mode. The implementation of MMHSF is tested and evaluated on an AVR-based 32 bit board EVK1100 with an AVR32UC3A0512 micro-controller. We have tested the behavior of each system mode and for each mode change protocol. We also provide the results for the performance measures of all mode change protocols in the thesis. RESUMEN Los conmutadores de modo son usados para particionar el comportamiento del sistema en diferentes modos, reduciendo así la complejidad de grandes sistemas empotrados. Estos sistemas tienen multiples modos de operación, cada uno de ellos correspondiente a distintos escenarios y para distintas aplicaciones; son llamados Sistemas Multimodales (o en inglés “Multi-Mode Systems” o MMS). Normalmente cada modo ejecuta una parte de código distinto. En un momento dado el sistema, que está en un modo concreto, puede ser cambiado a otro modo distinto como resultado de alguna condicion impuesta previamente. Los mecanismos de cambio de modo (o protocolos de cambio de modo) son usados para mover el sistema de un modo a otro durante el tiempo de ejecución. En este trabajo se ha usado un modelo de sistema operativo para implementar un sistema multimodo llamado MMHSF, siglas en inglés correspondientes a (Multi-Mode Hierarchical Scheduling Framework). Este sistema está basado en el HSF (Hierarchical Scheduling Framework), un modelo de sistema operativo con jerarquía de dos niveles, implementado en un sistema operativo en tiempo real de libre distribución llamado FreeRTOS, capaz de permitir el aislamiento temporal entre componentes. La principal contribución de este trabajo es la ampliación del HSF convirtiendolo en un sistema multimodo realizando los cambios mínimos necesarios sobre el sistema operativo FreeRTOS y la implementación ya existente del HSF. Esta implementación usa un sistema de planificación de prioridad fija para ambos niveles de jerarquía, ocupando el tiempo entre tareas con un “modo reposo”. Además el sistema es capaz de cambiar de un modo a otro en tiempo de ejecución. Cada subsistema y tarea son capaces de tener distintos atributos de tiempo (prioridad, periodo y tiempo de ejecución) en función del modo. Bajo una demanda de cambio de modo (Mode Change Request MCR) se puede variar el set de tareas en ejecución, así como los atributos de los servidores y las tareas. Un protocolo de cambio de modo espeficica precisamente cómo será cambiado el sistema de un modo a otro. Sin embargo una aplicación puede requerir no solo un cambio de modo, sino que lo haga de una forma especifica. Por ejemplo, el cambio de modo de “normal” a “apagado” puede permitir a las tareas en ejecución ser finalizadas antes de que se complete la transición, pero sin embargo el cambio de “normal” a “emergencia” puede requerir abortar todas las tareas instantaneamente. En este trabajo ambas características, tanto el modo como el protocolo de cambio, pueden ser cambiadas en tiempo de ejecución, pero deben ser previamente definidas por el desarrollador. Han sido definidos tres protocolos de cambios: el protocolo “suspender/continuar”, protocolo “abortar” y el protocolo “completar”. Estos protocolos incrementan la flexibilidad del sistema, permitiendo al usuario seleccionar de que forma quieren cambiar hacia el nuevo modo. La implementación del MMHSF ha sido testada y evaluada en una placa AVR EVK1100, con un micro-controlador AVR32UC3A0. Se ha comprobado el comportamiento de los distintos modos para los distintos protocolos, definidos previamente. Como resultado se proporcionan las medidades de rendimiento de los distintos protocolos de cambio de modo.
Resumo:
Nowadays, we can send audio on the Internet for multiples uses like telephony, broadcast audio or teleconferencing. The issue comes when you need to synchronize the sound from different sources because the network where we are going to work could lose packets and introduce delay in the delivery. This can also come because the sound cards could be work in different speeds. In this project, we will work with two computers emitting sound (one will simulate the left channel (mono) of a stereo signal, and the other the right channel) and connected with a third computer by a TCP network. The last computer must get the sound from both computers and reproduce it in a speaker properly (without delay). So, basically, the main goal of the project is to synchronize multi-track sound over a network. TCP networks introduce latency into data transfers. Streaming audio suffers from two problems: a delay and an offset between the channels. This project explores the causes of latency, investigates the affect of the inter-channel offset and proposes a solution to synchronize the received channels. In conclusion, a good synchronization of the sound is required in a time when several audio applications are being developed. When two devices are ready to send audio over a network, this multi-track sound will arrive at the third computer with an offset giving a negative effect to the listener. This project has dealt with this offset achieving a good synchronization of the multitrack sound getting a good effect on the listener. This was achieved thanks to the division of the project into several steps having constantly a good vision of the problem, a good scalability and having controlled the latency at all times. As we can see in the chapter 4 of the project, a lack of synchronization over c. 100μs is audible to the listener. RESUMEN. A día de hoy, podemos transmitir audio a través de Internet por varios motivos como pueden ser: una llamada telefónica, una emisión de audio o una teleconferencia. El problema viene cuando necesitas sincronizar ese sonido producido por los diferentes orígenes ya que la red a la que nos vamos a conectar puede perder los paquetes y/o introducir un retardo en las entregas de los mismos. Así mismo, estos retardos también pueden venir producidos por las diferentes velocidades a las que trabajan las tarjetas de sonido de cada dispositivo. En este proyecto, se ha trabajado con dos ordenadores emitiendo sonido de manera intermitente (uno se encargará de simular el canal izquierdo (mono) de la señal estéreo emitida, y el otro del canal derecho), estando conectados a través de una red TCP a un tercer ordenador, el cual debe recibir el sonido y reproducirlo en unos altavoces adecuadamente y sin retardo (deberá juntar los dos canales y reproducirlo como si de estéreo de tratara). Así, el objetivo principal de este proyecto es el de encontrar la manera de sincronizar el sonido producido por los dos ordenadores y escuchar el conjunto en unos altavoces finales. Las redes TCP introducen latencia en la transferencia de datos. El streaming de audio emitido a través de una red de este tipo puede sufrir dos grandes contratiempos: retardo y offset, los dos existentes en las comunicaciones entre ambos canales. Este proyecto se centra en las causas de ese retardo, investiga el efecto que provoca el offset entre ambos canales y propone una solución para sincronizar los canales en el dispositivo receptor. Para terminar, una buena sincronización del sonido es requerida en una época donde las aplicaciones de audio se están desarrollando continuamente. Cuando los dos dispositivos estén preparados para enviar audio a través de la red, la señal de sonido multi-canal llegará al tercer ordenador con un offset añadido, por lo que resultará en una mala experiencia en la escucha final. En este proyecto se ha tenido que lidiar con ese offset mencionado anteriormente y se ha conseguido una buena sincronización del sonido multi-canal obteniendo un buen efecto en la escucha final. Esto ha sido posible gracias a una división del proyecto en diversas etapas que proporcionaban la facilidad de poder solucionar los errores en cada paso dando una importante visión del problema y teniendo controlada la latencia en todo momento. Como se puede ver en el capítulo 4 del proyecto, la falta de sincronización sobre una diferencia de 100μs entre dos canales (offset) empieza a ser audible en la escucha final.
Resumo:
Air Mines The sky over the city's port was the color of a faulty screen, only partly lit up. As the silhouette of nearby buildings became darker, but more clearly visible against the fading blur-filter of a background, the realization came about how persistent a change had been taking place. Slowly, old wooden water reservoirs and rattling HVAC systems stopped being the only inhabitants of roofs. Slightly trembling, milkish jellyfish-translucent air volumes had joined the show in multiples. A few years ago artists and architects seized upon the death of buildings as their life-saving media. Equipped with constructive atlases and instruments they started disemboweling their subjects, poking about their systems, dumping out on the street the battered ugliness of their embarrassing bits and pieces, so rightly hidden by facades and height from everyday view. But, would you believe it? Even ?old ladies?, investment bankers or small children failed to get upset. Of course, old ladies are not what they used to be. It was old ladies themselves that made it happen after years of fights with the town hall, imaginative proposals and factual arguments. An industry with little financial gains but lots of welcome externalities was not, in fact, the ground for investment bankers. But they too had to admit that having otherwise stately buildings make fine particulate pencils with their facades was not the worse that could happen. Yes, making soot pencils had been found an interesting and visible end product of the endeavor, a sort of mining the air for vintage writing tools one can actually touch. The new view from the street did not seem as solid or dignified as that of old, and they hated that the market for Fine Particulates Extraction (FPE, read efpee) had to be applied on a matrix of blocks and streets that prevented undue concentration of the best or worse solutions. It had to be an evenly distributed city policy in order for the city to apply for cleaning casino money. Once the first prototypes had been deployed in buildings siding Garden Avenue or Bulwark Street even fast movers appreciated the sidekick of flower and plant smell dripping down the Urban Space Stations (USS, read use; USSs, read uses) as air and walls cooled off for a few hours after sunset. Enough. It was all nice to remember, but it was now time to go up and start the lightweight afternoon maintenance of their USS. Coop discussions had taken place all through the planning and continued through the construction phase as to how maintenance was going to be organized. Fasters had voted for a pro, pay a small amount and let them use it for rent and produce. In the end some neighbors decided they were slow enough to take care and it was now the turn. Regret came periodically, sometimes a week before, and lasted until work actually started. But lately it had been replaced by anxiety when it needed to be passed over to the next caretaker. It did not look their shift was good enough and couldn?t wait to fix it. Today small preparations needed to be made for a class visit next day from a nearby cook school. They were frequenters. It had not been easy, but it shouldn?t have been that hard. In the end, even the easiest things are hard if they involve a city, buildings and neighbors. On the face of the data, the technicalities and the way final designs had been worked out for adaptation to the different settings, the decision of where to go was self evident, but organization issues and the ever-growing politics of taste in a city of already-gentrified-rodents almost put the project in the frozen orbit of timeless beautiful future possibilities. This is how it was. A series of designs by XClinic and OSS had made it possible to adapt to different building structures, leave in most cases the roof untouched and adapted a new technology of flexing fiberglass tubes that dissipated wind pressure in smooth bending.......
Resumo:
En el trabajo que aquí presentamos se incluye la base teórica (sintaxis y semántica) y una implementación de un framework para codificar el razonamiento de la representación difusa o borrosa del mundo (tal y como nosotros, seres humanos, entendemos éste). El interés en la realización de éste trabajo parte de dos fuentes: eliminar la complejidad existente cuando se realiza una implementación con un lenguaje de programación de los llamados de propósito general y proporcionar una herramienta lo suficientemente inteligente para dar respuestas de forma constructiva a consultas difusas o borrosas. El framework, RFuzzy, permite codificar reglas y consultas en una sintaxis muy cercana al lenguaje natural usado por los seres humanos para expresar sus pensamientos, pero es bastante más que eso. Permite representar conceptos muy interesantes, como fuzzificaciones (funciones usadas para convertir conceptos no difusos en difusos), valores por defecto (que se usan para devolver resultados un poco menos válidos que los que devolveríamos si tuviésemos la información necesaria para calcular los más válidos), similaridad entre atributos (característica que utilizamos para buscar aquellos individuos en la base de datos con una característica similar a la buscada), sinónimos o antónimos y, además, nos permite extender el numero de conectivas y modificadores (incluyendo modificadores de negación) que podemos usar en las reglas y consultas. La personalización de la definición de conceptos difusos (muy útil para lidiar con el carácter subjetivo de los conceptos borrosos, donde nos encontramos con que cualificar a alguien de “alto” depende de la altura de la persona que cualifica) es otra de las facilidades incluida. Además, RFuzzy implementa la semántica multi-adjunta. El interés en esta reside en que introduce la posibilidad de obtener la credibilidad de una regla a partir de un conjunto de datos y una regla dada y no solo el grado de satisfacción de una regla a partir de el universo modelado en nuestro programa. De esa forma podemos obtener automáticamente la credibilidad de una regla para una determinada situación. Aún cuando la contribución teórica de la tesis es interesante en si misma, especialmente la inclusión del modificador de negacion, sus multiples usos practicos lo son también. Entre los diferentes usos que se han dado al framework destacamos el reconocimiento de emociones, el control de robots, el control granular en computacion paralela/distribuída y las busquedas difusas o borrosas en bases de datos. ABSTRACT In this work we provide a theoretical basis (syntax and semantics) and a practical implementation of a framework for encoding the reasoning and the fuzzy representation of the world (as human beings understand it). The interest for this work comes from two sources: removing the existing complexity when doing it with a general purpose programming language (one developed without focusing in providing special constructions for representing fuzzy information) and providing a tool intelligent enough to answer, in a constructive way, expressive queries over conventional data. The framework, RFuzzy, allows to encode rules and queries in a syntax very close to the natural language used by human beings to express their thoughts, but it is more than that. It allows to encode very interesting concepts, as fuzzifications (functions to easily fuzzify crisp concepts), default values (used for providing results less adequate but still valid when the information needed to provide results is missing), similarity between attributes (used to search for individuals with a characteristic similar to the one we are looking for), synonyms or antonyms and it allows to extend the number of connectives and modifiers (even negation) we can use in the rules. The personalization of the definition of fuzzy concepts (very useful for dealing with the subjective character of fuzziness, in which a concept like tall depends on the height of the person performing the query) is another of the facilities included. Besides, RFuzzy implements the multi-adjoint semantics. The interest in them is that in addition to obtaining the grade of satisfaction of a consequent from a rule, its credibility and the grade of satisfaction of the antecedents we can determine from a set of data how much credibility we must assign to a rule to model the behaviour of the set of data. So, we can determine automatically the credibility of a rule for a particular situation. Although the theoretical contribution is interesting by itself, specially the inclusion of the negation modifier, the practical usage of it is equally important. Between the different uses given to the framework we highlight emotion recognition, robocup control, granularity control in parallel/distributed computing and flexible searches in databases.
Resumo:
A menudo los científicos secuencian el ADN de un gran número de personas con el objetivo de determinar qué genes se asocian con determinadas enfermedades. Esto permite meóon del genoma humano. El precio de un perfil genómico completo se ha posicionado por debajo de los 200 dólares y este servicio lo ofrecen muchas compañías, la mayor parte localizadas en EEUU. Como consecuencia, en unos pocos a~nos la mayoría de las personas procedentes de los países desarrollados tendrán los medios para tener su ADN secuenciado. Alrededor del 0.5% del ADN de cada persona (que corresponde a varios millones de nucleótidos) es diferente del genoma de referencia debido a variaciones genéticas. Así que el genoma contiene información altamente sensible y personal y representa la identidad biológica óon sobre el entorno o estilo de vida de uno (a menudo facilmente obtenible de las redes sociales), sería posible inferir el fenotipo del individuo. Multiples GWAS (Genome Wide Association Studies) realizados en los últimos a~nos muestran que la susceptibilidad de un paciente a tener una enfermedad en particular, como el Alzheimer, cáncer o esquizofrenia, puede ser predicha parcialmente a partir de conjuntos de sus SNP (Single Nucleotide Polimorphism). Estos resultados pueden ser usados para medicina genómica personalizada (facilitando los tratamientos preventivos y diagnósticos), tests de paternidad genéticos y tests de compatibilidad genética para averiguar a qué enfermedades pueden ser susceptibles los descendientes. Estos son algunos de los beneficios que podemos obtener usando la información genética, pero si esta información no es protegida puede ser usada para investigaciones criminales y por compañías aseguradoras. Este hecho podría llevar a discriminaci ón genética. Por lo que podemos concluir que la privacidad genómica es fundamental por el hecho de que contiene información sobre nuestra herencia étnica, nuestra predisposición a múltiples condiciones físicas y mentales, al igual que otras características fenotópicas, ancestros, hermanos y progenitores, pues los genomas de cualquier par de individuos relacionados son idénticos al 99.9%, contrastando con el 99.5% de dos personas aleatorias. La legislación actual no proporciona suficiente información técnica sobre como almacenar y procesar de forma segura los genomas digitalizados, por lo tanto, es necesaria una legislación mas restrictiva ---ABSTRACT---Scientists typically sequence DNA from large numbers of people in order to determine genes associated with particular diseases. This allows to improve the modern healthcare and to provide a better understanding of the human genome. The price of a complete genome profile has plummeted below $200 and this service is ofered by a number of companies, most of them located in the USA. Therefore, in a few years, most individuals in developed countries will have the means of having their genomes sequenced. Around 0.5% of each person's DNA (which corresponds to several millions of nucleotides) is diferent from the reference genome, owing to genetic variations. Thus, the genome contains highly personal and sensitive information, and it represents our ultimate biological identity. By combining genomic data with information about one's environment or lifestyle (often easily obtainable from social networks), could make it possible to infer the individual's phenotype. Multiple Genome Wide Association Studies (GWAS) performed in recent years have shown that a patient's susceptibility to particular diseases, such as Alzheimer's, cancer, or schizophrenia, can be partially predicted from sets of his SNPs. This results can be used for personalized genomic medicine (facilitating preventive treatment and diagnosis), genetic paternity tests, ancestry and genealogical testing, and genetic compatibility tests in order to have knowledge about which deseases would the descendant be susceptible to. These are some of the betefts we can obtain using genoma information, but if this information is not protected it can be used for criminal investigations and insurance purposes. Such issues could lead to genetic discrimination. So we can conclude that genomic privacy is fundamental due to the fact that genome contains information about our ethnic heritage, predisposition to numerous physical and mental health conditions, as well as other phenotypic traits, and ancestors, siblings, and progeny, since genomes of any two closely related individuals are 99.9% identical, in contrast with 99.5%, for two random people. The current legislation does not ofer suficient technical information about safe and secure ways of storing and processing digitized genomes, therefore, there is need for more restrictive legislation.
Resumo:
Differential resultant formulas are defined, for a system $\cP$ of $n$ ordinary Laurent differential polynomials in $n-1$ differential variables. These are determinants of coefficient matrices of an extended system of polynomials obtained from $\cP$ through derivations and multiplications by Laurent monomials. To start, through derivations, a system $\ps(\cP)$ of $L$ polynomials in $L-1$ algebraic variables is obtained, which is non sparse in the order of derivation. This enables the use of existing formulas for the computation of algebraic resultants, of the multivariate sparse algebraic polynomials in $\ps(\cP)$, to obtain polynomials in the differential elimination ideal generated by $\cP$. The formulas obtained are multiples of the sparse differential resultant defined by Li, Yuan and Gao, and provide order and degree bounds in terms of mixed volumes in the generic case.
Resumo:
Esta investigación se plantea con la hipótesis radical de cómo habitar el desierto de forma sostenible, desde una actitud pragmática y experimental basada en el progreso. La justificación se basa en primer lugar en los 2.000 millones de personas en el mundo que viven en entornos desérticos, el 80% de ellas, en países en desarrollo, porque el 40% de la superficie terrestre está bajo amenaza de desertificación afectando al 37% de la población mundial, con 12 millones de hectáreas al año perdidas por esa causa, y por último, porque se considera el desierto como un entorno de gran atractivo y potencial. El contenido de la investigación se estructura en tres movimientos: posicionamiento, mirada y acción: Desde el posicionamiento se define en primer lugar la sostenibilidad, aportando un nuevo diagrama donde se incorpora el ámbito arquitectónico como uno de los pilares principales, y, posteriormente, se establecen los criterios de evaluación de la sostenibilidad, aportando un sistema de indicadores donde se incorporan parámetros adecuados a las circunstancias del oasis. Del mismo modo, se estudian y analizan metodologías de actuación y proyectos de desarrollo sostenible existentes que enmarcan el estado del arte, constatando la dificultad de adaptación de los mismos a las condiciones de los oasis, por lo que se elabora una metodología propia donde se modifica la dinámica estratégica, de forma que el impulso se plantea desde la acción social, a través de hipótesis de estrategias basadas en sistemas low-cost, autoconstruidas, asumibles económicamente y de implantación factible. El caso de estudio específico radica en la situación extrema de las condiciones en el oasis de M’hamid, donde se evidencia un proceso de desintegración y abandono. Esto es debido a una acumulación de circunstancias externas e internas, de múltiples factores: naturales y antrópicos que afectan al oasis, llevando al extremo las condiciones climáticas y la escasez de recursos, naturales y artificiales. Factores como el cambio climático, la sequía, los cambios en las políticas del agua, la amenaza de desertificación, los conflictos sociales, el desequilibrio ecológico, la escasez económica, la crisis energética, la obsolescencia arquitectónica, el patrimonio construido prácticamente destruido, y la malentendida nueva arquitectura. Es importante constatar la escasa documentación gráfica existente sobre la zona de actuación lo que ha conllevado un amplio trabajo de documentación, tanto cartográfica como de observación directa, aportada a la tesis como investigación de elaboración propia. La mirada analítica al caso de estudio permite conocer los recursos disponibles y las potencialidades latentes del oasis de M’hamid, que permitirán actuar para subvertir la dinámica involutiva imperante, de forma que los dibujos iniciales de apropiación contextual y análisis críticos derivan en mapas de acción diagramados conformados por un sistema de objetos y la definición de estrategias transversales, deconstruyendo el pasado y reconstruyendo el futuro, incorporando sistemas alternativos que se definen en 7 líneas estratégicas de acción formuladas desde los 3 ámbitos relacionados con el ecosistema: ecológico, socio- económico y arquitectónico. Así, la tesis defiende la acción arquitectónica como impulsora del desarrollo sostenible, apoyada en 3 elementos: - la creación de objetos “tecnoartesanos”, para el aprovechamiento de los recursos energéticos - las transformaciones arquitectónicas, para reformular el hábitat desde la eficiencia energética y el progreso - y el impulso de acciones cotidianas, que redefinan las relaciones sociales, creando entornos cooperativos y colaborativos. En el ámbito ecológico se proponen actuaciones anti desertificación mediante incubadoras de árboles; sistemas alternativos de gestión del agua, como la lluvia sólida; estrategias de potenciación de la producción agrícola; la construcción de mecanismos de obtención de energía a partir de residuos, como los paneles solares con botellas PET. En el ámbito socioeconómico se plantean nuevas formas de acción social y de reactivación económica. Por último, en el ámbito urbano-arquitectónico, se incorporan modificaciones morfológicas a la arquitectura existente y una relectura contemporánea de la tierra, como material que permite nuevas geometrías, obteniendo arena petrificada por procesos microbiológicos, y potenciando la tierra como recurso artístico. Esta tesis es un punto de partida, recoge sistemas, estrategias y experiencias, para funcionar como un estímulo o impulso dinamizador del futuro desarrollo sostenible del oasis, abriendo vías de investigación y experimentación. ABSTRACT This research puts forth the radical hypothesis of how to inhabit the desert in a sustainable way, using a pragmatic and experimental approach based on progress. The justification for this resides in the fact that there are 2,000 million people in the world living in desert environments, 80% of them in developing countries. Forty percent of the earth’s surface is under threat of desertification, affecting 37% of the world population and with 12 million hectares being lost each year. And finally, the desert is considered as an attractive environment and therefore, with great potential. The content of the research is structured in three main sections: positioning, observation and action: As a point of departure, sustainability is defined, proposing a new framework where architecture is incorporated as one of the main pillars. Then, the criteria for evaluating sustainability are established. These provide a system of indicators, which incorporate parameters based on the specific circumstances of the oasis. Methodologies and existing sustainable development projects that represent the state-of-the-art are analyzed, discussing the difficulty of adapting them to conditions of oases. A methodology that modifies strategic concepts is developed, whereby the catalyst is social action, and strategies are developed based on low-cost, self-built, and feasible implementation systems. The specific case study lies in the extreme conditions in the oasis of M'hamid, where a process of decay and neglect is evident. This deterioration is due to an accumulation of external and internal circumstances, and of natural and anthropogenic factors that affect the oasis, leading to extreme weather conditions and a shortage of both natural and artificial resources. Factors include; climate change, drought, changes in water policies, the threat of desertification, social conflicts, ecological imbalance, economic shortage, the energy crisis, architectural obsolescence, destruction of built heritage, and misunderstood new architecture. It is important to note the extremely limited graphic information about the area has led me to produce an extensive archive of maps and drawings, many developed by direct observation, that contribute to the research. The case study analysis of the oasis of M'hamid examines the resources available and the latent potential to slow the prevailing trend towards deterioration. The initial drawings of contextual appropriation and critical analysis result in maps and diagrams of action, which are formed by a system of objects and the definition of strategies. These can be thought of as understanding or “deconstructing” the past to reconstruct the future. Alternative approaches defined in seven strategies for action are based on three fields related to the ecosystem: ecological, socioeconomic and architectural. Thus, the thesis defends architectural action to promote sustainable development, based on three elements: - The creation of "techno-artisans", to make use of energy resources - Architectural changes, to reformulate habitat in terms of energy efficiency and progress - And the promotion of everyday actions, to redefine social relations, creating cooperative and collaborative environments. In the ecological field, I propose anti-desertification actions such as; tree incubators, alternative water management systems(such as solid rain),; strategies to empower the agricultural production, energy from low-cost systems made out from recycled materials(such as solar panels from PET bottles or wind turbine from bicycle wheels). In the socioeconomic sphere, I propose to implement new forms of social action and economic regeneration. Finally, within the urban and architectural field, I propose morphological changes to the existing architecture and a contemporary reinterpretation of the earth as a material that allows new geometries, creating petrified sand by microbiological processes or enhancing nature as an artistic and energy resource. This thesis is a starting point. It collects systems, strategies and experiences to serve as a stimulus or dynamic momentum for future sustainable development of the oasis, opening new avenues of research and experimentation. RÉSUMÉ Cette recherche part d'une hypothèse radicale : comment habiter le désert de façon durable, et ce à partir d'une approche pragmatique et expérimentale basée sur le progrès. Cette hypothèse se justifie en raison des 2 milliards de personnes qui dans le monde habitent des environnements désertiques, 80% d'entre eux dans des pays en voie de développement, mais aussi parce que 40% de la surface de la planète est sous menace de désertification, un phénomène affectant 37% de la population mondiale et qui cause la perte de 12 millions d'hectares par an; et enfin parce que le désert est considéré comme un environnement très attrayant et fort d’un grand potentiel. Le contenu de la recherche se divise en trois mouvements: le positionnement, le regard et l'action : Du point de vue du positionnement on définit tout d'abord la durabilité, présentant un nouveau schéma où le domaine de l'architecture devient un des principaux piliers, et, par la suite, des critères d'évaluation de la durabilité sont établis, en fournissant un système d’indicateurs qui intègre les paramètres appropriés aux circonstances de l'oasis. De même, des méthodologies et des projets de développement durable existants sont étudiés et analysés, ce qui encadre l'état de l'art, remarquant la difficulté de les adapter aux conditions des oasis. De cette difficulté découle l'élaboration d'une méthodologie qui modifie la dynamique stratégique, de sorte que l'impulsion provient de l'action sociale, à travers des hypothèses de stratégie basées sur des systèmes low-cost, auto-construits, et de mise en oeuvre économiquement viable. Le cas d'étude spécifique réside en la situation extrême des conditions de l'oasis de M’hamid, où un processus de décadence et de négligence est évident. Cela est dû à une accumulation de circonstances externes et internes, de multiples facteurs: les facteurs naturels et anthropiques qui affectent l'oasis, menant à l'extrême les conditions météorologiques et la pénurie de ressources, autant naturelles qu'artificielles. Des facteurs tels que le changement climatique, la sécheresse, les changements dans les politiques de l'eau, la menace de la désertification, les conflits sociaux, le déséquilibre écologique, la pénurie économique, la crise de l'énergie, l'obsolescence architecturale, le patrimoine bâti pratiquement détruit et une mauvais compréhensif de la nouvelle architecture. Il est important de de faire remarquer le peu d'informations graphiques du domaine d'action, ce qui a conduit à un vaste travail de documentation, autant cartographique que relative à l'observation directe. Cette documentation s'ajoute à la thèse en tant que recherche propre. Le regard analytique sur le cas d'étude permet de connaître les ressources disponibles et le potentiel latent de l'oasis de M’hamid, qui agiront pour renverser la dynamique d'involution en vigueur. Ainsi, les premiers dessins d'appropriation contextuelle et analyse critique deviennent des cartes d'action schématisées formées par un système d'objets et la définition de stratégies transversales, qui déconstruisent le passé et reconstruisent l'avenir, en incorporant des systèmes alternatifs qui se définissent sur 7 lignes stratégiques d'action formulées à partir des 3 domaines en relation avec l’écosystème: l’écologique, le socio-économique et l'architectural. Ainsi, la thèse défend l'action architecturale en tant que promotrice du développement durable, et ce basé sur 3 éléments: - la création d'objets "technoartisans" pour l'exploitation des ressources énergétiques - les modifications architecturales, pour reformuler l'habitat du point de vue de l'efficacité énergétique et le progrès - et la promotion des actions quotidiennes, pour redéfinir les relations sociales, et la création d'environnements de coopération et collaboration. Dans le domaine de l'écologie des actions de lutte contre la désertification sont proposées à travers des pépinières d'arbres, des systèmes alternatifs de gestion de l'eau comme par exemple la pluie solide, des stratégies de mise en valeur de la production agricole, la construction de mécanismes de production d'énergie à partir de résidus, tels que les panneaux solaires ou les bouteilles en PET. Dans le domaine socio-économique, l'on propose de nouvelles formes d'action sociale et de reprise économique. Enfin, dans le domaine de l'urbain et de l'architectural, on incorpore des changements morphologiques à l'architecture existante et une relecture contemporaine de la terre, comme matériau qui permet de nouvelles géométries, en obtenant du sable pétrifié par des procédés microbiologiques et en mettant en valeur la terre comme une ressource artistique. Cette thèse n'est qu'un point de départ. Elle recueille des systèmes, des stratégies et des expériences pour servir de stimulus ou d'impulsion dynamisatrice du futur développement durable de l'oasis, en ouvrant des voies de recherche et d'expérimentation.
Resumo:
Internet está evolucionando hacia la conocida como Live Web. En esta nueva etapa en la evolución de Internet, se pone al servicio de los usuarios multitud de streams de datos sociales. Gracias a estas fuentes de datos, los usuarios han pasado de navegar por páginas web estáticas a interacturar con aplicaciones que ofrecen contenido personalizado, basada en sus preferencias. Cada usuario interactúa a diario con multiples aplicaciones que ofrecen notificaciones y alertas, en este sentido cada usuario es una fuente de eventos, y a menudo los usuarios se sienten desbordados y no son capaces de procesar toda esa información a la carta. Para lidiar con esta sobresaturación, han aparecido múltiples herramientas que automatizan las tareas más habituales, desde gestores de bandeja de entrada, gestores de alertas en redes sociales, a complejos CRMs o smart-home hubs. La contrapartida es que aunque ofrecen una solución a problemas comunes, no pueden adaptarse a las necesidades de cada usuario ofreciendo una solucion personalizada. Los Servicios de Automatización de Tareas (TAS de sus siglas en inglés) entraron en escena a partir de 2012 para dar solución a esta liminación. Dada su semejanza, estos servicios también son considerados como un nuevo enfoque en la tecnología de mash-ups pero centra en el usuarios. Los usuarios de estas plataformas tienen la capacidad de interconectar servicios, sensores y otros aparatos con connexión a internet diseñando las automatizaciones que se ajustan a sus necesidades. La propuesta ha sido ámpliamante aceptada por los usuarios. Este hecho ha propiciado multitud de plataformas que ofrecen servicios TAS entren en escena. Al ser un nuevo campo de investigación, esta tesis presenta las principales características de los TAS, describe sus componentes, e identifica las dimensiones fundamentales que los defines y permiten su clasificación. En este trabajo se acuña el termino Servicio de Automatización de Tareas (TAS) dando una descripción formal para estos servicios y sus componentes (llamados canales), y proporciona una arquitectura de referencia. De igual forma, existe una falta de herramientas para describir servicios de automatización, y las reglas de automatización. A este respecto, esta tesis propone un modelo común que se concreta en la ontología EWE (Evented WEb Ontology). Este modelo permite com parar y equiparar canales y automatizaciones de distintos TASs, constituyendo un aporte considerable paraa la portabilidad de automatizaciones de usuarios entre plataformas. De igual manera, dado el carácter semántico del modelo, permite incluir en las automatizaciones elementos de fuentes externas sobre los que razonar, como es el caso de Linked Open Data. Utilizando este modelo, se ha generado un dataset de canales y automatizaciones, con los datos obtenidos de algunos de los TAS existentes en el mercado. Como último paso hacia el lograr un modelo común para describir TAS, se ha desarrollado un algoritmo para aprender ontologías de forma automática a partir de los datos del dataset. De esta forma, se favorece el descubrimiento de nuevos canales, y se reduce el coste de mantenimiento del modelo, el cual se actualiza de forma semi-automática. En conclusión, las principales contribuciones de esta tesis son: i) describir el estado del arte en automatización de tareas y acuñar el término Servicio de Automatización de Tareas, ii) desarrollar una ontología para el modelado de los componentes de TASs y automatizaciones, iii) poblar un dataset de datos de canales y automatizaciones, usado para desarrollar un algoritmo de aprendizaje automatico de ontologías, y iv) diseñar una arquitectura de agentes para la asistencia a usuarios en la creación de automatizaciones. ABSTRACT The new stage in the evolution of the Web (the Live Web or Evented Web) puts lots of social data-streams at the service of users, who no longer browse static web pages but interact with applications that present them contextual and relevant experiences. Given that each user is a potential source of events, a typical user often gets overwhelmed. To deal with that huge amount of data, multiple automation tools have emerged, covering from simple social media managers or notification aggregators to complex CRMs or smart-home Hub/Apps. As a downside, they cannot tailor to the needs of every single user. As a natural response to this downside, Task Automation Services broke in the Internet. They may be seen as a new model of mash-up technology for combining social streams, services and connected devices from an end-user perspective: end-users are empowered to connect those stream however they want, designing the automations they need. The numbers of those platforms that appeared early on shot up, and as a consequence the amount of platforms following this approach is growing fast. Being a novel field, this thesis aims to shed light on it, presenting and exemplifying the main characteristics of Task Automation Services, describing their components, and identifying several dimensions to classify them. This thesis coins the term Task Automation Services (TAS) by providing a formal definition of them, their components (called channels), as well a TAS reference architecture. There is also a lack of tools for describing automation services and automations rules. In this regard, this thesis proposes a theoretical common model of TAS and formalizes it as the EWE ontology This model enables to compare channels and automations from different TASs, which has a high impact in interoperability; and enhances automations providing a mechanism to reason over external sources such as Linked Open Data. Based on this model, a dataset of components of TAS was built, harvesting data from the web sites of actual TASs. Going a step further towards this common model, an algorithm for categorizing them was designed, enabling their discovery across different TAS. Thus, the main contributions of the thesis are: i) surveying the state of the art on task automation and coining the term Task Automation Service; ii) providing a semantic common model for describing TAS components and automations; iii) populating a categorized dataset of TAS components, used to learn ontologies of particular domains from the TAS perspective; and iv) designing an agent architecture for assisting users in setting up automations, that is aware of their context and acts in consequence.
Resumo:
LLas nuevas tecnologías orientadas a la nube, el internet de las cosas o las tendencias "as a service" se basan en el almacenamiento y procesamiento de datos en servidores remotos. Para garantizar la seguridad en la comunicación de dichos datos al servidor remoto, y en el manejo de los mismos en dicho servidor, se hace uso de diferentes esquemas criptográficos. Tradicionalmente, dichos sistemas criptográficos se centran en encriptar los datos mientras no sea necesario procesarlos (es decir, durante la comunicación y almacenamiento de los mismos). Sin embargo, una vez es necesario procesar dichos datos encriptados (en el servidor remoto), es necesario desencriptarlos, momento en el cual un intruso en dicho servidor podría a acceder a datos sensibles de usuarios del mismo. Es más, este enfoque tradicional necesita que el servidor sea capaz de desencriptar dichos datos, teniendo que confiar en la integridad de dicho servidor de no comprometer los datos. Como posible solución a estos problemas, surgen los esquemas de encriptación homomórficos completos. Un esquema homomórfico completo no requiere desencriptar los datos para operar con ellos, sino que es capaz de realizar las operaciones sobre los datos encriptados, manteniendo un homomorfismo entre el mensaje cifrado y el mensaje plano. De esta manera, cualquier intruso en el sistema no podría robar más que textos cifrados, siendo imposible un robo de los datos sensibles sin un robo de las claves de cifrado. Sin embargo, los esquemas de encriptación homomórfica son, actualmente, drás-ticamente lentos comparados con otros esquemas de encriptación clásicos. Una op¬eración en el anillo del texto plano puede conllevar numerosas operaciones en el anillo del texto encriptado. Por esta razón, están surgiendo distintos planteamientos sobre como acelerar estos esquemas para un uso práctico. Una de las propuestas para acelerar los esquemas homomórficos consiste en el uso de High-Performance Computing (HPC) usando FPGAs (Field Programmable Gate Arrays). Una FPGA es un dispositivo semiconductor que contiene bloques de lógica cuya interconexión y funcionalidad puede ser reprogramada. Al compilar para FPGAs, se genera un circuito hardware específico para el algorithmo proporcionado, en lugar de hacer uso de instrucciones en una máquina universal, lo que supone una gran ventaja con respecto a CPUs. Las FPGAs tienen, por tanto, claras difrencias con respecto a CPUs: -Arquitectura en pipeline: permite la obtención de outputs sucesivos en tiempo constante -Posibilidad de tener multiples pipes para computación concurrente/paralela. Así, en este proyecto: -Se realizan diferentes implementaciones de esquemas homomórficos en sistemas basados en FPGAs. -Se analizan y estudian las ventajas y desventajas de los esquemas criptográficos en sistemas basados en FPGAs, comparando con proyectos relacionados. -Se comparan las implementaciones con trabajos relacionados New cloud-based technologies, the internet of things or "as a service" trends are based in data storage and processing in a remote server. In order to guarantee a secure communication and handling of data, cryptographic schemes are used. Tradi¬tionally, these cryptographic schemes focus on guaranteeing the security of data while storing and transferring it, not while operating with it. Therefore, once the server has to operate with that encrypted data, it first decrypts it, exposing unencrypted data to intruders in the server. Moreover, the whole traditional scheme is based on the assumption the server is reliable, giving it enough credentials to decipher data to process it. As a possible solution for this issues, fully homomorphic encryption(FHE) schemes is introduced. A fully homomorphic scheme does not require data decryption to operate, but rather operates over the cyphertext ring, keeping an homomorphism between the cyphertext ring and the plaintext ring. As a result, an outsider could only obtain encrypted data, making it impossible to retrieve the actual sensitive data without its associated cypher keys. However, using homomorphic encryption(HE) schemes impacts performance dras-tically, slowing it down. One operation in the plaintext space can lead to several operations in the cyphertext space. Because of this, different approaches address the problem of speeding up these schemes in order to become practical. One of these approaches consists in the use of High-Performance Computing (HPC) using FPGAs (Field Programmable Gate Array). An FPGA is an integrated circuit designed to be configured by a customer or a designer after manufacturing - hence "field-programmable". Compiling into FPGA means generating a circuit (hardware) specific for that algorithm, instead of having an universal machine and generating a set of machine instructions. FPGAs have, thus, clear differences compared to CPUs: - Pipeline architecture, which allows obtaining successive outputs in constant time. -Possibility of having multiple pipes for concurrent/parallel computation. Thereby, In this project: -We present different implementations of FHE schemes in FPGA-based systems. -We analyse and study advantages and drawbacks of the implemented FHE schemes, compared to related work.
Resumo:
Archaea contain histones that have primary sequences in common with eukaryal nucleosome core histones and a three-dimensional structure that is essentially only the histone fold. Here we report the results of experiments that document that archaeal histones compact DNA in vivo into structures similar to the structure formed by the histone (H3+H4)2 tetramer at the center of the eukaryal nucleosome. After formaldehyde cross-linking in vivo, these archaeal nucleosomes have been isolated from Methanobacterium thermoautotrophicum and Methanothermus fervidus, visualized by electron microscopy on plasmid and genomic DNAs, and shown by immunogold labeling, SDS/PAGE, and immunoblotting to contain archaeal histones, cross-linked into tetramers. Archaeal nucleosomes protect ≈60 bp of DNA and multiples of ≈60 bp from micrococcal nuclease digestion, and immunoprecipitation has demonstrated that most, but not all, M. fervidus genomic DNA sequences are associated in vivo with archaeal histones.
Resumo:
The τ and γ subunits of DNA polymerase III are both encoded by a single gene in Escherichia coli and Thermus thermophilus. γ is two-thirds the size of τ and shares virtually all its amino acid sequence with τ. E. coli and T. thermophilus have evolved very different mechanisms for setting the approximate 1:1 ratio between τ and γ. Both mechanisms put ribosomes into alternate reading frames so that stop codons in the new frame serve to make the smaller γ protein. In E. coli, ≈50% of initiating ribosomes translate the dnaX mRNA conventionally to give τ, but the other 50% shift into the −1 reading frame at a specific site (A AAA AAG) in the mRNA to produce γ. In T. thermophilus ribosomal frameshifting is not required: the dnaX mRNA is a heterogeneous population of molecules with different numbers of A residues arising from transcriptional slippage on a run of nine T residues in the DNA template. Translation of the subpopulation containing nine As (or +/− multiples of three As) yields τ. The rest of the population of mRNAs (containing nine +/− nonmultiples of three As) puts ribosomes into the alternate reading frames to produce the γ protein(s). It is surprising that two rather similar dnaX sequences in E. coli and T. thermophilus lead to very different mechanisms of expression.
Resumo:
We report the study of the dynamics of the unbinding process under a force load f of adsorbed proteins (fibrinogen) on a solid surface (hydrophilic silica) by means of atomic force microscopy spectroscopy. By varying the loading rate rf, defined by f = rf t, t being the time, we find that, as for specific interactions, the mean rupture force increases with rf. This unbinding process is analyzed in the framework of the widely used Bell model. The typical dissociation rate at zero force entering in the model lies between 0.02 and 0.6 s−1. Each measured rupture is characterized by a force f0, which appears to be quantized in integer multiples of 180–200 pN.
Resumo:
Metal-catalyzed oxidation may result in structural damage to proteins and has been implicated in aging and disease, including neurological disorders such as Alzheimer's disease and amyotrophic lateral sclerosis. The selective modification of specific amino acid residues with high metal ion affinity leads to subtle structural changes that are not easy to detect but may have dramatic consequences on physical and functional properties of the oxidized protein molecules. PrP contains a histidine-rich octarepeat domain that binds copper. Because copper-binding histidine residues are particularly prone to metal-catalyzed oxidation, we investigated the effect of this reaction on the recombinant prion protein SHaPrP(29–231). Using Cu2+/ascorbate, we oxidized SHaPrP(29–231) in vitro. Oxidation was demonstrated by liquid chromatography/mass spectrometry, which showed the appearance of protein species of higher mass, including increases in multiples of 16, characteristic of oxygen incorporation. Digestion studies using Lys C indicate that the 29–101 region, which includes the histidine-containing octarepeats, is particularly affected by oxidation. Oxidation was time- and copper concentration-dependent and was evident with copper concentrations as low as 1 μM. Concomitant with oxidation, SHaPrP(29–231) suffered aggregation and precipitation, which was nearly complete after 15 min, when the prion protein was incubated at 37°C with a 6-fold molar excess of Cu2+. These findings indicate that PrP, a copper-binding protein, may be particularly susceptible to metal-catalyzed oxidation and that oxidation triggers an extensive structural transition leading to aggregation.
Resumo:
Clinical evidence of hematopoietic restoration with placental/umbilical cord blood (PCB) grafts indicates that PCB can be a useful source of hematopoietic stem cells for routine bone marrow reconstitution. In the unrelated setting, human leukocyte antigen (HLA)-matched donors must be obtained for candidate patients and, hence, large panels of frozen HLA-typed PCB units must be established. The large volume of unprocessed units, consisting mostly of red blood cells, plasma, and cryopreservation medium, poses a serious difficulty in this effort because storage space in liquid nitrogen is limited and costly. We report here that almost all the hematopoietic colony-forming cells present in PCB units can be recovered in a uniform volume of 20 ml by using rouleaux formation induced by hydroxyethyl starch and centrifugation to reduce the bulk of erythrocytes and plasma and, thus, concentrate leukocytes. This method multiples the number of units that can be stored in the same freezer space as much as 10-fold depending on the format of the storage system. We have also investigated the proportion of functional stem/progenitor cells initially present that are actually available to the recipient when thawed cryopreserved PCB units are infused. Progenitor cell viability is measurably decreased when thawed cells, still suspended in hypertonic cryopreservative solutions, are rapidly mixed with large volumes of isotonic solutions or plasma. The osmotic damage inflicted by the severe solute concentration gradient, however, can be averted by a simple 2-fold dilution after thawing, providing almost total recovery of viable hematopoietic progenitor cells.
Resumo:
Fundamental a vida e ao desenvolvimento de qualquer sociedade, a água é um bem precioso e limitado que está se esgotando e sendo motivo de preocupação mundial. O desperdício, a distribuição desigual, o aumento do consumo e a degradação da qualidade da água são motivos que a tornaram escassa e trouxeram à tona a importância do planejamento e gerenciamento dos recursos hídricos. Frente a esta situação, este trabalho buscou avaliar a disponibilidade hídrica quantitativa e qualitativa da bacia hidrográfica do rio Sapucaí-Mirim, SP. Através da aplicação do simulador hidrológico MIKE BASIN, foi analisado o desempenho do sistema de recursos hídricos, o conflito existente entre os usos múltiplos e a concentração dos parâmetros OD e DBO nas águas do rio que recebe efluentes domésticos, muitos deles sem nenhum tratamento. Apesar da quantidade de água ser suficiente para atender às demandas, o estudo mostra que a geração de energia elétrica está comprometida e a água está se esgotando qualitativamente, evidenciando a necessidade e urgência de se implantar estações de tratamento de esgoto.