61 resultados para Node
Resumo:
"Vegeu el resum a l'inici del document del fitxer adjunt."
Resumo:
En aquest projecte es pretén implementar un dispositiu capaç de ser auto-suficient i no dependre de cap tipus de pila, bateria o fil elèctric que l’abasteixi d’energia elèctrica. El dispositiu recol·lectarà la energia magnètica generada per la corrent elèctrica a un fil i la transformarà en energia elèctrica, que serà emmagatzemada per el seu posterior ús. A demès, aquest projecte s’ha desenvolupat en col·laboració amb un segon projecte, dintre del qual s’implementarà una xarxa de sensors, mitjançant el protocol MIWI. Aquest projecte es divideix en tres grans blocs. El primer bloc del projecte serà una introducció teòrica de tots els coneixements relacionats amb el concepte d’energy harvesting i els mecanismes físic implicats. Al segon bloc podrem veure com s’han realitzat els càlculs, simulacions i posada en marxa, dels diferents elements que formaran el dispositiu recol·lector d’energia. Per últim en el tercer bloc veurem el prototip ja implementat. Es valoraran els resultats obtinguts, i es veuran els temps que necessitarà per alimentar al microcontrolador.
Resumo:
The enzyme HMG-CoA reductase (HMGR) has a key regulatory role in the mevalonate pathway for isoprenoid biosynthesis, critical not only for normal plant development, but also for the adaptation to demanding environmental conditions. Consistent with this notion, plant HMGR is modulated by many diverse endogenous signals and external stimuli. Protein phosphatase 2A (PP2A) is involved in auxin, abscisic acid, ethylene and brassinosteroid signaling and now emerges as a positive and negative multilevel regulator of plant HMGR, both during normal growth and in response to a variety of stress conditions. The interaction with HMGR is mediated by B" regulatory subunits of PP2A, which are also calcium binding proteins. The new discoveries uncover the potential of PP2A to integrate developmental and calcium-mediated environmental signals in the control of plant HMGR.
Resumo:
We describe a method for determining the minimal length of elements in the generalized Thompson's groups F(p). We compute the length of an element by constructing a tree pair diagram for the element, classifying the nodes of the tree and summing associated weights from the pairs of node classifications. We use this method to effectively find minimal length representatives of an element.
Resumo:
In this paper, we present a first approach to evolve a cooperative behavior in ad hoc networks. Since wireless nodes are energy constrained, it may not be in the best interest of a node to always accept relay requests. On the other hand, if all nodes decide not to expend energy in relaying, then network throughput will drop dramatically. Both these extreme scenarios are unfavorable to the interests of a user. In this paper we deal with the issue of user cooperation in ad hoc networks by developing the algorithm called Generous Tit-For-Tat. We assume that nodes are rational, i.e., their actions are strictly determined by self-interest, and that each node is associated with a minimum lifetime constraint. Given these lifetime constraints and the assumption of rational behavior, we study the added behavior of the network.
Resumo:
Report for the scientific sojourn at the Department of Information Technology (INTEC) at the Ghent University, Belgium, from january to june 2007. All-Optical Label Swapping (AOLS) forms a key technology towards the implementation of All-Optical Packet Switching nodes (AOPS) for the future optical Internet. The capital expenditures of the deployment of AOLS increases with the size of the label spaces (i.e. the number of used labels), since a special optical device is needed for each recognized label on every node. Label space sizes are affected by the wayin which demands are routed. For instance, while shortest-path routing leads to the usage of fewer labels but high link utilization, minimum interference routing leads to the opposite. This project studies and proposes All-Optical Label Stacking (AOLStack), which is an extension of the AOLS architecture. AOLStack aims at reducing label spaces while easing the compromise with link utilization. In this project, an Integer Lineal Program is proposed with the objective of analyzing the softening of the aforementioned trade-off due to AOLStack. Furthermore, a heuristic aiming at finding good solutions in polynomial-time is proposed as well. Simulation results show that AOLStack either a) reduces the label spaces with a low increase in the link utilization or, similarly, b) uses better the residual bandwidth to decrease the number of labels even more.
Resumo:
El uso intensivo y prolongado de computadores de altas prestaciones para ejecutar aplicaciones computacionalmente intensivas, sumado al elevado número de elementos que los componen, incrementan drásticamente la probabilidad de ocurrencia de fallos durante su funcionamiento. El objetivo del trabajo es resolver el problema de tolerancia a fallos para redes de interconexión de altas prestaciones, partiendo del diseño de políticas de encaminamiento tolerantes a fallos. Buscamos resolver una determinada cantidad de fallos de enlaces y nodos, considerando sus factores de impacto y probabilidad de aparición. Para ello aprovechamos la redundancia de caminos de comunicación existentes, partiendo desde enfoques de encaminamiento adaptativos capaces de cumplir con las cuatro fases de la tolerancia a fallos: detección del error, contención del daño, recuperación del error, y tratamiento del fallo y continuidad del servicio. La experimentación muestra una degradación de prestaciones menor al 5%. En el futuro, se tratará la pérdida de información en tránsito.
Resumo:
Estudi sobre la cooperació entre els nodes que formen una xarxa mòbil ad hoc, analitzant la distància entre aquests per conèixer la capacitat de transmissió d’informació entre el node origen i el node destí.
Resumo:
En termes de temps d'execució i ús de dades, les aplicacions paral·leles/distribuïdes poden tenir execucions variables, fins i tot quan s'empra el mateix conjunt de dades d'entrada. Existeixen certs aspectes de rendiment relacionats amb l'entorn que poden afectar dinàmicament el comportament de l'aplicació, tals com: la capacitat de la memòria, latència de la xarxa, el nombre de nodes, l'heterogeneïtat dels nodes, entre d'altres. És important considerar que l'aplicació pot executar-se en diferents configuracions de maquinari i el desenvolupador d'aplicacions no port garantir que els ajustaments de rendiment per a un sistema en particular continuïn essent vàlids per a d'altres configuracions. L'anàlisi dinàmica de les aplicacions ha demostrat ser el millor enfocament per a l'anàlisi del rendiment per dues raons principals. En primer lloc, ofereix una solució molt còmoda des del punt de vista dels desenvolupadors mentre que aquests dissenyen i evaluen les seves aplicacions paral·leles. En segon lloc, perquè s'adapta millor a l'aplicació durant l'execució. Aquest enfocament no requereix la intervenció de desenvolupadors o fins i tot l'accés al codi font de l'aplicació. S'analitza l'aplicació en temps real d'execució i es considra i analitza la recerca dels possibles colls d'ampolla i optimitzacions. Per a optimitzar l'execució de l'aplicació bioinformàtica mpiBLAST, vam analitzar el seu comportament per a identificar els paràmetres que intervenen en el rendiment d'ella, com ara: l'ús de la memòria, l'ús de la xarxa, patrons d'E/S, el sistema de fitxers emprat, l'arquitectura del processador, la grandària de la base de dades biològica, la grandària de la seqüència de consulta, la distribució de les seqüències dintre d'elles, el nombre de fragments de la base de dades i/o la granularitat dels treballs assignats a cada procés. El nostre objectiu és determinar quins d'aquests paràmetres tenen major impacte en el rendiment de les aplicacions i com ajustar-los dinàmicament per a millorar el rendiment de l'aplicació. Analitzant el rendiment de l'aplicació mpiBLAST hem trobat un conjunt de dades que identifiquen cert nivell de serial·lització dintre l'execució. Reconeixent l'impacte de la caracterització de les seqüències dintre de les diferents bases de dades i una relació entre la capacitat dels workers i la granularitat de la càrrega de treball actual, aquestes podrien ser sintonitzades dinàmicament. Altres millores també inclouen optimitzacions relacionades amb el sistema de fitxers paral·lel i la possibilitat d'execució en múltiples multinucli. La grandària de gra de treball està influenciat per factors com el tipus de base de dades, la grandària de la base de dades, i la relació entre grandària de la càrrega de treball i la capacitat dels treballadors.
Resumo:
L’accent nuclear ascendent-descendent de les oracions expressant desacord en occità consta de tres tons: LH+L*. En comptes de precedir el to asterisc (“starred tone”) a un interval fix en temps normalitzat (Pierrehumbert & Beckman 1989), els tons menadors (“leading tones”) L i H s’alineen amb determinats punts d’ancoratge de la cadena de segments: les fronteres dreta i esquerra de la síl•laba pretònica, respectivament. El model de Grice (1995b) per a l’estructura dels accents tonals permet donar compte d’aquest patró d’alineació incloent els tons menadors en un node diferent que precedeix el que domina to seguidor (“trailing tone”) i to asterisc.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
Nowadays, service providers in the Cloud offer complex services ready to be used as it was a commodity like water or electricity to their customers with any other extra effort for them. However, providing these services implies a high management effort which requires a lot of human interaction. Furthermore, an efficient resource management mechanism considering only provider's resources is, though necessary, not enough, because the provider's profit is limited by the amount of resources it owns. Dynamically outsourcing resources to other providers in response to demand variation avoids this problem and makes the provider to get more profit. A key technology for achieving these goals is virtualization which facilitates provider's management and provides on-demand virtual environments, which are isolated and consolidated in order to achieve a better utilization of the provider's resources. Nevertheless, dealing with some virtualization capabilities implies an effort for the user in order to take benefit from them. In order to avoid this problem, we are contributing the research community with a virtualized environment manager which aims to provide virtual machines that fulfils with the user requirements. Another challenge is sharing resources among different federated Cloud providers while exploiting the features of virtualization in a new approach for facilitating providers' management. This project aims for reducing provider's costs and at the same time fulfilling the quality of service agreed with the customers while maximizing the provider's revenue. It considers resource management at several layers, namely locally to each node in the provider, among different nodes in the provider, and among different federated providers. This latter layer supports the novel capabilities of outsourcing when the local resources are not enough to fulfil the users demand, and offering resources to other providers when the local resources are underused.
Resumo:
En el nostre projecte, considerem un escenari urbà o interurbà on persones amb dispositius mòbils (smartphones) o vehicles equipats amb interfícies de comunicació, estan interessats en compartir fitxers entre ells o descarregar-los al creuar Punts d’Accés (APs) propers a la carretera. Estudiem la possibilitat d’utilizar la cooperació en les trobades casuals entre nodes per augmentar la velocitat de descàrrega global. Amb aquest objectiu, plantejem algoritmes per a la selecció de quins paquets, per a quins destins i quins transportistes s’escullen en cada moment. Mitjançant extenses simulacions, mostrem com les cooperacions carry&forward dels nodes augmenten significativament la velocitat de descàrrega dels usuaris, i com aquest resultat es manté per a diversos patrons de mobilitat, col•locacions d'AP i càrregues de la xarxa. Per altra banda, aparells com els smartphones, on la targeta de WiFi està encesa contínuament, consumeixen l'energia de la bateria en poques hores. En molts escenaris, una targeta WiFi sempre activa és poc útil, perque sovint no hi ha necessitat de transmissió o recepció. Aquest fet es veu agreujat en les Delay Tolerant Networks (DTN), on els nodes intercanvien dades quan es creuen i en tenen l’oportunitat. Les tècniques de gestió de l’estalvi d’energia permeten extendre la duració de les bateries. El nostre projecte analitza els avantatges i inconvenients que apareixen quan els nodes apaguen períodicament la seva targeta wireless per a estalviar energia en escenaris DTN. Els nostres resultats mostren les condicions en que un node pot desconnectar la bateria sense afectar la probabilitat de contacte amb altres nodes, i les condicions en que aquesta disminueix. Per exemple, es demostra que la vida del node pot ser duplicada mantenint la probabilitat de contacte a 1. I que aquesta disminueix ràpidament en intentar augmentar més la vida útil.
Resumo:
La función de la aplicación Sky Net (un sistema de control de versiones y sincronización de documentos on-line) será la de ofrecer un conjunto de herramientas capaces de establecer una comunicación cliente-servidor de forma transparente utilizando carpetas del disco duro. De esta forma el usuario final podrá tener todos sus documentos guardados en un servidor, poderlos recuperar en el momento que se desee, y tener los mismos documentos en todas las estaciones de trabajo que estén conectadas a la aplicación. Además se le añade una función de control de versiones que permitirá guardar el contenido de una carpeta bajo un identificador (nombre o versión), y poderlo recuperar más adelante aunque ya hayamos hecho modificaciones en los documentos de dicha carpeta. El proyecto se compone de dos aplicaciones: Sky Catcher, la aplicación cliente, y Sky Node, la aplicación servidor.
Resumo:
Grid is a hardware and software infrastructure that provides dependable, consistent, pervasive, and inexpensive access to high-end computational resources. Grid enables access to the resources but it does not guarantee any quality of service. Moreover, Grid does not provide performance isolation; job of one user can influence the performance of other user’s job. The other problem with Grid is that the users of Grid belong to scientific community and the jobs require specific and customized software environment. Providing the perfect environment to the user is very difficult in Grid for its dispersed and heterogeneous nature. Though, Cloud computing provide full customization and control, but there is no simple procedure available to submit user jobs as in Grid. The Grid computing can provide customized resources and performance to the user using virtualization. A virtual machine can join the Grid as an execution node. The virtual machine can also be submitted as a job with user jobs inside. Where the first method gives quality of service and performance isolation, the second method also provides customization and administration in addition. In this thesis, a solution is proposed to enable virtual machine reuse which will provide performance isolation with customization and administration. The same virtual machine can be used for several jobs. In the proposed solution customized virtual machines join the Grid pool on user request. Proposed solution describes two scenarios to achieve this goal. In first scenario, user submits their customized virtual machine as a job. The virtual machine joins the Grid pool when it is powered on. In the second scenario, user customized virtual machines are preconfigured in the execution system. These virtual machines join the Grid pool on user request. Condor and VMware server is used to deploy and test the scenarios. Condor supports virtual machine jobs. The scenario 1 is deployed using Condor VM universe. The second scenario uses VMware-VIX API for scripting powering on and powering off of the remote virtual machines. The experimental results shows that as scenario 2 does not need to transfer the virtual machine image, the virtual machine image becomes live on pool more faster. In scenario 1, the virtual machine runs as a condor job, so it easy to administrate the virtual machine. The only pitfall in scenario 1 is the network traffic.