25 resultados para control over life

em Universidad Politécnica de Madrid


Relevância:

90.00% 90.00%

Publicador:

Resumo:

We investigated the preparation of single domain Ge(100):As surfaces in a metal-organic vapor phase epitaxy reactor. In situ reflection anisotropy spectra (RAS) of vicinal substrates change when arsenic is supplied either by tertiarybutylarsine or by background As4 during annealing. Low energy electron diffraction shows mutually perpendicular orientations of dimers, scanning tunneling microscopy reveals distinct differences in the step structure, and x-ray photoelectron spectroscopy confirms differences in the As coverage of the Ge(100): As samples. Their RAS signals consist of contributions related to As dimer orientation and to step structure, enabling precise in situ control over preparation of single domain Ge(100): As surfaces.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La presente Tesis está orientada al análisis de la supervisión multidistribuida de tres procesos agroalimentarios: el secado solar, el transporte refrigerado y la fermentación de café, a través de la información obtenida de diferentes dispositivos de adquisición de datos, que incorporan sensores, así como el desarrollo de metodologías de análisis de series temporales, modelos y herramientas de control de procesos para la ayuda a la toma de decisiones en las operaciones de estos entornos. En esta tesis se han utilizado: tarjetas RFID (TemTrip®) con sistema de comunicación por radiofrecuencia y sensor de temperatura; el registrador (i-Button®), con sensor integrado de temperatura y humedad relativa y un tercer prototipo empresarial, módulo de comunicación inalámbrico Nlaza, que integra un sensor de temperatura y humedad relativa Sensirion®. Estos dispositivos se han empleado en la conformación de redes multidistribuidas de sensores para la supervisión de: A) Transportes de producto hortofrutícola realizados en condiciones comerciales reales, que son: dos transportes terrestre de producto de IV gama desde Murcia a Madrid; transporte multimodal (barco-barco) de limones desde Montevideo (Uruguay) a Cartagena (España) y transporte multimodal (barco-camión) desde Montevideo (Uruguay) a Verona (Italia). B) dos fermentaciones de café realizadas en Popayán (Colombia) en un beneficiadero. Estas redes han permitido registrar la dinámica espacio-temporal de temperaturas y humedad relativa de los procesos estudiados. En estos procesos de transporte refrigerado y fermentación la aplicación de herramientas de visualización de datos y análisis de conglomerados, han permitido identificar grupos de sensores que presentan patrones análogos de sus series temporales, caracterizando así zonas con dinámicas similares y significativamente diferentes del resto y permitiendo definir redes de sensores de menor densidad cubriendo las diferentes zonas identificadas. Las metodologías de análisis complejo de las series espacio-temporales (modelos psicrométricos, espacio de fases bidimensional e interpolaciones espaciales) permitieron la cuantificación de la variabilidad del proceso supervisado tanto desde el punto de vista dinámico como espacial así como la identificación de eventos. Constituyendo así herramientas adicionales de ayuda a la toma de decisiones en el control de los procesos. Siendo especialmente novedosa la aplicación de la representación bidimensional de los espacios de fases en el estudio de las series espacio-temporales de variables ambientales en aplicaciones agroalimentarias, aproximación que no se había realizado hasta el momento. En esta tesis también se ha querido mostrar el potencial de un sistema de control basado en el conocimiento experto como es el sistema de lógica difusa. Se han desarrollado en primer lugar, los modelos de estimación del contenido en humedad y las reglas semánticas que dirigen el proceso de control, el mejor modelo se ha seleccionado mediante un ensayo de secado realizado sobre bolas de hidrogel como modelo alimentario y finalmente el modelo se ha validado mediante un ensayo en el que se deshidrataban láminas de zanahoria. Los resultados sugirieron que el sistema de control desarrollado, es capaz de hacer frente a dificultades como las variaciones de temperatura día y noche, consiguiendo un producto con buenas características de calidad comparables a las conseguidas sin aplicar ningún control sobre la operación y disminuyendo así el consumo energético en un 98% con respecto al mismo proceso sin control. La instrumentación y las metodologías de análisis de datos implementadas en esta Tesis se han mostrado suficientemente versátiles y transversales para ser aplicadas a diversos procesos agroalimentarios en los que la temperatura y la humedad relativa sean criterios de control en dichos procesos, teniendo una aplicabilidad directa en el sector industrial ABSTRACT This thesis is focused on the analysis of multi-distributed supervision of three agri-food processes: solar drying, refrigerated transport and coffee fermentation, through the information obtained from different data acquisition devices with incorporated sensors, as well as the development of methodologies for analyzing temporary series, models and tools to control processes in order to help in the decision making in the operations within these environments. For this thesis the following has been used: RFID tags (TemTrip®) with a Radiofrequency ID communication system and a temperature sensor; the recorder (i-Button®), with an integrated temperature and relative humidity and a third corporate prototype, a wireless communication module Nlaza, which has an integrated temperature and relative humidity sensor, Sensirion®. These devices have been used in creating three multi-distributed networks of sensors for monitoring: A) Transport of fruits and vegetables made in real commercial conditions, which are: two land trips of IV range products from Murcia to Madrid; multimodal transport (ship - ship) of lemons from Montevideo (Uruguay) to Cartagena (Spain) and multimodal transport (ship - truck) from Montevideo (Uruguay) to Verona (Italy). B) Two coffee fermentations made in Popayan (Colombia) in a coffee processing plant. These networks have allowed recording the time space dynamics of temperatures and relative humidity of the processed under study. Within these refrigerated transport and fermentation processes, the application of data display and cluster analysis tools have allowed identifying sensor groups showing analogical patterns of their temporary series; thus, featuring areas with similar and significantly different dynamics from the others and enabling the definition of lower density sensor networks covering the different identified areas. The complex analysis methodologies of the time space series (psychrometric models, bi-dimensional phase space and spatial interpolation) allowed quantifying the process variability of the supervised process both from the dynamic and spatial points of view; as well as the identification of events. Thus, building additional tools to aid decision-making on process control brought the innovative application of the bi-dimensional representation of phase spaces in the study of time-space series of environmental variables in agri-food applications, an approach that had not been taken before. This thesis also wanted to show the potential of a control system based on specialized knowledge such as the fuzzy logic system. Firstly, moisture content estimation models and semantic rules directing the control process have been developed, the best model has been selected by an drying assay performed on hydrogel beads as food model; and finally the model has been validated through an assay in which carrot sheets were dehydrated. The results suggested that the control system developed is able to cope with difficulties such as changes in temperature daytime and nighttime, getting a product with good quality features comparable to those features achieved without applying any control over the operation and thus decreasing consumption energy by 98% compared to the same uncontrolled process. Instrumentation and data analysis methodologies implemented in this thesis have proved sufficiently versatile and cross-cutting to apply to several agri-food processes in which the temperature and relative humidity are the control criteria in those processes, having a direct effect on the industry sector.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La acuicultura, el cultivo y cría de animales y plantas acuáticas, representa en la actualidad una fuente esencial de proteína animal y vegetal altamente saludable y nutritiva, proporcionando un sistema de vida y de ingresos en todo el mundo. La acuicultura además de ser un motor para el desarrollo social y económico de las áreas costeras marinas y fluviales mundiales, supone en muchas regiones subdesarrolladas una garantía de alimento de alta calidad y es clave en la seguridad alimentaria de sus poblaciones. El desarrollo de la acuicultura se ha realizado fundamentalmente en los últimos 50 años, y ha sido sobre todo en la década de los años 80, cuando la acuicultura ha experimentado un fuerte crecimiento con tasas anuales que superan el 6%. Con el estancamiento de la producción pesquera y el incremento de la población mundial, la acuicultura se presenta como la única fuente posible de suministro de proteínas (vegetales y animales) de alta calidad, ricas en aceites omega 3 (EPA y DHA) de origen acuático. En la actualidad la producción procedente de la acuicultura supera los 95 millones de toneladas anuales, siendo ligeramente superior a los 94 millones de toneladas anuales provenientes de la pesca extractiva. De este total mundial acuícola, la producción asiática representa el 89%, mientras que la europea el 4,2% Aunque el 46% de la producción mundial acuícola se concentra únicamente en solo 10 especies, una de las principales características de la acuicultura es la gran diversidad de especies cultivadas, más de 500, realizándose su cría bajo diferentes tecnologías y sistemas productivos. El ámbito de esta tesis, es únicamente la acuicultura marina que se desarrolla en las aguas del mar mediterráneo, indistintamente de los sistemas y tecnología de producción utilizados. Los principales grupos de cultivo que se realizan en las aguas del Mediterráneo son los moluscos y los peces, siendo muy escasos los cultivos de otros grupos como crustáceos y macroalgas. La piscicultura marina mediterránea está dominada por el cultivo en jaulas flotantes de dos especies, la dorada (Sparus auratus) y la lubina (Dicentrarchus labrax). Estas dos especies y tras 30 años de experiencia de cultivo, mantienen todavía una ineficiencia productiva alta (reducida selección genética, lento crecimiento hasta talla comercial, alto factor de conversón del pienso…) y además ocupan un estrecho nicho de mercado, ya que prácticamente toda la comercialización de la dorada y lubina se realiza en fresco y sin elaborar ni transformar, a una talla media de 500 g. Para dar respuesta desde la acuicultura mediterránea al alto consumo y a la creciente demanda que en la Unión Europea existe de los productos acuícolas, y en especial los productos elaborados y transformados, es necesario de manera urgente, un aumento de la producción de las especies ya cultivadas (dorada y lubina) mediante la mejora de su eficiencia productiva, al mismo tiempo que se debe iniciar la producción industrial de nuevas especies piscícolas, mediante la diversificación de los cultivos. Para llevar a cabo esta diversificación, se hace necesario el establecimiento de una metodología clara, que asegure una selección de especies apropiadas y rentables para la industria acuícola mediterránea, cuyo cultivo sostenible debiera cumplir con los desafíos que el sector tiene. Nuevas especies que complementen y cubran las demandas actuales y futuras del mercado Europeo e Internacional de productos acuícolas. Nuevas especies con parámetros productivos eficientes, que garanticen unos costes productivos competitivos. Nuevas especies que puedan ser cultivadas utilizando como base la tecnología de producción ya existente en el sector. El objetivo de esta tesis es la definición y desarrollo de una metodología sencilla para la selección de nuevas especies piscícolas marinas para su cultivo eficiente y sostenible Y bajo la aplicación de esta metodología, la selección de un grupo de especies piscícolas para su cultivo rentable a corto y medio plazo (6-8 años) en el Mediterráneo. Para ello se ha definido y aplicado una metodología con la que se han evaluado diez especies candidatas, previamente escogidas de una serie de listas previas originadas en los distintos estudios y trabajos de diversificación realizados con anterioridad por otros equipos de investigación. Estas especies candidatas han sido: Seriola dumerili. (Seriola) , Argyrosomus regius (Corvina), Polyprion americanus (Cherna), Ephinephelus marginatus (Mero), Dentex dentex (Dentón), Pagrus pagrus (Pargo), Solea senegalensis (Lenguado del Senegal), Thunnus thynnus (Atún rojo), Mugil cephalus (Lisa), Coryphaena hippurus (Lampuga). El conjunto de estas especies ocupa un amplio y variado espectro dentro de las distintas áreas de mercado, productiva, tecnológica, y medioambiental . Y en todas ellas existe una experiencia mínima en sus diferentes fases de cultivo. En el desarrollo de la metodología de selección, en esta tesis se han definido diversos parámetros de evaluación, considerados como los más significativos y sencillos de aplicar. Los parámetros se han agrupado en tres bloques, el comercial, el productivo y el medioambiental. El Bloque de Mercado, comprende aquellos criterios que están relacionados con la comercialización de la especie. Calidad de la carne del pescado. Competencia con otras especies en el mercado. Potencial de Transformado. Precio de venta del pescado. El bloque Medioambiental incluye criterios del grado de idoneidad de la especie en la región y del grado de impacto ambiental de su cultivo. Rango de temperaturas del agua óptimo para el cultivo. Potencial impacto ambiental de su cultivo. Eslabón trófico de la especie.. El bloque Productivo, engloba los criterios y parámetros relacionados con el nivel de conocimiento y control que sobre su cultivo existen ( larvario, engorde, tecnología) Grado de control de la fase larvaria. Disponibilidad de alevines en el sector Crecimiento. Factor de conversión Aprovechamiento de la capacidad productiva instalada, Coste de inversión. Previa a la evaluación se han descrito las principales características de las especies candidatas en función del estado y experiencia actual sus cultivos. En la aplicación de estos criterios se han establecido matrices de evaluación y a cada criterio se le ha asignado un valor diferente en función de sus características y propiedades selectivas. Los resultados obtenidos mediante la aplicación de la metodología de evaluación propuesta, han señalado la seriola y la corvina como especies más recomendadas para su puesta en cultivo en el Mediterráneo a corto y medio plazo. Las otras dos especies seleccionadas han sido la lisa y la lampuga. Como conclusión final podemos señalar que el cultivo de nuevas especies es fundamentalmente para el desarrollo sostenible de la acuicultura mediterránea. Esta diversificación debe basarse en la aplicación de una metodología sencilla y práctica, que garantice una selección de especies cuyo cultivo sea rentable y abarquen nuevos segmentos de mercado. ABSTRACT Aquaculture, the cultivation and breeding of aquatic animals and plants, currently represents an essential source of highly nutritious and healthy protein that provides a way of life and income all over the world. Apart from being a social and economic driver in coastal and marine areas, it also entails a guaranteed high quality nourishment in many undeveloped areas being key to the alimentary safety of their population. Aquaculture has developed mainly in the last 50 years and experienced a high growth especially during the Eighties when the annual rates were above 6%. With fishing production stagnating and the global population increasing, aquaculture emerges as the only possible animal and vegetable protein source of aquatic origin, high in quality and omega 3 oils (EPA and DHA). Here and now, aquaculture production is over 95 million tons per year, which is slightly higher than the 94 million tons per year that come from extractive fisheries. From this aquaculture total, Asiatic production represents 89% while Europe´s is only 4.2%. Even though 46% of the global aquaculture production focuses just on 10 species, one of the main characteristics of aquaculture is the wide diversity of cultivated species –over 500– using different technologies and production systems. This PhD’s scope is only marine aquaculture in Mediterranean water, regardless of the technology or systems used. The main crop groups in the Mediterranean sea are molluscs and finfish, while crustacean and macroalgae cultivations are very limited. Mediterranean fish culture is dominated by the cultivation in floating cages of two species: Bream (Sparus auratus) and Bass (Dicentrarchus labrax). After 30 years of farming, these two species still keep a high productive inefficiency –reduced genetic selection, slow growth to marketable size, high feed conversion rate– and fill a narrow niche market as practically all bream and bass is sold fresh and whole, unprocessed and untransformed, with an average size of 500 grams. To meet the high consumption and growing demand of aquaculture products, in the European Union (especially those prepared and transformed), Mediterranean aquaculture needs to urgently increase the production of the species already under cultivation (Bass and Bream) by means of improving its productive efficiency and at the same time begin initiating industrial production of new species by diversifying the cultivation. To carry out this diversification it is necessary to establish a clear methodology that ensures the selection of adapted and profitable species for the Mediterranean aquaculture industry. The sustainable farming of these new species needs to meet the challenges this sector faces: New species that complement and meet the current and future needs of the European and International markets for aquaculture products. New species with efficient production parameters that ensure competitive production costs. New species that can be cultivated using already existing production technologies. The aim of this PhD is to define and develop a simple methodology for the selection of new marine fish species for their efficient and sustainable cultivation. And by applying this methodology, to select a group of fish species for its profitable crop in the short and medium term (6-8 years) in the Mediterranean. For this, a methodology has been defined and applied evaluating ten candidate species selected from a series of lists originated from different studies and from diversification works previously conducted by other research teams. These candidate species are: Seriola dumerili. (Greater amberjack), Argyrosomus regius (Meagre), Polyprion americanus (Wreckfish), Ephinephelus marginatus (Dusky grouper), Dentex dentex (Common dentex), Pagrus pagrus (Red porgy), Solea senegalensis (Senegal sole), Thunnus thynnus (Bluefin tuna), Mugil cephalus (Grey mullet), Coryphaena hippurus (Dolphinfish). All these species occupy a broad and varied spectrum within different productive, technological and environmental market areas. There is minimal experience in their different stages of cultivation for all of them. While developing the selection methodology several evaluation parameters have been defined in this PhD, considered the most significant and simple to apply. The parameters are grouped in three blocks: commercial, productivity and environmental. Market block comprises criteria related to the marketing of the species. Quality of the fish meatCompetition with other species in the marketTransformation potentialFish selling price Environment block includes criteria related to the degree of suitability of the species in the region and the degree of environmental impact of their cultivation. Optimal water temperature range for cultivationPotential environmental impact of their cultivationTrophic chain level. Productivity block includes criteria and parameters related to the level of knowledge and control over their cultivation (larval, ongrowing, technology) Degree of control of the larval stageAvailability of alevin in the sector GrowthFeed conversion rate. Exploitation of installed capacityInvestment cost Prior to the evaluation, the main characteristics of the candidate species have been described based on the current status and experience of their cultivations. When applying these criteria evaluation matrices have been established assigning to each criteria a different value depending on their characteristics and selective properties. The results obtained by applying the proposed assessment methodology have identified the Greater Amberjack and Meagre as the most recommended species for farming in the Mediterranean in the short and medium term. The other two selected species were the Grey Mullet and the Dolphinfish. In conclusion, the cultivation of new species is crucial for the sustainable development of Mediterranean aquaculture. This diversification has to be based on the application of a simple and practical methodology that guarantees a selection of species whose cultivation is profitable and covers new market segments.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este proyecto fin de carrera trata de mejorar los sistemas actuales de control en la visualización de diapositivas. La solución adoptada constará de un sistema con modelo cliente-servidor. El servidor formado por un mini ordenador, en este caso una Raspberry Pi, que estará conectado al proyector de video. Este servidor se mantendrá a la espera de recibir una conexión entrante vía Bluetooth. Una vez se realice la conexión interpretará los comandos mandados por el cliente a través de una API con formato JSON y realizará las acciones indicadas para el control de la presentación. El cliente será una aplicación móvil para dispositivos Android. A través de ella el profesor accederá al servidor escaneando un código QR que será proyectado y una vez conectado enviará los comandos de control de la presentación, tales como abrir una presentación, avanzar y retroceder diapositiva, etc. La solución final deberá ser eficiente, sencilla de utilizar y con un bajo coste para resultar atractiva y ser así útil en el mundo real. Para ello se contará con valores añadidos como el poder iniciar la presentación desde el dispositivo móvil, el mostrar las notas de la diapositiva actual o contar con un temporizador para permitir un mejor control sobre el tiempo disponible para la presentación. ABSTRACT. This final project pursues the improvement of the current presentation control systems. The solution it provides is based on a server-client architecture. The server will be a mini PC, a Raspberry Pi model in this case, that will be connected to a video projector or a screen monitor. This server will remain idle waiting for an incoming Bluetooth connection. Once the connection is accepted the server will parse the commands sent by the client through a JSON API and will execute them accordingly to control the system. The client we decided to develop is an Android application. The speaker will be able to connect with the server by scanning a QR code that will be generated and displayed into the projector or screen monitor. Once the connection is accepted the client will sent the commands to control the slides, such as opening a presentation, move forward and backwards, etc. The adopted solution must be efficient, easy to use and with low cost to be appealing and useful to the real world. To accomplish the task this project will count with improvements over the current systems, such as the possibility to open a presentation from the smartphone, the visualization of the current slide notes from the mobile phone and a countdown timer to have a better control over the available time for the presentation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Accurate control over the spent nuclear fuel content is essential for its safe and optimized transportation, storage and management. Consequently, the reactivity of spent fuel and its isotopic content must be accurately determined. Nowadays, to predict isotopic evolution throughout irradiation and decay periods is not a problem thanks to the development of powerful codes and methodologies. In order to have a realistic confidence level in the prediction of spent fuel isotopic content, it is desirable to determine how uncertainties in the basic nuclear data affect isotopic prediction calculations by quantifying their associated uncertainties

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Accurate control over the spent nuclear fuel content is essential for its safe and optimized transportation, storage and management. Consequently, the reactivity of spent fuel and its isotopic content must be accurately determined.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A novel time integration scheme is presented for the numerical solution of the dynamics of discrete systems consisting of point masses and thermo-visco-elastic springs. Even considering fully coupled constitutive laws for the elements, the obtained solutions strictly preserve the two laws of thermo dynamics and the symmetries of the continuum evolution equations. Moreover, the unconditional control over the energy and the entropy growth have the effect of stabilizing the numerical solution, allowing the use of larger time steps than those suitable for comparable implicit algorithms. Proofs for these claims are provided in the article as well as numerical examples that illustrate the performance of the method.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The development of high efficiency laser diodes (LD) and light emitting diodes (LED) covering the 1.0 to 1.55 μm region of the spectra using GaAs heteroepitaxy has been long pursued. Due to the lack of materials that can be grown lattice-macthed to GaAs with bandgaps in the 1.0 to 1.55 μm region, quantum wells (QW) or quantum dots (QD) need be used. The most successful approach with QWs has been to use InGaAs, but one needs to add another element, such as N, to be able to reach 1.3/1.5μm. Even though LDs have been successfully demonstrated with the QW approach, using N leads to problems with compositional homogeneity across the wafer, and limited efficiency due to strong non-radiative recombination. The alternative approach of using InAs QDs is an attractive option, but once again, to reach the longest wavelengths one needs very large QDs and control over the size distribution and band alignment. In this work we demonstrate InAs/GaAsSb QDLEDs with high efficiencies, emitting from 1.1 to 1.52 μm, and we analyze the band alignment and carrier loss mechanisms that result from the presence of Sb in the capping layer.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El mundo tecnológico está cambiando hacia la optimización en la gestión de recursos gracias a la poderosa influencia de tecnologías como la virtualización y la computación en la nube (Cloud Computing). En esta memoria se realiza un acercamiento a las mismas, desde las causas que las motivaron hasta sus últimas tendencias, pasando por la identificación de sus principales características, ventajas e inconvenientes. Por otro lado, el Hogar Digital es ya una realidad para la mayoría de los seres humanos. En él se dispone de acceso a múltiples tipos de redes de telecomunicaciones (3G, 4G, WI-FI, ADSL…) con más o menos capacidad pero que permiten conexiones a internet desde cualquier parte, en todo momento, y con prácticamente cualquier dispositivo (ordenadores personales, smartphones, tabletas, televisores…). Esto es aprovechado por las empresas para ofrecer todo tipo de servicios. Algunos de estos servicios están basados en el cloud computing sobre todo ofreciendo almacenamiento en la nube a aquellos dispositivos con capacidad reducida, como son los smarthphones y las tabletas. Ese espacio de almacenamiento normalmente está en los servidores bajo el control de grandes compañías. Guardar documentos, videos, fotos privadas sin tener la certeza de que estos no son consultados por alguien sin consentimiento, puede despertar en el usuario cierto recelo. Para estos usuarios que desean control sobre su intimidad, se ofrece la posibilidad de que sea el propio usuario el que monte sus propios servidores y su propio servicio cloud para compartir su información privada sólo con sus familiares y amigos o con cualquiera al que le dé permiso. Durante el proyecto se han comparado diversas soluciones, la mayoría de código abierto y de libre distribución, que permiten desplegar como mínimo un servicio de almacenamiento accesible a través de Internet. Algunas de ellas lo complementan con servicios de streaming tanto de música como de videos, compartición y sincronización de documentos entre múltiples dispositivos, calendarios, copias de respaldo (backups), virtualización de escritorios, versionado de ficheros, chats, etc. El proyecto finaliza con una demostración de cómo utilizar dispositivos de un hogar digital interactuando con un servidor Cloud, en el que previamente se ha instalado y configurado una de las soluciones comparadas. Este servidor quedará empaquetado en una máquina virtual para que sea fácilmente transportable e utilizable. ABSTRACT. The technological world is changing towards optimizing resource management thanks to the powerful influence of technologies such as Virtualization and Cloud Computing. This document presents a closer approach to them, from the causes that have motivated to their last trends, as well as showing their main features, advantages and disadvantages. In addition, the Digital Home is a reality for most humans. It provides access to multiple types of telecommunication networks (3G, 4G, WI-FI, ADSL...) with more or less capacity, allowing Internet connections from anywhere, at any time, and with virtually any device (computer personal smartphones, tablets, televisions...).This is used by companies to provide all kinds of services. Some of these services offer storage on the cloud to devices with limited capacity, such as smartphones and tablets. That is normally storage space on servers under the control of important companies. Saving private documents, videos, photos, without being sure that they are not viewed by anyone without consent, can wake up suspicions in some users. For those users who want control over their privacy, it offers the possibility that it is the user himself to mount his own server and its own cloud service to share private information only with family and friends or with anyone with consent. During the project I have compared different solutions, most open source and with GNU licenses, for deploying one storage facility accessible via the Internet. Some supplement include streaming services of music , videos or photos, sharing and syncing documents across multiple devices, calendars, backups, desktop virtualization, file versioning, chats... The project ends with a demonstration of how to use our digital home devices interacting with a cloud server where one of the solutions compared is installed and configured. This server will be packaged in a virtual machine to be easily transportable and usable.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La medida de la presión sonora es un proceso de extrema importancia para la ingeniería acústica, de aplicación en numerosas áreas de esta disciplina, como la acústica arquitectónica o el control de ruido. Sobre todo en esta última, es necesario poder efectuar medidas precisas en condiciones muy diversas. Por otra parte, la ubicuidad de los dispositivos móviles inteligentes (smartphones, tabletas, etc.), dispositivos que integran potencia de procesado, conectividad, interactividad y una interfaz intuitiva en un tamaño reducido, abre la posibilidad de su uso como sistemas de medida de calidad y de coste bajo. En este Proyecto se pretende utilizar las capacidades de entrada y salida, procesado, conectividad inalámbrica y geolocalización de los dispositivos móviles basados en iOS, en concreto el iPhone, para implementar un sistema de medidas acústicas que iguale o supere las prestaciones de los sonómetros existentes en el mercado. SonoPhone permitirá, mediante la conexión de un micrófono de medida adecuado, la realización de medidas de acuerdo a las normas técnicas en vigor, así como la posibilidad de programar, configurar y almacenar o trasmitir las medidas realizadas, que además estarán geolocalizadas con el GPS integrado en el dispositivo móvil. También se permitirá enviar los datos de la medida a un almacenamiento remoto en la nube. La aplicación tiene una estructura modular en la que un módulo de adquisición de datos lee la señal del micrófono, un back-end efectúa el procesado necesario, y otros módulos permiten la calibración del dispositivo y programar y configurar las medidas, así como su almacenamiento y transmisión en red. Una interfaz de usuario (GUI) permite visualizar las medidas y efectuar las configuraciones deseadas por el usuario, todo ello en tiempo real. Además de implementar la aplicación, se ha realizado una prueba de funcionamiento para determinar si el hardware del iPhone es adecuado para la medida de la presión acústica de acuerdo a las normas internacionales. Sound pressure measurement is an extremely important process in the field of acoustic engineering, with applications in numerous subfields, like for instance building acoustics and noise control, where it is necessary to be able to accurately measure sound pressure in very diverse (and sometimes adverse) conditions. On the other hand, the growing ubiquity of mobile devices such as smartphones or tablets, which combine processing power, connectivity, interactivity and an intuitive interface in a small size, makes it possible to use these devices as quality low-cost measurement systems. This Project aims to use the input-output capabilities of iOS-based mobile devices, in particular the iPhone, together with their processing power, wireless connectivity and geolocation features, to implement an acoustic measurement system that rivals the performance of existing devices. SonoPhone allows, with the addition of an adequate measurement microphone, to carry out measurements that comply with current technical regulations, as well as programming, configuring, storing and transmitting the results of the measurement. These measurements will be geolocated using the integrated GPS, and can be transmitted effortlessly to a remote cloud storage. The application is structured in modular fashion. A data acquisition module reads the signal from the microphone, while a back-end module carries out the necessary processing. Other modules permit the device to be calibrated, or control the configuration of the measurement and its storage or transmission. A Graphical User Interface (GUI) allows visual feedback on the measurement in progress, and provides the user with real-time control over the measurement parameters. Not only an application has been developed; a laboratory test was carried out with the goal of determining if the hardware of the iPhone permits the whole system to comply with international regulations regarding sound level meters.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Motivación Internet es sin duda sinónimo de telecomunicaciones en este momento, es la tecnología no de futuro, sino de presente llamada a cambiar la sociedad hasta puntos insospechables, sin opción de retorno. Hoy en día ha cambiado la forma en la que nos relacionamos, la forma en la que trabajamos y la manera en que tomamos decisiones se ve fuertemente apoyada en esta herramienta. Por supuesto el devenir de la Red está por ver, los gobiernos y las grandes compañías quieren "meter mano" en el control de los contenidos, sin embargo parece que la Red sabe autogestionarse y es capaz de funcionar dentro de un modelo semi-anárquico. Objetivos El objetivo del presente proyecto es dar a conocer los orígenes de la red de redes, desarrollando un entorno social, político, económico y tecnológico para una mejor comprensión. El lector no obtendrá un extenso conocimiento técnico sobre redes y ordenadores, sin embargo será capaz de entender los verdaderos motivos que llevaron a una comunidad científica a crear la mayor herramienta para el desarrollo del ser humano. También es mi intención hacer que el lector reflexione sobre cómo influyen diferentes factores en el devenir de los hechos, momentos de grandes cambios sociales o políticos, o cómo la ciencia resuelve problemas mediante la observación o el análisis, buscando siempre la mejor opción, sin conformarse con soluciones a medias. Estructura El proyecto está estructurado en 3 grandes bloques. El primer bloque corresponde a los tres primeros capítulos que nos adentran en el tema vía una introducción a modo de punto de partida u origen del concepto, un marco histórico del período de formación de la Red y un pequeño análisis del estado del arte de los ordenadores desde sus orígenes como tal, prácticamente coetáneos con el origen de Internet. El segundo bloque narra cómo comienza el desarrollo de la Red, los pasos que se van dando y las soluciones adoptadas hasta llegar a lo que conocemos hoy día como la red de redes: Internet. Por último se detallan las conclusiones obtenidas tras la escritura de este documento, realizando una serie de reflexiones globales que me surgen tras conocer la historia de la Red. ABSTRACT. Motivation Nowadays Internet without any doubt means telecommunications. It is not the future technology but the present one and it is supposed to change the society to an unexpected point, without possibility of return. It has already changed the way we communicate each other, the way we work and also the way we take decisions are strongly hold by this tool. Meanwhile we will see the becoming of the Network, the governments and the big companies want to have the control over the contents, however it seems that the Network has the ability to self-manage and it is also capable to keep working in a semi-anarchic model. Objectives The main aim of the present project is to show what is the real origin of the network of networks, developing a social, politic, economic and technologic context of it to ensure a better comprehension. The reader won´t get an extended knowledge about computing or networking, however he or she will be able to understand the truly motivation that lead a scientific community to create the most important tool for the human development. It is also my intention to make the reader think about how different facts, depending on the moment they take place like social or political changes, can transform the way everything happens and how science solves problems by the observation and the analysis, searching always the best option, without comply with half solutions. Structure This project is divided into three sections. The first part which includes the three first chapters place us in the topic by an introduction of the concept origin, an historic context of the period of Network development and a small analysis of the state of the art in computing since its origins, which appear at the same time as the Internet. The second block explains how the development of the Net starts, the steps followed and the solutions taken until the arrival of the network of networks we all know: the Internet. Finally, we can find the conclusions, which are exposed in a reflection way, with some considerations that came to me after writing this document about the history of the Internet.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Background Gray scale images make the bulk of data in bio-medical image analysis, and hence, the main focus of many image processing tasks lies in the processing of these monochrome images. With ever improving acquisition devices, spatial and temporal image resolution increases, and data sets become very large. Various image processing frameworks exists that make the development of new algorithms easy by using high level programming languages or visual programming. These frameworks are also accessable to researchers that have no background or little in software development because they take care of otherwise complex tasks. Specifically, the management of working memory is taken care of automatically, usually at the price of requiring more it. As a result, processing large data sets with these tools becomes increasingly difficult on work station class computers. One alternative to using these high level processing tools is the development of new algorithms in a languages like C++, that gives the developer full control over how memory is handled, but the resulting workflow for the prototyping of new algorithms is rather time intensive, and also not appropriate for a researcher with little or no knowledge in software development. Another alternative is in using command line tools that run image processing tasks, use the hard disk to store intermediate results, and provide automation by using shell scripts. Although not as convenient as, e.g. visual programming, this approach is still accessable to researchers without a background in computer science. However, only few tools exist that provide this kind of processing interface, they are usually quite task specific, and don’t provide an clear approach when one wants to shape a new command line tool from a prototype shell script. Results The proposed framework, MIA, provides a combination of command line tools, plug-ins, and libraries that make it possible to run image processing tasks interactively in a command shell and to prototype by using the according shell scripting language. Since the hard disk becomes the temporal storage memory management is usually a non-issue in the prototyping phase. By using string-based descriptions for filters, optimizers, and the likes, the transition from shell scripts to full fledged programs implemented in C++ is also made easy. In addition, its design based on atomic plug-ins and single tasks command line tools makes it easy to extend MIA, usually without the requirement to touch or recompile existing code. Conclusion In this article, we describe the general design of MIA, a general purpouse framework for gray scale image processing. We demonstrated the applicability of the software with example applications from three different research scenarios, namely motion compensation in myocardial perfusion imaging, the processing of high resolution image data that arises in virtual anthropology, and retrospective analysis of treatment outcome in orthognathic surgery. With MIA prototyping algorithms by using shell scripts that combine small, single-task command line tools is a viable alternative to the use of high level languages, an approach that is especially useful when large data sets need to be processed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Among all the different types of electric wind generators, those that are based on doubly fed induction generators, or DFIG technology, are the most vulnerable to grid faults such as voltage sags. This paper proposes a new control strategy for this type of wind generator, that allows these devices to withstand the effects of a voltage sag while following the new requirements imposed by grid operators. This new control strategy makes the use of complementary devices such as crowbars unnecessary, as it greatly reduces the value of currents originated by the fault. This ensures less costly designs for the rotor systems as well as a more economic sizing of the necessary power electronics. The strategy described here uses an electric generator model based on space-phasor theory that provides a direct control over the position of the rotor magnetic flux. Controlling the rotor magnetic flux has a direct influence on the rest of the electrical variables enabling the machine to evolve to a desired work point during the transient imposed by the grid disturbance. Simulation studies have been carried out, as well as test bench trials, in order to prove the viability and functionality of the proposed control strategy.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el marco del proyecto europeo FI-WARE, en el CoNWet Lab (laboratorio de la ETSI Informáticos de la UPM) se ha implementado la plataforma Web Wstore que es una implementación de referencia del Store Generic Enabler perteneciente a dicho proyecto. El objetivo de FI-WARE es crear la plataforma núcleo del Internet del Futuro (IoF) con la intención de incrementar la competitividad global europea en el mundo de las TI. El proyecto introduce una infraestructura innovadora para la creación y distribución de servicios digitales en internet. WStore ofrece a los proveedores de servicios la plataforma donde publicar sus ofertas y desde la cual los clientes podrán acceder ellas. Estos proveedores ofrecen servicios Web, aplicaciones, widgets y data sets del mismo modo que Google ofrece aplicaciones en la tienda online Google Play o Apple en el App Store. WStore está implementada actualmente como una plataforma Web, por lo que una organización que desee ofrecer el servicio de la store necesita instalar el software en un servidor propio y disponer de un dominio para ofrecer sus productos. El objetivo de este trabajo es migrar WStore a un entorno de computación en la nube de manera que con una única instancia se ofrezca el servicio a las organizaciones que deseen disponer de su propia plataforma, de la cual tendrán total control como si se encontrase en su propia infraestructura. Para esto se implementa una versión de WStore que será desplegada en una infraestructura cloud y ofrecida como Software as a Service. La implementación incluye una serie de módulos de código que se podrán añadir opcionalmente en el proceso de instalación si se desea que la instancia instalada sea Multitenant. Además, en este trabajo se estudian y prueban las herramientas que ofrece MongoDB para desplegar la plataforma Wstore Multitenant en una infraestructura cloud. Estas herramientas son replica sets y sharding que permiten desplegar una base de datos escalable y de alta disponibilidad. ---ABSTRACT---In the context of the European project FI-WARE, the CoNWeT Lab (IT Lab from ETSIINF UPM university) has been implemented the web platform WStore. WStore is a reference implementation of the Generic Enabler Store from FI-WARE project. The FI-WARE goal is to create the core platform of the Future Internet (IoF) with the intention of enhancing Europe's global competitiveness in IT technologies. FI-WARE introduces an innovative infrastructure for the creation and distribution of digital services over the Internet. WStore offers to service providers a platform to publicate offerings and where customers can access them. The providers offer web services, applications, widgets and data sets in the same way that Google offers online applications on Google Play or Apple on App Store plataforms. WStore is currently implemented as a web platform, so if an organization wants to offer the store service, it need to install the software on it’s own serves and have a domain to offer their products. The objective of this paper is to migrate WStore to a cloud computing environment where a single instance of the WStore is offered as a web service to organizations who want their own store. Customers (tenants) of the WStore web service will have total control over the software and WStore administration. The implementation includes several code modules that can be optionally added in the installation process to build a Multitenant instance. In addition, this paper review the tools that MongoDB provide for scalability and high availability (replica sets and sharding) with the purpose of deploying multi-tenant WStore on a cloud infrastructure.