492 resultados para Apache Cordova


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objective: To explore the natural trajectory of core body temperature (CBT) and cortisol (CORT) circadian rhythms in mechanically ventilated intensive care unit (MV ICU) patients. ^ Design: Prospective, observational, time-series pilot study. ^ Setting: Medical-surgical and pulmonary ICUs in a tertiary care hospital. ^ Sample: Nine (F = 3, M = 6) adults who were mechanically ventilated within 12 hrs of ICU admission with mean ± SD age of 65.2 ± 14 years old. ^ Measurements: Core body temperature and environmental measures of light, sound, temperature, and relative humidity were logged in 1-min intervals. Hourly urine specimens and 2-hr interval blood specimens were collected for up to 7 consecutive days for CORT assay. Mechanical ventilation days, ICU length of stay, and ICU mortality were documented. Acute Physiology and Chronic Health Evaluation (APACHE) II scores were computed for each study day. The data of each biologic and environmental variable were analyzed using single cosinor analysis of 24-hr serial segments. One patient did not complete the study because mortality occurred within 8 hrs of enrollment. Nine ICU patients completed the study in 1.6 to 7.0 days. ^ Results: No normal circadian rhythm pattern was found when the cosinor-derived parameters of amplitude (one-half the peak-trough variability) and acrophase (peak time) were compared with cosinor-derived parameter reference ranges of healthy, diurnally active humans, although 83% of patient-day CBT segments showed statistically significant (p ≤ .05) and biologically meaningful (R2≥ 0.30) 24-hr rhythms with abnormal cosinor parameters. Cosinor parameters of the environmental temporal profiles showed 27% of light, 76% of ambient temperature, and 78% of relative humidity serial segments had a significant and meaningful 24-hr diurnal pattern. Average daily light intensity varied from 34 to 187 lx with a maximum light exposure of 1877 lx. No sound measurement segment had a statistically significant cosine pattern, and numerous 1-minute interval peaks ≥ 60 dB occurred around the clock. Average daily ambient temperature and relative humidity varied from 19 to 24°C and from 25% to 61%, respectively. There was no statistically significant association between CBT or clinical outcomes and cosinor-derived parameters of the environmental variables. Circadian rhythms of urine and plasma CORT were deferred for later analysis. ^ Conclusions: The natural trajectory of the CBT circadian rhythm in MV ICU patients demonstrated persistent cosinor parameter alteration, even when a significant and meaningful 24-hr rhythm was present. The ICU environmental measures showed erratic light and sound exposures. Room temperature and relative humidity data produced the highest rate of significant and meaningful diurnal 24-hr patterns. Additional research is needed to clarify relations among the CBT biomarker of the circadian clock and environmental variables of MV ICU patients. ^

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Determinar etiología, manifestaciones clínicas, morbimortalidad y recursos diagnósticos y terapéuticos utilizados en pacientes internados con pancitopenia. Material y métodos: Estudio protocolizado, descriptivo y observacional de 14 meses. Criterios de inclusión: pacientes internados con pancitopenia definida por hemoglobina (Hb) <12 g/dL; plaquetas <150.000/ mL y leucocitos <3.800/mL. Los datos fueron analizados con Epi Info 6.04. Resultados: Se diagnosticaron 54 casos de pancitopenia. Prevalencia: 22/1.000 egresos. Edad media: 48,72 años (DS±20,64); 29,63% fueron > 65 años y 53,70% hombres. Permanencia media: 17,13 días (DS±13,22) vs 7,25 días (DS±5,4) del Servicio (p<0.0001). Charlson medio: 7,16 (DS±2,96) y APACHEII medio: 12 (DS±5,04). El 83,33% (45/54, IC95%70,71-92,08) de las pancitopenias fueron secundarias a compromiso medular, 22 casos (40,74%; IC95%27,57-54,97) postquimioterapia (15 en neoplasias oncohematológicas y 7 en sólidas), 11 (20,37%; IC95%10,63-33,53) por mieloptisis y 4 casos (7,41%; IC95%2,06-17,89) por megaloblastosis. El 16,66% (9/54; IC95%7,92- 29,29) fue secundaria a hiperesplenismo y el 16,66% asociadas a infecciones (3 casos por SIDA). Se realizó estudio de médula ósea en 19 casos (35,18%). El 96,29% (IC95%87,25-99,55) presentó comórbidas. El síndrome de respuesta inflamatoria sistémica (85,19%), síndrome anémico (77,8%) y púrpura (50%) fueron las manifestaciones clínicas más frecuentes. Presentó sepsis el 81,48% (IC95%68,57-90,75) y el 29,63% (IC95%17,98-46,31) hemorragias. El 81,48% tuvo infecciones; el 50% de origen nosocomial y el 65,91% clínicamente documentadas. El 34,09% (IC95%20,49-49,92) tuvo aislamiento microbiológico, con hemocultivos positivos en 29,55%. El 51,85% (IC95%37,84-65,66) desarrolló neutropenia febril (75% postquimioterapia). El 64,81% recibió hemoderivados y factores estimulantes de colonias (G-CSF) el 46,34% (IC95%32,62-60,39). La mortalidad fue mayor a la media global del Servicio (16,66 vs 8,65%)(p=0.07).- Conclusiones: Las pancitopenias en pacientes hospitalizados se caracterizaron por ser secundarias a compromiso medular, hiperesplenismo e infecciones, asociarse a permanencia prolongada, altos índices de comorbilidad, complicaciones infecciosas, y mayor mortalidad que la media global del Servicio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Analizar la mortalidad en la Unidad de Cuidados Intensivos (UCI) del Hospital Central de Mendoza y evaluar el valor predictivo de la escala APACHE II (Evaluación Fisiológica Aguda y de Salud Crónica). Material y Método: Se realizó un estudio retrospectivo y observacional de los pacientes ingresados a la Unidad de Cuidados Intensivos del Hospital Central de Mendoza, desde el 01/11/06 hasta el 31/03/08. Se calculó la distribución de sexos y de edades de la muestra, la estadía promedio, principales motivos de ingreso a la UCI y la puntuación APACHE II en las primeras 24 horas de internación. Se calculó la mortalidad esperada y la mortalidad obtenida global y se analizó el coeficiente entre ambas mortalidades. Resultados: Se incluyeron 904 pacientes, 61,82% masculinos y 38,18% femeninos, con una edad media 46 años (±19,36). Estadía promedio en la UCI 8,5 días promedio. El principal motivo de internación fueron los Traumatismos Encéfalocraneanos (TEC) con un 27,7% del total (86% asociados a politraumatismo grave). La mortalidad global obtenida fue del 41,48% vs. 24,08% esperable, con un coeficiente de mortalidad de 1,72 (p<0,0001). Conclusiones: La UCI estudiada presenta por las características de la población asistida un elevado índice de mortalidad global. La mortalidad obtenida fue 72% mayor a la mortalidad esperable según la puntuación APACHE II, demostrando esta Escala un bajo valor predictivo en nuestra UCI. La diferencia entre mortalidades podría parcialmente explicarse por la alta prevalencia de entidades con mortalidades subvaloradas por este modelo pronóstico, como pacientes politraumatizados y neurocríticos. En nuestro estudio, la Escala APACHE II presentó una franca subestimación de la mortalidad en ambas patologías. Sugerimos la realización de un estudio de regresión logística local para determinar un factor de corrección y/o adicionar puntos al valor APACHE II según el diagnóstico de ingreso del paciente. Asimismo, proponemos evaluar el empleo de medidas alternativas para predecir mortalidad, como sistemas de tercera generación (por ejemplo: APACHE III, MPM II y SAPS II).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Software evolution, and particularly its growth, has been mainly studied at the file (also sometimes referred as module) level. In this paper we propose to move from the physical towards a level that includes semantic information by using functions or methods for measuring the evolution of a software system. We point out that use of functions-based metrics has many advantages over the use of files or lines of code. We demonstrate our approach with an empirical study of two Free/Open Source projects: a community-driven project, Apache, and a company-led project, Novell Evolution. We discovered that most functions never change; when they do their number of modifications is correlated with their size, and that very few authors who modify each; finally we show that the departure of a developer from a software project slows the evolution of the functions that she authored.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Of the south of Spain, near the province of Cordova, in a tributary of the Guadalquivir River it has been constructed during the years 2004 to 2007 the reservoir called El Arenoso. El Arenoso reservoir that belongs to Environment Ministry is destined to downstream Guadalquivir’s water supply and the general regulation of the river. The dam is located on the same name river and it is next to the Montoro’s municipal district, 41 km northeast of Cordova. The main work consists on an embankment dam, with central clay core, and slates and greywacke shoulders. The core is covered downstream with a filter material and upstream with a transition material. The dimensions of the dam are 80 m high, 1.480 m long at its crest, and it has been needed more than 3 million m3 of materials, creating a waterproof barrier able to keep 160 hm3 as a useful reservoir. In the zone of the core is located the chamber of valves with a horizontal clearance of 10 m and a vertical clearance of 14,517 m. The present article exposes the most important characteristics of project and construction, of valves chamber of the Arenoso reservoir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se hace un análisis en profundidad de las técnicas de ataque a las redes de ordenadores conocidas como APTs (Advanced Persistent Threats), viendo cuál es el impacto que pueden llegar a tener en los equipos de una empresa y el posible robo de información y pérdida monetaria que puede llevar asociada. Para hacer esta introspección veremos qué técnicas utilizan los atacantes para introducir el malware en la red y también cómo dicho malware escala privilegios, obtiene información privilegiada y se mantiene oculto. Además, y cómo parte experimental de este proyecto se ha desarrollado una plataforma para la detección de malware de una red en base a las webs, URLs e IPs que visitan los nodos que la componen. Obtendremos esta visión gracias a la extracción de los logs y registros de DNS de consulta de la compañía, sobre los que realizaremos un análisis exhaustivo. Para poder inferir correctamente qué equipos están infectados o no se ha utilizado un algoritmo de desarrollo propio inspirado en la técnica Belief Propagation (“Propagación basada en creencia”) que ya ha sido usada antes por desarrolladores cómo los de los Álamos en Nuevo México (Estados Unidos) para fines similares a los que aquí se muestran. Además, para mejorar la velocidad de inferencia y el rendimiento del sistema se propone un algoritmo adaptado a la plataforma Hadoop de Apache, por lo que se modifica el paradigma de programación habitual y se busca un nuevo paradigma conocido como MapReduce que consiste en la división de la información en conceptos clave-valor. Por una parte, los algoritmos que existen basados en Belief Propagation para el descubrimiento de malware son propietarios y no han sido publicados completamente hasta la fecha, por otra parte, estos algoritmos aún no han sido adaptados a Hadoop ni a ningún modelo de programación distribuida aspecto que se abordará en este proyecto. No es propósito de este proyecto desarrollar una plataforma comercial o funcionalmente completa, sino estudiar el problema de las APTs y una implementación que demuestre que la plataforma mencionada es factible de implementar. Este proyecto abre, a su vez, un horizonte nuevo de investigación en el campo de la adaptación al modelo MapReduce de algoritmos del tipo Belief Propagation basados en la detección del malware mediante registros DNS. ABSTRACT. This project makes an in-depth investigation about problems related to APT in computer networks nowadays, seeing how much damage could they inflict on the hosts of a Company and how much monetary and information loss may they cause. In our investigation we will find what techniques are generally applied by attackers to inject malware into networks and how this malware escalates its privileges, extracts privileged information and stays hidden. As the main part of this Project, this paper shows how to develop and configure a platform that could detect malware from URLs and IPs visited by the hosts of the network. This information can be extracted from the logs and DNS query records of the Company, on which we will make an analysis in depth. A self-developed algorithm inspired on Belief Propagation technique has been used to infer which hosts are infected and which are not. This technique has been used before by developers of Los Alamos Lab (New Mexico, USA) for similar purposes. Moreover, this project proposes an algorithm adapted to Apache Hadoop Platform in order to improve the inference speed and system performance. This platform replaces the traditional coding paradigm by a new paradigm called MapReduce which splits and shares information among hosts and uses key-value tokens. On the one hand, existing algorithms based on Belief Propagation are part of owner software and they have not been published yet because they have been patented due to the huge economic benefits they could give. On the other hand these algorithms have neither been adapted to Hadoop nor to other distributed coding paradigms. This situation turn the challenge into a complicated problem and could lead to a dramatic increase of its installation difficulty on a client corporation. The purpose of this Project is to develop a complete and 100% functional brand platform. Herein, show a short summary of the APT problem will be presented and make an effort will be made to demonstrate the viability of an APT discovering platform. At the same time, this project opens up new horizons of investigation about adapting Belief Propagation algorithms to the MapReduce model and about malware detection with DNS records.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This document is the result of a process of web development to create a tool that will allow to Cracow University of Technology consult, create and manage timetables. The technologies chosen for this purpose are Apache Tomcat Server, My SQL Community Server, JDBC driver, Java Servlets and JSPs for the server side. The client part counts on Javascript, jQuery, AJAX and CSS technologies to perform the dynamism. The document will justify the choice of these technologies and will explain some development tools that help in the integration and development of all this elements: specifically, NetBeans IDE and MySQL workbench have been used as helpful tools. After explaining all the elements involved in the development of the web application, the architecture and the code developed are explained through UML diagrams. Some implementation details related to security are also deeper explained through sequence diagrams. As the source code of the application is provided, an installation manual has been developed to run the project. In addition, as the platform is intended to be a beta that will be grown, some unimplemented ideas for future development are also exposed. Finally, some annexes with important files and scripts related to the initiation of the platform are attached. This project started through an existing tool that needed to be expanded. The main purpose of the project along its development has focused on setting the roots for a whole new platform that will replace the existing one. For this goal, it has been needed to make a deep inspection on the existing web technologies: a web server and a SQL database had to be chosen. Although the alternatives were a lot, Java technology for the server was finally selected because of the big community backwards, the easiness of modelling the language through UML diagrams and the fact of being free license software. Apache Tomcat is the open source server that can use Java Servlet and JSP technology. Related to the SQL database, MySQL Community Server is the most popular open-source SQL Server, with a big community after and quite a lot of tools to manage the server. JDBC is the driver needed to put in contact Java and MySQL. Once we chose the technologies that would be part of the platform, the development process started. After a detailed explanation of the development environment installation, we used UML use case diagrams to set the main tasks of the platform; UML class diagrams served to establish the existing relations between the classes generated; the architecture of the platform was represented through UML deployment diagrams; and Enhanced entity–relationship (EER) model were used to define the tables of the database and their relationships. Apart from the previous diagrams, some implementation issues were explained to make a better understanding of the developed code - UML sequence diagrams helped to explain this. Once the whole platform was properly defined and developed, the performance of the application has been shown: it has been proved that with the current state of the code, the platform covers the use cases that were set as the main target. Nevertheless, some requisites needed for the proper working of the platform have been specified. As the project is aimed to be grown, some ideas that could not be added to this beta have been explained in order not to be missed for future development. Finally, some annexes containing important configuration issues for the platform have been added after proper explanation, as well as an installation guide that will let a new developer get the project ready. In addition to this document some other files related to the project are provided: - Javadoc. The Javadoc containing the information of every Java class created is necessary for a better understanding of the source code. - database_model.mwb. This file contains the model of the database for MySQL Workbench. This model allows, among other things, generate the MySQL script for the creation of the tables. - ScheduleManager.war. The WAR file that will allow loading the developed application into Tomcat Server without using NetBeans. - ScheduleManager.zip. The source code exported from NetBeans project containing all Java packages, JSPs, Javascript files and CSS files that are part of the platform. - config.properties. The configuration file to properly get the names and credentials to use the database, also explained in Annex II. Example of config.properties file. - db_init_script.sql. The SQL query to initiate the database explained in Annex III. SQL statements for MySQL initialization. RESUMEN. Este proyecto tiene como punto de partida la necesidad de evolución de una herramienta web existente. El propósito principal del proyecto durante su desarrollo se ha centrado en establecer las bases de una completamente nueva plataforma que reemplazará a la existente. Para lograr esto, ha sido necesario realizar una profunda inspección en las tecnologías web existentes: un servidor web y una base de datos SQL debían ser elegidos. Aunque existen muchas alternativas, la tecnología Java ha resultado ser elegida debido a la gran comunidad de desarrolladores que tiene detrás, además de la facilidad que proporciona este lenguaje a la hora de modelarlo usando diagramas UML. Tampoco hay que olvidar que es una tecnología de uso libre de licencia. Apache Tomcat es el servidor de código libre que permite emplear Java Servlets y JSPs para hacer uso de la tecnología de Java. Respecto a la base de datos SQL, el servidor más popular de código libre es MySQL, y cuenta también con una gran comunidad detrás y buenas herramientas de modelado, creación y gestión de la bases de datos. JDBC es el driver que va a permitir comunicar las aplicaciones Java con MySQL. Tras elegir las tecnologías que formarían parte de esta nueva plataforma, el proceso de desarrollo tiene comienzo. Tras una extensa explicación de la instalación del entorno de desarrollo, se han usado diagramas de caso de UML para establecer cuáles son los objetivos principales de la plataforma; los diagramas de clases nos permiten realizar una organización del código java desarrollado de modo que sean fácilmente entendibles las relaciones entre las diferentes clases. La arquitectura de la plataforma queda definida a través de diagramas de despliegue. Por último, diagramas EER van a definir las relaciones entre las tablas creadas en la base de datos. Aparte de estos diagramas, algunos detalles de implementación se van a justificar para tener una mejor comprensión del código desarrollado. Diagramas de secuencia ayudarán en estas explicaciones. Una vez que toda la plataforma haya quedad debidamente definida y desarrollada, se va a realizar una demostración de la misma: se demostrará cómo los objetivos generales han sido alcanzados con el desarrollo actual del proyecto. No obstante, algunos requisitos han sido aclarados para que la plataforma trabaje adecuadamente. Como la intención del proyecto es crecer (no es una versión final), algunas ideas que se han podido llevar acabo han quedado descritas de manera que no se pierdan. Por último, algunos anexos que contienen información importante acerca de la plataforma se han añadido tras la correspondiente explicación de su utilidad, así como una guía de instalación que va a permitir a un nuevo desarrollador tener el proyecto preparado. Junto a este documento, ficheros conteniendo el proyecto desarrollado quedan adjuntos. Estos ficheros son: - Documentación Javadoc. Contiene la información de las clases Java que han sido creadas. - database_model.mwb. Este fichero contiene el modelo de la base de datos para MySQL Workbench. Esto permite, entre otras cosas, generar el script de iniciación de la base de datos para la creación de las tablas. - ScheduleManager.war. El fichero WAR que permite desplegar la plataforma en un servidor Apache Tomcat. - ScheduleManager.zip. El código fuente exportado directamente del proyecto de Netbeans. Contiene todos los paquetes de Java generados, ficheros JSPs, Javascript y CSS que forman parte de la plataforma. - config.properties. Ejemplo del fichero de configuración que permite obtener los nombres de la base de datos - db_init_script.sql. Las consultas SQL necesarias para la creación de la base de datos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto consiste en el diseño e implementación un sistema domótico que puede ser instalado en una vivienda para controlar distintas variables ambientales y conseguir así la máxima comodidad de los habitantes de manera automática o manual según los gustos y necesidades de los usuarios. La característica principal de este sistema, es que cuenta con un funcionamiento distribuido donde entran en juego un servidor, encargado de tomar las decisiones generales para el comportamiento de la casa, y una serie de controladores esclavo cuya función es mantener constantes las variables ambientales con los valores fijados por el servidor. Así se consigue mantener la vivienda en una situación de bienestar constante para cualquier persona que se encuentre dentro. El sistema ha sido pensado de manera que se intenta reducir al máximo el cableado para facilitar su instalación por lo que la comunicación entre los distintos dispositivos se hace de manera inalámbrica por medio de un protocolo descrito en la norma IEEE 802.15.4 llamado ZigBee. Para ello se ha utilizado un módulo de comunicación wireless llamado Xbee, el cual permite la comunicación entre dos dispositivos. Para el control de dicho sistema distribuido se cuenta con una aplicación web, que mediante una interfaz gráfica permite al usuario controlar los distintos dispositivos dentro de la vivienda consiguiendo así controlar las variables ambientales a gusto del usuario. Dicha interfaz gráfica no depende de un software específico, sino que sólo es necesario un cliente http como podría ser Internet Explorer, Mozilla Firefox, Google Chrome, etc. Para integrar dicho sistema se ha usado un mini ordenador de bajo coste llamado RaspBerryPi, en el que se encuentra alojado un servidor Apache con el fin de gestionar y automatizar las variables ambientales. El control de los dipositivos encargados de modificar y estabilizar las variables ambientales se realiza mediante unos controladores genéricos implementados mediante mcontroladores 80C51F410, pertenecientes a la familia 80C51, y una serie de componentes y circuitería que permiten el correcto funcionamiento de éstos. Existen dos tipos de controladores distintos, los cuales son: Controlador Sensor: Encargados de las tomas de valores ambientales como puede ser la luz y la temperatura. Controladores Actuadores: Encargados de actuar sobre los dispositivos que modifican y estabilizan las variables ambientales como pueden ser la calefacción, tiras de leds de iluminación, persianas, alarmas, etc. El conjunto de la RaspBerryPi y los diferentes controladores forman el prototipo diseñado para este proyecto fin de carrera, el cual puede ser ampliado sencillamente para abarcar una amplia gama de posibilidades y funcionalidades dentro de la comodidad de una vivienda. ABSTRACT. The project described in this report consisted designing and implementing a home automation system that could be installed in a house in order to control environmental variables and thus get the maximum comfort of the inhabitant automatically or manually according to their tastes and needs. The main feature of this system consists in a distributed system, formed by a server which is responsible for making the main decisions of the actions performed inside the house. In addition, there are a series of slave controlers whose function consists in keeping the environmental variables within the values established by the server. Thus gets to keep the home in a situation of constant wellbeing to anyone who is inside. The system has been designed in order to reduce the amount of wire needed for the inter-connection of the devices, by means of wireless communication. The devices chosen for the solution are Xbee modules, which use the Zigbee protocol in order to comunicate one between each other. The Zigbee protocol is fully described in the IEEE 802.15.4 standard. A web application has been used to control the distributed system. This application allows users to control various devices inside the house and subsequently the different environmental variables. This implementation allows obtaining the maximum comfort by means of a very simple graphical interface. In addition, the Graphical User Interface (GUI) does not depend on any specific software. This means that it would only be necessary a http client (such as Internet Explorer, Mozilla Firefox, Google Chrome, etc.) for handling the application. The system has been integrated using a low-cost mini computer called RaspBerryPi.This computer has an Apache server allocated which allows to manage and to automatize the different environmental variables. Furthermore, for changing and stabilizing those variables, some generic controllers have been developed, based on mcontrollers 80C51F410. There have been developed mainly two different types of controllers: Sensor Controllers, responsible for measuring the different environmental values, such as light and temperature; and Actuator Controllers, which purpose is to modify and stabilize those environmental variables by actuating on the heating, the led lamps, the blinders, the alarm, etc. The combination of the RaspBerryPi and the different controllers conform the prototype designed during this project. Additionally, this solution could be easily expanded in order to intake further functionalities adapted to new needs that could arise in the future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geobotánica (fitogeografía), rama de la biogeografía, estudia cómo la tectónica de placas y las orogénesis determinan una distribución de tierras, mares y accidentes geográficos, el aislamiento o la conexión de poblaciones, la distribución espacial de las especies y los fenómenos de especialización. La corología, por su parte, se ocupa de la distribución geográfica de cada especie, siendo el clima y el suelo los principales factores que influyen en la misma. Como resumen podemos decir que para la geobotánica es de interés poder obtener y analizar: mapas corológicos, los factores limitantes climáticos y químicos, y la relación con el medio y otras especies. El objetivo de la aplicación Web desarrollada, basada en estándares OGC para el acceso y visualización de información geográfica, es dotar a los geobotánicos de una herramienta sencilla y accesible en Web, que ayude en los procesos de estudio y análisis de la distribución de especies vegetales en el territorio y sus condicionantes. La aplicación, desarrollada a partir de los datos del inventario botánico del profesor Martínez Labarga de la cuenca media del Tajo, permite realizar estudios y análisis geobotánicos, apoyándose en la confección de mapas corológicos y la correlación de la distribución de cada especie con las magnitudes climáticas de temperatura o precipitación y las características de los suelos sobre los que aparece. Esta aplicación dispone de una arquitectura de 3 capas (almacenes de datos, servicios y clientes) y ha sido desarrollada con tecnologías OpenSource (PostGIS, Geoserver, Apache httpd, OpenLayers, GeoExt, php) y consume datos propios publicados mediante estándares OGC (WMS y WFS) y capas de la IDE tanto de suelos (litológico, geológico, topográfico, ortoimágenes) como climáticos (precipitaciones y temperaturas ?CREAF). El desarrollo de la aplicación y la prueba de concepto han permitido identificar algunos problemas de rendimiento a la hora de realizar consultas al Atlas Climático de la Península Ibérica y se ha propuesto una solución basada en el cacheado de datos consultados en tiempo de ejecución

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En estos tiempos toma un papel fundamental poder analizar toda la información que circula por la red de una manera rápida y sencilla para poder obtener un gran valor de ella. La denominada Big Data es cada día más importante para las empresas y es por ello por lo que en este trabajo se va a estudiar una solución novedosa para su manejo. Apache Spark es una herramienta creada para el manejo de esas cantidades de información y a lo largo de este trabajo se van a mostrar sus puntos fuertes, así como diferentes casos de uso donde aporta una gran ventaja sobre sus alternativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN El presente documento aborda la problemática surgida en torno al desarrollo de una plataforma para gestión de bancos de tiempo mediante tecnología LAMP (Linux + Apache + MySql + PHP). Se mostrarán los resultados del análisis de requisitos, la implementación, la puesta en práctica desde el año 2005, asi como conclusiones y líneas futuras. Para finalizar la documentación, se adjunta una guía para la creación de un banco de tiempo. ABSTRACT This document explains the solution to develop a time bank management platform, using LAMP technology (Linux + Apache + MySql + PHP). This will be focus on the result of the analysis, the implementation, the real implementation working since 2005, conclusions and future working lines. A guide to set up a time bank is attached at the end of the documentation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contiene: INSCRIPCIONES ARABES de CORDOVA / Mme. Lingée sculp. INSCRIPCIONES Y CAPITELES Arabes en CORDOVA / E. Lingée sc., Dormier sc. 2.ª ESTAMPA de INSCRIPCIONES y DETALLES ARABIGOS en GRANADA / E.ce Lingée sculp. DETALLES y INSCRIPCIONES Arabes de GRANADA / D. Pedro Arnal del. ; E. Lingée scupsit

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente TFG está enmarcado en el contexto de la biología sintética (más concretamente en la automatización de protocolos) y representa una parte de los avances en este sector. Se trata de una plataforma de gestión de laboratorios autónomos. El resultado tecnológico servirá para ayudar al operador a coordinar las máquinas disponibles en un laboratorio a la hora de ejecutar un experimento basado en un protocolo de biología sintética. En la actualidad los experimentos biológicos tienen una tasa de éxito muy baja en laboratorios convencionales debido a la cantidad de factores externos que intervienen durante el protocolo. Además estos experimentos son caros y requieren de un operador pendiente de la ejecución en cada fase del protocolo. La automatización de laboratorios puede suponer un aumento de la tasa de éxito, además de una reducción de costes y de riesgos para los trabajadores en el entorno del laboratorio. En la presente propuesta se pretende que se dividan las distintas entidades de un laboratorio en unidades funcionales que serán los elementos a ser coordinados por la herramienta resultado del TFG. Para aportar flexibilidad a la herramienta se utilizará una arquitectura orientada a servicios (SOA). Cada unidad funcional desplegará un servicio web proporcionando su funcionalidad al resto del laboratorio. SOA es esencial para la comunicación entre máquinas ya que permite la abstracción del tipo de máquina que se trate y como esté implementada su funcionalidad. La principal dificultad del TFG consiste en lidiar con las dificultades de integración y coordinación de las distintas unidades funcionales para poder gestionar adecuadamente el ciclo de vida de un experimento. Para ello se ha realizado un análisis de herramientas disponibles de software libre. Finalmente se ha escogido la plataforma Apache Camel como marco sobre el que crear la herramienta específica planteada en el TFG. Apache Camel juega un papel importantísimo en este proyecto, ya que establece las capas de conexión a los distintos servicios y encamina los mensajes oportunos a cada servicio basándose en el contenido del fichero de entrada. Para la preparación del prototipo se han desarrollado una serie de servicios web que permitirán realizar pruebas y demostraciones de concepto de la herramienta en sí. Además se ha desarrollado una versión preliminar de la aplicación web que utilizará el operador del laboratorio para gestionar las peticiones, decidiendo que protocolo se ejecuta a continuación y siguiendo el flujo de tareas del experimento.---ABSTRACT---The current TFG is bound by synthetic biology context (more specifically in the protocol automation) and represents an element of progression in this sector. It consists of a management platform for automated laboratories. The technological result will help the operator to coordinate the available machines in a lab, this way an experiment based on a synthetic biological protocol, could be executed. Nowadays, the biological experiments have a low success rate in conventional laboratories, due to the amount of external factors that intrude during the protocol. On top of it, these experiments are usually expensive and require of an operator monitoring at every phase of the protocol. The laboratories’ automation might mean an increase in the success rate, and also a reduction of costs and risks for the lab workers. The current approach is hoped to divide the different entities in a laboratory in functional units. Those will be the elements to be coordinated by the tool that results from this TFG. In order to provide flexibility to the system, a service-oriented architecture will be used (SOA). Every functional unit will deploy a web service, publishing its functionality to the rest of the lab. SOA is essential to facilitate the communication between machines, due to the fact that it provides an abstraction on the type of the machine and how its functionality is implemented. The main difficulty of this TFG consists on grappling with the integration and coordination problems, being able to manage successfully the lifecycle of an experiment. For that, a benchmark has been made on the available open source tools. Finally Apache Camel has been chosen as a framework over which the tool defined in the TFG will be created. Apache Camel plays a fundamental role in this project, given that it establishes the connection layers to the different services and routes the suitable messages to each service, based on the received file’s content. For the prototype development a number of services that will allow it to perform demonstrations and concept tests have been deployed. Furthermore a preliminary version of the webapp has been developed. It will allow the laboratory operator managing petitions, to decide what protocol goes next as it executes the flow of the experiment’s tasks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral tiene como objeto el acercamiento histórico-constructivo a la realidad material de las fortificaciones edificadas en el centro de la Península Ibérica durante los primeros siglos de la Edad Media. El marco geográfico se extiende desde el cauce del río Duero, delimitado por los valles de sus afluentes, el Duratón, al oeste, y el Escalote al este, hasta las cumbres del Sistema Central oriental en su entronque con el Ibérico, para descender por la falda sur de la sierra hasta los valles altos del Lozoya, Jarama y Henares. Siguiendo las demarcaciones actuales, el marco de estudio ocupa parcialmente las provincias de Soria, Guadalajara, Madrid, Segovia, Burgos y Valladolid. Desde un punto de vista cronológico, el espacio temporal se inicia con la conquista musulmana de la Península Ibérica de 711 y culmina con la incorporación definitiva al reino de Castilla de las zonas estudiadas, en torno al año 1150. Se trata de un espacio de transición, tanto desde el punto de vista social como ecológico. Los territorios al sur de la sierra correspondían a los confines septentrionales de la Marca Media de al-Andalus, mientras que la falta norte, los extrema durii, fueron un territorio escasamente poblado y desorganizado, foco de la expansión de los reinos de León y Castilla y zona de conflicto con al-Andalus a principios del siglo X. Un territorio tan amplio y heterogéneo, unido a una compleja evolución histórica y social y la parquedad de las fuentes escritas, ha necesitado de un acercamiento con una metodología de tipo mixto, en la que han convergido las técnicas propias de la documentación histórica, de la arqueología y de la historia de la construcción. Esta metodología parte de un exhaustivo vaciado bibliográfico, tras lo cual se planteó una prospección arqueológica dirigida que permitió realizar un catálogo de elementos fortificados en el área de estudio susceptibles de contener fases altomedievales. Sobre cada uno de los elementos localizados se realizó una toma de datos de tipo gráfico métrico y constructivo. Cruzando los datos recabados en cada edificio con técnicas propias de la estratigrafía e historia de la construcción se identificaron y aislaron las fases de la cronología analizada. Entre las fortificaciones que evidenciaron fases altomedievales y atendiendo a su singularidad, representatividad y calidad estratigráfica se ha profundizado en el análisis de nueve casos de estudio: el conjunto fortificado de Atienza, el castillo de Cogolludo, el recinto amurallado de Buitrago de Lozoya, el castillo de Caracena, la iglesia parroquial de la Inmaculada Concepción de Mezquetillas, la alcazaba de Gormaz, la torre de San Andrés de Sepúlveda, la iglesia parroquial de San Miguel de Ayllón y la fortificación rupestre de Alcolea de las Peñas. La investigación ha servido para dos fines principales. El primero se centra en el aspecto material. En este sentido no solo se ha identificado la presencia o ausencia de fases altomedievales en cado uno de los edificio lo que ha permitido realizar una lectura territorial, la caracterización de las diferentes técnicas y materiales constructivos y valorar la posibilidad de establecer una cronotipología. El segundo se centra en aspectos históricos y sociales. La vinculación de estos restos materiales con la documentación histórica ha devenido en un medio para conocer la historia de las gentes que construyeron estos edificios, la motivación que les llevó a emprender tales proyectos, así como el contexto en el que cada una de estas fortificaciones desempeñó las funciones para las que fue creada. Este estudio ha puesto de manifiesto la ruptura que supuso la ocupación estatal de esta zona por parte del ejército cordobés desde mediados del siglo X, tanto desde el punto de vista social como constructivo. Se ha podido documentar materialmente esta ocupación tras la restauración de Medinaceli, en torno a 946, y la sucedida tras la toma de Sepúlveda por parte de Almanzor en 984, diferenciándose claramente las técnicas constructivas propias de este momento, ejecutadas directamente por talleres foráneos, procedentes de Córdoba y Toledo. La posición estratigráfica de estas fábricas diagnósticas ha permito identificar fases constructivas inmediatamente anteriores y posteriores a este momento. También se ha podido comprobar la hipótesis inicial en relación a la pérdida de conocimientos constructivos durante el final de la Antigüedad y los primeros siglos del medievo en la zona estudiada. La sillería y la explotación de canteras, así como el ciclo productivo del ladrillo por completo, son recuperados sin recurrir a un sustrato tecnológico local, propiciados de manera efímera por la ocupación califal. Cuando se produce el desmembramiento del califato a partir del año 1010 estas técnicas se vuelven a abandonar. A finales del siglo XI y principios del siglo XII se produce un nuevo cambio en la construcción, recuperándose de nuevo estas técnicas de la mano del románico y del establecimiento de la red parroquial diocesana. En una zona y periodo histórico apenas explotado por la investigación, esta tesis doctoral busca no solo establecer una metodología de trabajo sino sentar las bases para futuros estudios, tanto desde el punto de vista particular, profundizando en el estudio constructivo y estratigráfico de cada uno de los elementos recogidos, como en otros aspectos más trasversales. ABSTRACT This doctoral thesis has a constructive historical material approach to the reality of the fortifications built in the center of the Iberian Peninsula during the first centuries of the middle Ages. The geographical framework extends from the Duero´s riverbed, bounded by the valleys of its tributaries, the Duratón on the west, and the Escalote on the east, until to the peaks of the eastern Central System at its connection with the Iberian, to descend the hillside of the mountain range to the high valleys of Lozoya, Jarama and Henares. Following the current demarcations under this framework study, partially cover the provinces of Soria, Guadalajara, Madrid, Segovia, Burgos and Valladolid. From a chronological point of view, the temporal space began with the Muslim conquest of the Iberian Peninsula in 711 A.D and ends with the final incorporation into the Kingdom of Castile in the studied areas, around the year 1150 A.D. It is a transitional gathering point, both socially and ecologically. The southern territories of the Sierra or mountain range corresponded to the northern boundaries of the Middle mark of al- Andalus , while the northern missing, the extrema Durii , were a disorganized sparsely populated territory and point of the expansion of the kingdoms of Leon and Castile and zone of conflict with al- Andalus at the beginning of the tenth century. Such a wide and diverse territory, connected with a complex historical, social evolution and the lack of written sources , has required an approach with a mixed type methodology, which have converged the techniques of historical documentation of the archeology and building history. This methodology comes from a comprehensive bibliographic study, after which an archaeological survey was directed that allowed building a fortified elements ‘catalog in the study area likely to contain high medieval period phases were raised. On each of the elements located one metric data collection and constructive graphic type was performed. Checking against the data collected in each building with its own history of stratigraphy and construction techniques and finally, they were identified and isolated the timing analysis phases. Among the early medieval fortifications that showed high period Medieval phases and according to its uniqueness , representativeness and stratigraphy’s quality of the nine case studies : the fortified complex of Atienza, Cogolludo Castle, the Buitrago de Lozoya´s walled enclosure , the Caracena´s castle , the Mezquetillas´ parish church, the Gormaz´s fortress, the San Andres toser in Sepulveda, the church of San Miguel de Ayllón and the Alcolea de las Peñas´ rock fortress. This research study has served two main purposes. The first focuses on the material side. In this sense it does not only identified the presence or absence of early medieval period phases in each one of the building, which has allowed a territorial reading and the characterization of the different construction techniques and materials, but it also assess the possibility of establishing a chrono–typology. The second focuses on historical and social aspects. The bound of these materials remains with the historical documentation has become a means to know the history of the people who built these buildings, the motivation that led them to undertake such projects as well as the context in which each of these fortifications played the functions for which it was created. This study has revealed the breach that led to the state occupation of the Cordovan army in this area by since mid-tenth century, from the social point of view and also from the structural one. It has been materially document this occupation after the restoration of Medinaceli, around 946, and succeeded after taking Sepulveda by Almanzor in 984, clearly differentiating their own building techniques currently implemented directly by foreign workshops, from Cordova and Toledo. The stratigraphic position of these factories has made it possible to identify earlier and later construction phases at this time. It has also been able to verify the initial hypothesis in relation with constructive knowledge loss during late antiquity and early medieval centuries in the studied area. Also ashlar, masonries as well as the brick production is recovered without resorting to a local technological substrate, fleetingly brought about by the Caliphate occupation. When the dismemberment of the Caliphate is produced from the year 1010 these techniques were abandoned again. In the late eleventh and early twelfth century these techniques are recovered from Romanesque and a new change came, also from the establishment of the diocesan parish network. In one historical period that has been hardly exploited by research, this thesis seeks not only to establish a working methodology but lay the groundwork for future studies, both from the particular point of view, paying special attention in the constructive and stratigraphic studies of each of the evidence collected , and additionally in other more transversal aspects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contiene: Detalles y Cortes de los Templos en TALAVERA la Vieja / Moulinier del. ; N. L. Rousseau sculp. Plano del Monasterio de JUSTE / Moulinier del. ; Kamermann sculp. Plano del Alcazar de la ALAMBRA. Plano del GENERALIFE de GRENADA [sic] / Thierry scup. Plano de los Baños de ALHANGE / Moulinier del. ; Vicq sculp. Plano de la Mezquita de CORDOVA segun su estado actual / Moulinier del. ; [...]. Plano de la Mezquita de CORDOVA en tiempo de los Arabes / Dormier sculp.t