59 resultados para CALIDAD DE LOS DATOS

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Debido a la existencia de recomendaciones europeas que establecen valores por defecto ante la ausencia de datos en el proceso de realización de un mapa de ruido [1], se ha evaluado la influencia de aplicar dichos valores en un caso concreto como es el mapa estratégico de ruido de Palma de Mallorca. Se compararon los resultados de la simulación tras aplicar dichos valores por defecto con niveles de ruido obtenidos mediante medidas experimentales y se analizaron las desviaciones para determinar la calidad del modelo. Después de obtener un primer resultado de calidad inaceptable, se ha cuantificado la mejora de los resultados tras la utilización de datos de entrada de mayor calidad al modelo acústico. Este análisis demuestra que el uso de datos por defecto, en ausencia de datos de entrada de mayor calidad, genera unos resultados con desviaciones superiores a los 9 dB. Consecuentemente, se obtuvieron nuevos datos de entrada al modelo con mayor calidad, analizando su efecto en la reducción de la incertidumbre del resultado final del mapa de ruido. El proceso de obtención de dichos datos consistió en el desarrollo de una actualización de los datos de tráfico con mayor número de datos de flujo; la implementación de una nueva categorización viaria; y la utilización de técnicas novedosas para la adquisición de composición y velocidad de tráfico

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante los años 2008, 2009 y 2010 se han llevado a cabo, a nivel estatal, diversas actuaciones encaminadas a evaluar la alteración ecohidrológica de las masas de agua. Esta evaluación se llevó a cabo con la metodología y aplicación IAHRIS. Durante el desarrollo de estos trabajos se constató la necesidad de crear una herramienta que permitiera una mejor adecuación de los valores de la Red Oficial de Estaciones de Aforo (ROEA) a las diferentes herramientas que permiten valorar la alteración hidrológica de los regímenes hidrológicos, con especial atención a su aplicación a través del modelo IAHRIS. La aplicación web creada, denominada SEDAR (Servidor de Datos para Estudio de la Alteración Hidrológica), ayuda a solventar esta tarea, por un lado agilizando el trámite de selección de estaciones de aforo, fechas, tipo de serie de aforo, valoración preliminar de la calidad de los datos, clasificación referencia-alterado de los caudales, exportación de datos, y por otro proporcionando información completada tanto para datos mensuales y diarios, disponiendo de esta manera de un mayor volumen de datos en los formatos nativos de IAHRIS e IHA. De este modo, se dispone de una aplicación de fácil acceso por el usuario y con gran valor para la realización de estudios de alteración hidrológica, propuestas de régimen de caudal ambiental y proyectos de restauración fluvial; además constituye una aplicación base para la incorporación de nuevas funcionalidades de mayor alcance ligadas a la obtención de datos en régimen natural o de referencia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las propiedades de los materiales pueden definirse como aquellas que se relacionan con el comportamiento de los mismos cuando se les aplican unas fuerzas. Un creciente interés por las propiedades mecánicas de frutos y hortalizas ha llevado a un gran desarrollo de las investigaciones con el objetivo de determinar estas propiedades. El estudio de las propiedades mecánicas de los productos hortofrutícolas puede realizarse bajo diferentes aspectos: determinación del momento óptimo de recolección, evaluación de la lectura, susceptibilidad a los daños mecánicos durante la recolección, el transporte y la manipulación, facilidad para el procesado y otros. Todos ellos son aspectos que intervienen de forma muy importante en la calidad de los productos, habiendo de entender como tal no solamente el sabor, el aspecto externo, la textura interna y resistencia a la masticación, etc., sino también otras importantes características, como la aptitud para efectuar la recolección y demás operaciones de transporte y transformación sin que haya que registrar pérdidas por falta de adecuación; de los frutos a las manipulaciones a que se les someten durante todo el proceso. Hay pocos métodos y técnicas ampliamente generalizados para determinar las propiedades mecánicas que afectan a la calidad de la frute}, por lo que los resultados obtenidos por un investigador rara vez pueden Compararse con los obtenidos por otro. Algunos ensayos de tipo estático para la determinación de la textura (penetración Magness-Taylor o compresión de probetas) han conseguido Generalizarse. Sin embargo, en el aspecto de las cargas rápidas o impactos, no existen métodos de ensayo bien conocidos y generalizados, siendo precisamente los impactos o golees una de las causas principales de las pérdidas de frutas por daños. El impacto se diferencia de una carga estática en el hecho de que las fuerzas creadas en la colisión se aplican y se retiran en un tiempo muy pequeño, del orden de 10 milésimas de segundo que es el «tiempo o duración del impacto». Varios investigadores han descrito el impacto como un fenómeno elasto-plástico, lo que supone que el fruto se comporta parcialmente como elástico y parcialmente como plástico; este comportamiento está ligado a la constitución del tejido: células de paredes resistentes, fundamentalmente elásticas, y citoplasma y vacuolas de naturaleza plástica o viscosa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Inicio del desarrollo de un algoritmo eficiente orientado a dispositivos con baja capacidad de proceso, que ayude a personas sin necesariamente una preparación adecuada a llevar a cabo un proceso de toma de una señal biológica, como puede ser un electrocardiograma. La aplicación deberá, por tanto, asesorar en la toma de la señal al usuario, evaluar la calidad de la grabación obtenida, y en tiempo seudo real, comprobar si la calidad de la señal obtenida es suficientemente buena para su posterior diagnóstico, de tal modo que en caso de que sea necesaria una repetición de la prueba médica, esta pueda realizarse de inmediato. Además, el algoritmo debe extraer las características más relevantes de la señal electrocardiográfica, procesarlas, y obtener una serie de patrones significativos que permitan la orientación a la diagnosis de algunas de las patologías más comunes que se puedan extraer de la información de las señales cardíacas. Para la extracción, evaluación y toma de decisiones de este proceso previo a la generación del diagnóstico, se seguirá la arquitectura clásica de un sistema de detección de patrones, definiendo las clases que sean necesarias según el número de patologías que se deseen identificar. Esta información de diagnosis, obtenida mediante la identificación del sistema de reconocimiento de patrones, podría ser de ayuda u orientación para la posterior revisión de la prueba por parte de un profesional médico cualificado y de manera remota, evitando así el desplazamiento del mismo a zonas donde, por los medios existentes a día de hoy, es muy remota la posibilidad de presencia de personal sanitario. ABTRACT Start of development of an efficient algorithm designed to devices with low processing power, which could help people without adequate preparation to undertake a process of taking a biological signal, such as an electrocardiogram. Therefore, the application must assist the user in taking the signal and evaluating the quality of the recording. All of this must to be in live time. It must to check the quality of the signal obtained, and if is it necessary a repetition of the test, this could be done immediately. Furthermore, the algorithm must extract the most relevant features of the ECG signal, process it, and get meaningful patterns that allow to a diagnosis orientation of some of the more common diseases that can be drawn from the cardiac signal information. For the extraction, evaluation and decision making in this previous process to the generation of diagnosis, we will follow the classic architecture of a pattern recognition system, defining the necessary classes according to the number of pathologies that we wish to identify. This diagnostic information obtained by identifying the pattern recognition system could be for help or guidance for further review of the signal by a qualified medical professional, and it could be done remotely, thus avoiding the movements to areas where nowadays it is extremely unlikely to place any health staff, due to the poor economic condition.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMEN Las enfermedades cardiovasculares constituyen en la actualidad la principal causa de mortalidad en el mundo y se prevé que sigan siéndolo en un futuro, generando además elevados costes para los sistemas de salud. Los dispositivos cardiacos implantables constituyen una de las opciones para el diagnóstico y el tratamiento de las alteraciones del ritmo cardiaco. La investigación clínica con estos dispositivos alcanza gran relevancia para combatir estas enfermedades que tanto afectan a nuestra sociedad. Tanto la industria farmacéutica y de tecnología médica, como los propios investigadores, cada día se ven involucrados en un mayor número de proyectos de investigación clínica. No sólo el incremento en su volumen, sino el aumento de la complejidad, están generando mayores gastos en las actividades asociadas a la investigación médica. Esto está conduciendo a las compañías del sector sanitario a estudiar nuevas soluciones que les permitan reducir los costes de los estudios clínicos. Las Tecnologías de la Información y las Comunicaciones han facilitado la investigación clínica, especialmente en la última década. Los sistemas y aplicaciones electrónicos han proporcionado nuevas posibilidades en la adquisición, procesamiento y análisis de los datos. Por otro lado, la tecnología web propició la aparición de los primeros sistemas electrónicos de adquisición de datos, que han ido evolucionando a lo largo de los últimos años. Sin embargo, la mejora y perfeccionamiento de estos sistemas sigue siendo crucial para el progreso de la investigación clínica. En otro orden de cosas, la forma tradicional de realizar los estudios clínicos con dispositivos cardiacos implantables precisaba mejorar el tratamiento de los datos almacenados por estos dispositivos, así como para su fusión con los datos clínicos recopilados por investigadores y pacientes. La justificación de este trabajo de investigación se basa en la necesidad de mejorar la eficiencia en la investigación clínica con dispositivos cardiacos implantables, mediante la reducción de costes y tiempos de desarrollo de los proyectos, y el incremento de la calidad de los datos recopilados y el diseño de soluciones que permitan obtener un mayor rendimiento de los datos mediante la fusión de datos de distintas fuentes o estudios. Con este fin se proponen como objetivos específicos de este proyecto de investigación dos nuevos modelos: - Un modelo de recuperación y procesamiento de datos para los estudios clínicos con dispositivos cardiacos implantables, que permita estructurar y estandarizar estos procedimientos, con el fin de reducir tiempos de desarrollo Modelos de Métrica para Sistemas Electrónicos de Adquisición de Datos y de Procesamiento para Investigación Clínica con Dispositivos Cardiacos Implantables de estas tareas, mejorar la calidad del resultado obtenido, disminuyendo en consecuencia los costes. - Un modelo de métrica integrado en un Sistema Electrónico de Adquisición de Datos (EDC) que permita analizar los resultados del proyecto de investigación y, particularmente del rendimiento obtenido del EDC, con el fin de perfeccionar estos sistemas y reducir tiempos y costes de desarrollo del proyecto y mejorar la calidad de los datos clínicos recopilados. Como resultado de esta investigación, el modelo de procesamiento propuesto ha permitido reducir el tiempo medio de procesamiento de los datos en más de un 90%, los costes derivados del mismo en más de un 85% y todo ello, gracias a la automatización de la extracción y almacenamiento de los datos, consiguiendo una mejora de la calidad de los mismos. Por otro lado, el modelo de métrica posibilita el análisis descriptivo detallado de distintos indicadores que caracterizan el rendimiento del proyecto de investigación clínica, haciendo factible además la comparación entre distintos estudios. La conclusión de esta tesis doctoral es que los resultados obtenidos han demostrado que la utilización en estudios clínicos reales de los dos modelos desarrollados ha conducido a una mejora en la eficiencia de los proyectos, reduciendo los costes globales de los mismos, disminuyendo los tiempos de ejecución, e incrementando la calidad de los datos recopilados. Las principales aportaciones de este trabajo de investigación al conocimiento científico son la implementación de un sistema de procesamiento inteligente de los datos almacenados por los dispositivos cardiacos implantables, la integración en el mismo de una base de datos global y optimizada para todos los modelos de dispositivos, la generación automatizada de un repositorio unificado de datos clínicos y datos de dispositivos cardiacos implantables, y el diseño de una métrica aplicada e integrable en los sistemas electrónicos de adquisición de datos para el análisis de resultados de rendimiento de los proyectos de investigación clínica. ABSTRACT Cardiovascular diseases are the main cause of death worldwide and it is expected to continue in the future, generating high costs for health care systems. Implantable cardiac devices have become one of the options for diagnosis and treatment of cardiac rhythm disorders. Clinical research with these devices has acquired great importance to fight against these diseases that affect so many people in our society. Both pharmaceutical and medical technology companies, and also investigators, are involved in an increasingly number of clinical research projects. The growth in volume and the increase in medical research complexity are contributing to raise the expenditure level associated with clinical investigation. This situation is driving health care sector companies to explore new solutions to reduce clinical trial costs. Information and Communication Technologies have facilitated clinical research, mainly in the last decade. Electronic systems and software applications have provided new possibilities in the acquisition, processing and analysis of clinical studies data. On the other hand, web technology contributed to the appearance of the first electronic data capture systems that have evolved during the last years. Nevertheless, improvement of these systems is still a key aspect for the progress of clinical research. On a different matter, the traditional way to develop clinical studies with implantable cardiac devices needed an improvement in the processing of the data stored by these devices, and also in the merging of these data with the data collected by investigators and patients. The rationale of this research is based on the need to improve the efficiency in clinical investigation with implantable cardiac devices, by means of reduction in costs and time of projects development, as well as improvement in the quality of information obtained from the studies and to obtain better performance of data through the merging of data from different sources or trials. The objective of this research project is to develop the next two models: • A model for the retrieval and processing of data for clinical studies with implantable cardiac devices, enabling structure and standardization of these procedures, in order to reduce the time of development of these tasks, to improve the quality of the results, diminish therefore costs. • A model of metric integrated in an Electronic Data Capture system (EDC) that allow to analyze the results of the research project, and particularly the EDC performance, in order to improve those systems and to reduce time and costs of the project, and to get a better quality of the collected clinical data. As a result of this work, the proposed processing model has led to a reduction of the average time for data processing by more than 90 per cent, of related costs by more than 85 per cent, and all of this, through automatic data retrieval and storage, achieving an improvement of quality of data. On the other hand, the model of metrics makes possible a detailed descriptive analysis of a set of indicators that characterize the performance of each research project, allowing inter‐studies comparison. This doctoral thesis results have demonstrated that the application of the two developed models in real clinical trials has led to an improvement in projects efficiency, reducing global costs, diminishing time in execution, and increasing quality of data collected. The main contributions to scientific knowledge of this research work are the implementation of an intelligent processing system for data stored by implantable cardiac devices, the integration in this system of a global and optimized database for all models of devices, the automatic creation of an unified repository of clinical data and data stored by medical devices, and the design of a metric to be applied and integrated in electronic data capture systems to analyze the performance results of clinical research projects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las aplicaciones tecnológicas obtenidas a partir de sensores láser aerotransportados (Airborne Laser Scanner, ALS), han supuesto una gran expectativa para mejorar la calidad de los datos del inventario forestal, mediante su actualización y la posible disminución de los costes de inventario. Sin embargo, todavía existen problemas de aplicación que no están resueltos de manera que su empleo como sustitutivo de un inventario tradicional presenta algunas incógnitas, tanto de carácter técnico como económicas. Por ello, en este trabajo se va a realizar un estudio analítico de costes de utilización, teniendo en cuenta los objetivos del inventario y las limitaciones de la técnica. El caso de estudio se sitúa en el Pinar de Valsaín (Segovia).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las conferencias presentadas durante la Jornada Técnica sobre Avances en investigación aplicada en seguridad hidráulica de presas organizada por el Centro de Estudios Hidrográficos del CEDEX y la Universidad Politécnica de Madrid el mes de junio de 2013 versan sobre la mejora de la seguridad hidráulica de las presas, una materia de especial importancia en nuestro país (habida cuenta del elevado número de infraestructuras de regulación en servicio y de su antigüedad media) y constituye una tarea en la que tanto el CEDEX como la Universidad Politécnica de Madrid han trabajado activamente en los últimos años. Todo profesional familiarizado con las presas conoce la dificultad de analizar su comportamiento, a veces sorprendente, con el grado de aproximación deseado. Esta dificultad emana de la complejidad de todos los elementos que afectan al modo en que la presa y el terreno de apoyo responden a las solicitaciones, y también a la complejidad de las propias solicitaciones. Muchas de las características del conjunto presa-terreno escapan a las posibilidades de modelación mediante los modelos disponibles de base teórica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La web ha sufrido una drástica transformación en los últimos años, debido principalmente a su popularización y a la enorme cantidad de información que alberga. Debido a estos factores se ha dado el salto de la denominada Web de Documentos, a la Web Semántica, donde toda la información está relacionada con otra. Las principales ventajas de la información enlazada estriban en la facilidad de reutilización, accesibilidad y disponibilidad para ser encontrada por el usuario. En este trabajo se pretende poner de manifiesto la utilidad de los datos enlazados aplicados al ámbito geográfico y mostrar como pueden ser empleados hoy en día. Para ello se han explotado datos enlazados de carácter espacial provenientes de diferentes fuentes, a través de servidores externos o endpoints SPARQL. Además de eso se ha trabajado con un servidor privado capaz de proporcionar información enlazada almacenada en un equipo personal. La explotación de información enlazada se ha implementado en una aplicación web en lenguaje JavaScript, tratando de abstraer totalmente al usuario del tratamiento de los datos a nivel interno de la aplicación. Esta aplicación cuenta además con algunos módulos y opciones capaces de interactuar con las consultas realizadas a los servidores, consiguiendo un entorno más intuitivo y agradable para el usuario. ABSTRACT: In recent years the web has suffered a drastic transformation because of the popularization and the huge amount of stored information. Due to these factors it has gone from Documents web to Semantic web, where the data are linked. The main advantages of Linked Data lie in the ease of his reuse, accessibility and availability to be located by users. The aim of this research is to highlight the usefulness of the geographic linked data and show how can be used at present time. To get this, the spatial linked data coming from several sources have been managed through external servers or also called endpoints. Besides, it has been worked with a private server able to provide linked data stored in a personal computer. The use of linked data has been implemented in a JavaScript web application, trying completely to abstract the internally data treatment of the application to make the user ignore it. This application has some modules and options that are able to interact with the queries made to the servers, getting a more intuitive and kind environment for users.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la Web 2.0, donde usuarios finales sin grandes conocimientos de programación pueden interactuar y crear aplicaciones web utilizando componentes publicados en Internet, ofrecidos por una gran variedad de proveedores de servicio. La selección de estos componentes requiere de un análisis exhaustivo por parte de los usuarios sobre las propiedades de estos componentes en referencia a su calidad. En este proyecto, se presentan dos modelos de calidad según una estructura jerárquica, uno para componentes web como elementos autónomos y otro para componentes utilizados en aplicaciones de mashup, basado en un análisis de la emergente Web 2.0. Además, se define una herramienta de medición y anotación de calidad para los distintos niveles de los modelos. Estas herramientas pretenden ser un útil instrumento para los desarrolladores y usuarios de componentes y mashups.---ABSTRACT---In the Web 2.0, where end users without a technical programming background can interact and develop web applications leveraging web components published on the Internet, offered by a great diversity of service providers. This component selection requires an exhaustive analysis by these end users based on the requirements of these components related to their quality. In this work, two quality models are presented according to a hierarchical structure, one for web components as independent elements and another one for web components as parts of web mashup applications, based on an analysis of the emerging Web 2.0. In addition, a measuring and write down quality framework is defined to weigh the quality of all the levels of the models. These tools intend to provide a useful instrument to components and mashup developers and end users.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente documento, evalúa y analiza el ruido existente en las inmediaciones del CEIS (Centro Estudio, Innovación y Servicios), situado en la carretera Villaviciosa de Odón a Móstoles (M-856) en el Km 1,5. El objetivo es obtener datos de nivel de ruido en función del tiempo para conocer su variabilidad a lo largo de la semana, para promover una intercomparación entre laboratorios con ruido real. La zona que contempla el proyecto tiene variedad de ruido medioambiental: ruido de tráfico rodado, ruido industrial, ruido de instalaciones y ruido de tráfico aéreo. Estas fuentes de ruido pueden presentarse en diversas combinaciones. Para el ruido total existente, se analiza por un lado el ruido específico de la carretera M-856, y por otro lado el ruido residual asociado a sucesos aislados, como el ruido de tráfico aéreo, ruido industrial y de instalaciones. Para el cálculo de los niveles sonoros de la zona se realiza una evaluación del índice de ruido Ld, para el periodo de día, utilizando como herramienta de cálculo el programa CadnaA versión 4.2. Se realiza la validación de los niveles sonoros obtenidos en el CadnaA en las inmediaciones de la carretera Villaviciosa de Odón a Móstoles. Para ello se comparan los niveles obtenidos en el modelo acústico de la zona elaborado mediante CadnaA y los niveles medidos “in-situ”. Una vez obtenidos los niveles sonoros, se calcula la incertidumbre de las medidas ejecutadas “in-situ” en la última jornada de mediciones realizada, correspondientes a niveles de presión sonora continuos equivalente ponderado A (LAeq, 5min) y de las medidas simuladas en CadnaA , teniendo en cuenta las posibles desviaciones ocasionadas por el equipo de medida, condiciones meteorológicas, variaciones del tráfico, metodología de ensayo..... Por último se valoran los datos obtenidos y se evalúa la posibilidad de promover una intercomparación entre laboratorios realizada con el ruido real de tráfico de la zona. ABSTRACT. The next document evaluates the noise in sorrounding areas of CEIS (Centro Estudio, Innovación y Servicios), located in the road from Villaviciosa de Odón to Móstoles (M-856), in 1.5 km. The aim of this project is to get precise information during time to promove an intercomparation between laboratories with real noise. The area included in the project has several environmental noise: traffic noise, industrial noise and air traffic noise. These noise sources can be combined in different ways. The specific noise of the M-856 on one hand, and the residual noise associated with air traffic noise and industrial noise on the other. The calculation tool CadnaA, 4.2 version, simulates sound levels for the day period and the index Ld. The validation of sound levels around the road Villaviciosa de Odon to Móstoles, is made by comparing the obtained levels in the acoustic model and the real measured levels “in situ” . The uncertainty of the measures "in-situ", and the uncertainty of the sound levels simulated in the acoustic model CadnaA, is calculated using the measurements “in situ” (LAeq, 5min) of the last day. For that calculation, is necessary to take into account the deviations resulting from the measurement equipment, weather conditions, traffic variations, test methodology.... Finally the obtained data are evaluated, considering the possibility of promote an intercomparison between laboratories with real traffic noise of the area.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante los años 2008, 2009 y 2010 se han llevado a cabo, a nivel estatal, diversas actuaciones encaminadas a evaluar la alteración ecohidrológica de las masas de agua. Esta evaluación se llevó a cabo con la metodología y aplicación IAHRIS. Durante el desarrollo de estos trabajos se constató la necesidad de crear una herramienta que permitiera una mejor adecuación de los valores de la Red Oficial de Estaciones de Aforo (ROEA) a las diferentes herramientas que permiten valorar la alteración hidrológica de los regímenes hidrológicos, con especial atención a su aplicación a través del modelo IAHRIS. La aplicación web creada, denominada SEDAR (Servidor de Datos para Estudio de la Alteración Hidrológica), ayuda a solventar esta tarea, por un lado agilizando el trámite de selección de estaciones de aforo, fechas, tipo de serie de aforo, valoración preliminar de la calidad de los datos, clasificación referencia-alterado de los caudales, exportación de datos, y por otro proporcionando información completada tanto para datos mensuales y diarios, disponiendo de esta manera de un mayor volumen de datos en los formatos nativos de IAHRIS e IRA. De este modo, se dispone de una aplicación de fácil acceso por el usuario y con gran valor para la realización de estudios de alteración hidrológica, propuestas de régimen de caudal ambiental y proyectos de restauración fluvial; además constituye una aplicación base para la incorporación de nuevas funcionalidades de mayor alcance ligadas a la obtención de datos en régimen natural o de referencia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto de fin de grado es uno de los resultados generados en un proyecto de financiación privada por parte de Telefónica consistente en el desarrollo y posterior implantación de un sistema para minería de datos de empresas presentes en Internet. Este TFG surge a partir de un proyecto que el grupo de investigación AICU-LABS (Mercator) de la UPM ha desarrollado para Telefónica, y tiene como elemento principal el desarrollo de Agentes web (también llamados robots software, “softbots” o “crawlers”) capaces de obtener datos de empresas a partir de sus CIF a través de internet. El listado de empresas nos los proporciona Telefónica, y está compuesto por empresas que no son clientes de Telefónica en la actualidad. Nuestra misión es proporcionarles los datos necesarios (principalmente teléfono, correo electrónico y dirección de la empresa) para la creación de una base de datos de potenciales clientes. Para llevar a cabo esta tarea, se ha realizado una aplicación que, a partir de los CIF que nos proporcionan, busque información en internet y extraiga aquella que nos interese. Además se han desarrollado sistemas de validación de datos para ayudarnos a descartar datos no válidos y clasificar los datos según su calidad para así maximizar la calidad de los datos producidos por el robot. La búsqueda de datos se hará tanto en bases de datos online como, en caso de localizarlas, las propias páginas web de las empresas. ABSTRACT This Final Degree Project is one of the results obtained from a project funded by Telefónica. This project consists on the development and subsequent implantation of a system which performs data mining on companies operating on the Internet. This document arises from a project the research group AICU-LABS (Mercator) from the Universidad Politécnica de Madrid has developed for Telefónica. The main goal of this project is the creation of web agents (also known as “crawlers” or “web spiders”) able to obtain data from businesses through the Internet, knowing only their VAT identification number. The list of companies is given by Telefónica, and it is composed by companies that are not Telefónica’s customers today. Our mission is to provide the data required (mainly phone, email and address of the company) to create a database of potential customers. To perform this task, we’ve developed an application that, starting with the given VAT numbers, searches the web for information and extracts the data sought. In addition, we have developed data validation systems, that are capable of discarding low quality data and also sorting the data according to their quality, to maximize the quality of the results produced by the robot. We’ll use both the companies’ websites and external databases as our sources of information.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Arquitectura de almacenamiento para imágenes JPEG2000 basado en la fragmentación del fichero para poder almacenar los datos en diferentes discos para optimizar el almacenamiento en función de la calidad de los datos y posibilitar el aumento de transferencia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La utilización de simulaciones por ordenador en el campo de la neurociencia, ofrece una mejora radical en el método científico al proporcionar un medio en el que poder probar hipótesis sobre los complejos modelos biológicos. Hay que tener en cuenta que la calidad de las simulaciones es directamente proporcional a la calidad de los datos y a la exactitud en la abstracción matemática de los procesos biológicos. Las sinapsis son los contactos que permiten el intercambio de información entre neuronas. A través de ellas, las neuronas son capaces de formar circuitos que intervienen en las operaciones funcionales específicas de las distintas regiones del cerebro. Por tanto, puede considerarse a la sinapasis como la estructura elemental y la unidad funcional en la construcción de circuitos neuronales. La inmensa mayoría de las sinapsis del cerebro de los vertebrados son sinapsis químicas. En ellas el elemento presináptico es generalmente un terminal axónico, mientras que el elemento postsináptico puede ser un cuerpo neuronal, el segmento inicial del axón, un tronco dendrítico o una espina dendrítica. Las membranas de los elementos pre y postsináptico no entran en contacto, sino que están separadas por un pequeño espacio denominado hendidura sináptica. En una sinapsis química, el elemento presináptico libera una sustancia química, el neurotransmisor, que difunde por la hendidura sináptica y actúa sobre el elemento postsináptico. Desde un punto de vista operacional, una sinapsis convierte un impulso eléctrico que alcanza el elemento presináptico en una señal química, que a su vez provoca un fenómeno eléctrico en el lado postsináptico. Para que esto ocurra, el neurotransmisor liberado debe difundir por la hendidura sináptica e interactuar con receptores específicos presentes en la membrana postsináptica. Dependiendo del tipo de neurotransmisor utilizado y de los receptores implicados la sinapsis podrá ser excitatoria, si se estimula el elemento postsináptico, o inhibitoria si ocurre lo contrario.La transmisión sináptica ocurre a escala submicroscópica, lo que la hace inaccesible a la observación experimental directa. Sin embargo, tanto la difusión del neurotransmisor como su interacción con los receptores sinápticos pueden simularse dado que dependen de parámetros fisico-químicos conocidos. En este trabajo hemos elegido como objeto de estudio una sinapsis glutamatérgica (que usa glutamato como neurotransmisor excitatorio) debido a que es la sinapsis más común en la corteza cerebral. Si bien se conocen las propiedades de los diferentes tipos de receptores de glutamato, se desconoce la influencia que pueda tener en el comportamiento de la sinapsis la geometría de ésta, es decir, su forma y tamaño. Sabemos por estudios de microscopía electrónica que tanto la forma como el tamaño de las sinapsis son muy variables, y es precisamente esta variabilidad la que pretendemos simular, junto con otros parámetros como el número de receptores de neurotransmisor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una de las características de la cartografía y SIG Participativos (SIGP) es incluir en sus métodos a la sociedad civil para aportar contenidos cualitativos a la información de sus territorios. Sin embargo no sólo se trata de datos, sino de los efectos que pueden tener estas prácticas sobre el territorio y su sociedad. El acceso a esa información se ve reducida en contraste con el incremento de información difundida a través de servicios de visualización, geoinformación y cartografía on-line. Todo esto hace que sea necesario el análisis del alcance real de las metodologías participativas en el uso de Información Geográfica (IG) y la comparación desde distintos contextos geográficos. También es importante conocer los beneficios e inconvenientes del acceso a la información para el planeamiento; desde la visibilidad de muchos pueblos desapercibidos en zonas rurales y periféricas, hasta la influencia en programas de gobierno sobre la gestión del territorio pasando por el conocimiento local espacial. El análisis se centró en los niveles de participación de la sociedad civil y sus grados de accesibilidad a la información (acceso y uso), dentro del estudio de los SIGP, Participatory Mapping, además se estudió de los TIG (Tecnologías de Información Geográfica), cartografías on-line (geoweb) y plataformas de geovisualización espacial, como recursos de Neocartografía. En este sentido, se realizó un trabajo de campo de cartografía participativa en Bolivia, se evaluaron distintos proyectos SIGP en países del norte y sur (comparativa de contextos en países en desarrollo) y se analizaron los resultados del cruce de las distintas variables.(validación, accesibilidad, verificación de datos, valor en la planificación e identidad) La tesis considera que ambos factores (niveles de participación y grado de accesibilidad) afectan a la (i) validación, verificación y calidad de los datos, la (ii) valor analítico en la planificación, y al (iii) modelo de identidad de un lugar, y que al ser tratados de forma integral, constituyen el valor añadido que los SIGP pueden aportar para lograr una planificación efectiva. Asimismo se comprueba, que la dimensión participativa en los SIGP varía según el contexto, la centralización de sus actores e intereses sectoriales. La información resultante de las prácticas SIGP tiende a estar restringida por la falta de legislaciones y por la ausencia de formatos estándar, que limitan la difusión e intercambio de la información. Todo esto repercute en la efectividad de una planificación estratégica y en la viabilidad de la implementación de cualquier proyecto sobre el territorio, y en consecuencia sobre los niveles de desarrollo de un país. Se confirma la hipótesis de que todos los elementos citados en los SIGP y mapeo participativo actuarán como herramientas válidas para el fortalecimiento y la eficacia en la planificación sólo si están interconectadas y vinculadas entre sí. Se plantea una propuesta metodológica ante las formas convencionales de planificación (nueva ruta del planeamiento; que incluye el intercambio de recursos y determinación participativa local antes de establecer la implementación), con ello, se logra incorporar los beneficios de las metodologías participativas en el manejo de la IG y los SIG (Sistemas de Información Geográfica) como instrumentos estratégicos para el desarrollo de la identidad local y la optimización en los procesos de planeamiento y estudios del territorio. Por último, se fomenta que en futuras líneas de trabajo los mapas de los SIGP y la cartografía participativa puedan llegar a ser instrumentos visuales representativos que transfieran valores identitarios del territorio y de su sociedad, y de esta manera, ayudar a alcanzar un mayor conocimiento, reconocimiento y valoración de los territorios para sus habitantes y sus planificadores. ABSTRACT A feature of participatory mapping and PGIS is to include the participation of the civil society, to provide qualitative information of their territories. However, focus is not only data, but also the effects that such practices themselves may have on the territory and their society. Access to this information is reduced in contrast to the increase of information disseminated through visualization services, geoinformation, and online cartography. Thus, the analysis of the real scope of participatory methodologies in the use of Geographic Information (GI) is necessary, including the comparison of different geographical contexts. It is also important to know the benefits and disadvantages of access to information needed for planning in different contexts, ranging from unnoticed rural areas and suburbs to influence on government programs on land management through local spatial knowledge. The analysis focused on the participation levels of civil society and the degrees of accessibility of the information (access and use) within the study of Participatory GIS (PGIS). In addition, this work studies GIT (Geographic Information Technologies), online cartographies (Geoweb) and platforms of spatial geovisualization, as resources of Neocartography. A participatory cartographic fieldwork was carried out in Bolivia. Several PGIS projects were evaluated in Northern and Southern countries (comparatively with the context of developing countries), and the results were analyzed for each these different variables. (validation, accessibility, verification,value, identity). The thesis considers that both factors (participation levels and degree of accessibility) affect the (i) validation, verification and quality of the data, (ii) analytical value for planning, and (iii) the identity of a place. The integrated management of all the above cited criteria constitutes an added value that PGISs can contribute to reach an effective planning. Also, it confirms the participatory dimension of PGISs varies according to the context, the centralization of its actors, and to sectorial interests. The resulting information from PGIS practices tends to be restricted by the lack of legislation and by the absence of standard formats, which limits in turn the diffusion and exchange of the information. All of this has repercussions in the effectiveness of a strategic planning and in the viability of the implementation of projects about the territory, and consequentially in the land development levels. The hypothesis is confirmed since all the described elements in PGISs and participatory mapping will act as valid tools in strengthening and improving the effectivity in planning only if they are interconnected and linked amongst themselves. This work, therefore, suggests a methodological proposal when faced with the conventional ways of planning: a new planning route which includes the resources exchange and local participatory determination before any plan is established -. With this, the benefits of participatory methodologies in the management of GI and GIS (Geographic Information Systems) is incorporated as a strategic instrument for development of local identity and optimization in planning processes and territory studies. Finally, the study outlines future work on PGIS maps and Participatory Mapping, such that these could eventually evolve into visual representative instruments that transfer identity values of the territory and its society. In this way, they would contribute to attain a better knowledge, recognition, and appraisement of the territories for their inhabitants and planners.