1000 resultados para UOCTaskMan (aplicación informática) - Desarrollo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y optimización de redes topográficas, observadas mediante topografía convencional (no satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la definición de la geometría más fiable y precisa, en función de la orografía del terreno donde se tenga que ubicar. En primer lugar se realizará un estudio de la metodología del ajuste mediante mínimos cuadrados y la propagación de varianzas, para posteriormente analizar su dependencia de la geometría que adopte la red. Será imprescindible determinar la independencia de la matriz de redundancia (R) de las observaciones y su total dependencia de la geometría, así como la influencia de su diagonal principal (rii), números de redundancia, para garantizar la máxima fiabilidad interna de la misma. También se analizará el comportamiento de los números de redundancia (rii) en el diseño de una red topográfica, la variación de dichos valores en función de la geometría, analizando su independencia respecto de las observaciones así como los diferentes niveles de diseño en función de los parámetros y datos conocidos. Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible. Aunque el tratamiento del diseño esté basado en un sistema bidimensional se estudiará la posibilidad de incorporar un modelo digital de superficie (MDS); esto permitirá a la hora de diseñar el emplazamiento de los vértices de la red la viabilidad de las observaciones en función de la orografía y los elementos, tanto naturales como artificiales, que sobre ella estén ubicados. Este sistema proporcionaría, en un principio, un diseño óptimo de una red constreñida, atendiendo a la fiabilidad interna y a la precisión final de sus vértices, teniendo en cuenta la orografía, lo que equivaldría a resolver un planteamiento de diseño en dos dimensiones y media1; siempre y cuando se dispusiera de un modelo digital de superficie o del terreno. Dado que la disponibilidad de obtener de manera libre el MDS de las zonas de interés del proyecto, hoy en día es costoso2, se planteará la posibilidad de conjuntar, para el estudio del diseño de la red, de un modelo digital del terreno. Las actividades a desarrollar en el trabajo de esta tesis se describen en esta memoria y se enmarcan dentro de la investigación para la que se plantean los siguientes objetivos globales: 1. Establecer un modelo matemático del proceso de observación de una red topográfica, atendiendo a todos los factores que intervienen en el mismo y a su influencia sobre las estimaciones de las incógnitas que se obtienen como resultado del ajuste de las observaciones. 2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados, aplicando técnicas de diseño y simulación sobre el modelo anterior. 3. Presentar una formulación explícita y rigurosa de los parámetros que valoran la fiabilidad de una red topográfica y de sus relaciones con el diseño de la misma. El logro de este objetivo se basa, además de en la búsqueda y revisión de las fuentes, en una intensa labor de unificación de notaciones y de construcción de pasos intermedios en los desarrollos matemáticos. 4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y viabilidad de las mismas, instrumental y metodología de estacionamiento) como criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se aborda. 5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación que sea capaz de contemplar las variables planteadas en el apartado anterior en el problema del diseño y simulación de redes topográficas, contemplando el modelo digital de superficie. Podrían considerarse como objetivos secundarios, los siguientes apartados: Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con los propios del diseño. Implementar en la aplicación informática la posibilidad de variación, por parte del usuario, de los criterios de cobertura de los parámetros (distribución normal o t de Student), así como los grados de fiabilidad de los mismos ABSTRACT The overall purpose of this work is the analysis of the techniques of design and optimization for geodetic networks, measured with conventional survey methods (not satellite), the development and implementation of a computational system capable to help on the definition of the most liable and accurate geometry, depending on the land orography where the network has to be located. First of all, a study of the methodology by least squares adjustment and propagation of variances will be held; then, subsequently, analyze its dependency of the geometry that the network will take. It will be essential to determine the independency of redundancy matrix (R) from the observations and its absolute dependency from the network geometry, as well as the influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure maximum re liability of the network. It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network design, then the variation of these values depending on the geometry with the analysis of its independency from the observations, and finally the different design levels depending on parameters and known data. It should be stated that network optimization, according to exposed criteria, is subject to the accessibility of the network points. In addition, common visibility among network points, which of them are connected with observations, has to be considered. All these situations depends essentially on the terrain relief and the natural or artificial obstacles that should exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better a digital surface model (DSM), not always available. Although design treatment is based on a bidimensional system, the possibility of incorporating a digital surface model (DSM) will be studied; this will allow evaluating the observations feasibility based on the terrain and the elements, both natural and artificial, which are located on it, when selecting network point locations. This system would provide, at first, an optimal design of a constrained network, considering both the internal reliability and the accuracy of its points (including the relief). This approach would amount to solving a “two and a half dimensional”3 design, if a digital surface model is available. As the availability of free DSM4 of the areas of interest of the project today is expensive, the possibility of combining a digital terrain model will arise. The activities to be developed on this PhD thesis are described in this document and are part of the research for which the following overall objectives are posed: 1. To establish a mathematical model for the process of observation of a survey network, considering all the factors involved and its influence on the estimates of the unknowns that are obtained as a result of the observations adjustment. 2. To develop a system to optimize a survey network results, applying design and simulation techniques on the previous model. 3. To present an explicit and rigorous formulation of parameters which assess the reliability of a survey network and its relations with the design. The achievement of this objective is based, besides on the search and review of sources, in an intense work of unification of notation and construction of intermediate steps in the mathematical developments. 4. To develop an overview of the influence on the network design of six major factors (posterior accuracy, observations reliability, viability of observations, instruments and station methodology) as optimization criteria, in order to define the subject approached on this document. 5. To elaborate and program the algorithms needed to develop an application software capable of considering the variables proposed in the previous section, on the problem of design and simulation of surveying networks, considering the digital surface model. It could be considered as secondary objectives, the following paragraphs: To develop the necessary algorithms to interrelate the digital terrain model with the design ones. To implement in the software application the possibility of variation of the coverage criteria parameters (normal distribution or Student t test) and therefore its degree of reliability.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La caracterización de módulos fotovoltaicos proporciona las especificaciones eléctricas que se necesitan para conocer los niveles de eficiencia energética que posee un módulo fotovoltaico de concentración. Esta caracterización se consigue a través de medidas de curvas IV, de igual manera que se obtienen para caracterizar los módulos convencionales. Este proyecto se ha realizado para la optimización y ampliación de un programa de medida y caracterización de hasta cuatro módulos fotovoltaicos que se encuentran en el exterior, sobre un seguidor. El programa, desarrollado en LabVIEW, opera sobre el sistema de medida, obteniendo los datos de caracterización del módulo que se está midiendo. Para ello en primer lugar se ha tomado como base una aplicación ya implementada y se ha analizado su funcionamiento para poder optimizarla y ampliarla para introducir nuevas prestaciones. La nueva prestación más relevante para la medida de los módulos, busca evitar que el módulo entre medida y medida, se encuentre disipando toda la energía que absorbe y se esté calentando. Esto se ha conseguido introduciendo una carga electrónica dentro del sistema de medida, que mantenga polarizado el módulo siempre y cuando, no se esté produciendo una medida sobre él. En este documento se describen los dispositivos que forman todo el sistema de medida, así como también se describe el software del programa. Además, se incluye un manual de usuario para un fácil manejo del programa. ABSTRACT. The aim of the characterization of concentrator photovoltaic modules (CPV) is to provide the electrical specifications to know the energy efficiency at operating conditions. This characterization is achieved through IV curves measures, the same way that they are obtained to characterize conventional silicon modules. The objective of this project is the optimization and improvement of a measurement and characterization system for CPV modules. A software has been developed in LabVIEW for the operation of the measurement system and data acquisition of the IV curves of the modules. At first, an already deployed application was taken as the basis and its operation was analyzed in order to optimize and extend to introduce new features. The more relevant update seeks to prevent the situation in which the module is dissipating all the energy between measurements. This has been achieved by introducing an electronic load into the measuring system. This load maintains the module biased at its maximum power point between measurement periods. This work describes the devices that take part in the measurement system, as well as the software program developed. In addition, a user manual is included for an easy handling of the program.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen El documento que se desarrolla en los siguientes capítulos ha sido realizado como Proyecto de Fin de Grado para el Grado de Ingeniería del Software (Plan 2009) impartido por la Escuela Técnica Superior de Ingeniería de Sistemas Informáticos de la Universidad Politécnica de Madrid durante el curso académico 2014-2015 y bajo la tutela del Dr. Francisco Javier Gil Rubio, profesor del Departamento de Organización y Estructura de la Información (Actualmente DSI). La empresa Radmas Technologies pretende proporcionar con el producto Mejora Tu Ciudad —su solución para la gestión integral de Smart-Cities— un servicio REST interoperable y una capa de abstracción para el lenguaje Javascript. El presente proyecto se centra en la definición y creación de un API RESTFUL sobre la que los distintos clientes puedan interactuar con la plataforma independientemente de las herramientas de desarrollo utilizadas. Tras la definición del servicio se llevará a cabo la creación de un SDK1 válido en distintas plataformas basadas en Javascript, que facilite el acceso a aquellos clientes que utilicen dichas plataformas como punto de partida para iniciar otros desarrollos derivados. Con este pretexto nace un proyecto que pretende también cubrir todas las fases del ciclo de vida de un producto de software, ciertamente particular en este caso, ya que se trata de un ecosistema que comprende dos soluciones enfocadas hacia la interoperabilidad, una genérica y otra orientada a una única plataforma de destino, y que a su vez servirán como base para llevar a cabo futuros desarrollos. Por todo lo expuesto, el proyecto cubrirá las siguientes etapas:  Estudio de la problemática: se describe la situación en la que se encuentra la compañía y los motivos por los que se propone la creación de un API REST2 y más tarde la elaboración de un Kit de Desarrollo de Software (SDK) orientado exclusivamente a plataformas basadas en Javascript como solución a las necesidades de los potenciales clientes.  Estudio teórico de las distintas tecnologías y protocolos disponibles en los cuales se sustentarán los desarrollos que se lleven a cabo.  Estimación de tiempos, planificación y gestión de tareas mediante metodologías ágiles y desarrollo del producto.  Creación de una batería de pruebas y generación de un entorno para ejecutarlas que permita cubrir los distintos casos de uso requeridos por el usuario. También se hará uso, siempre que sea posible, de la metodología de trabajo conocida como TDD3 o Desarrollo Dirigido por las Pruebas.  Generación de documentación orientada a desarrolladores exponiendo las bondades y las técnicas de uso del ecosistema definido.  Creación de un conjunto de ejemplos que sirvan como punto de partida para llevar a cabo futuros desarrollos. Las fases anteriormente descritas se apoyan en los conocimientos recibidos en las distintas asignaturas que ofrece la titulación. Por tanto, haré frecuentes referencias a aquellas que tratan aspectos como los procesos de Ingeniería de Software (a través de un análisis y diseño coherentes de la estructura de la aplicación) y a la gestión de proyectos (haciendo especial hincapié en lo aprendido sobre metodologías ágiles), así como algunas de carácter más técnico que sin duda influirán en la generación de un código correcto y probado. Por todo ello este Trabajo de Fin de Grado pretende ser un desarrollo multidisciplinar en el que se obtenga como resultado un producto profesional, que haga uso de tecnologías y servicios de rabiosa actualidad y ejemplifique la realidad de los desarrollos de software modernos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente TFG está enmarcado en el contexto de la biología sintética (más concretamente en la automatización de protocolos) y representa una parte de los avances en este sector. Se trata de una plataforma de gestión de laboratorios autónomos. El resultado tecnológico servirá para ayudar al operador a coordinar las máquinas disponibles en un laboratorio a la hora de ejecutar un experimento basado en un protocolo de biología sintética. En la actualidad los experimentos biológicos tienen una tasa de éxito muy baja en laboratorios convencionales debido a la cantidad de factores externos que intervienen durante el protocolo. Además estos experimentos son caros y requieren de un operador pendiente de la ejecución en cada fase del protocolo. La automatización de laboratorios puede suponer un aumento de la tasa de éxito, además de una reducción de costes y de riesgos para los trabajadores en el entorno del laboratorio. En la presente propuesta se pretende que se dividan las distintas entidades de un laboratorio en unidades funcionales que serán los elementos a ser coordinados por la herramienta resultado del TFG. Para aportar flexibilidad a la herramienta se utilizará una arquitectura orientada a servicios (SOA). Cada unidad funcional desplegará un servicio web proporcionando su funcionalidad al resto del laboratorio. SOA es esencial para la comunicación entre máquinas ya que permite la abstracción del tipo de máquina que se trate y como esté implementada su funcionalidad. La principal dificultad del TFG consiste en lidiar con las dificultades de integración y coordinación de las distintas unidades funcionales para poder gestionar adecuadamente el ciclo de vida de un experimento. Para ello se ha realizado un análisis de herramientas disponibles de software libre. Finalmente se ha escogido la plataforma Apache Camel como marco sobre el que crear la herramienta específica planteada en el TFG. Apache Camel juega un papel importantísimo en este proyecto, ya que establece las capas de conexión a los distintos servicios y encamina los mensajes oportunos a cada servicio basándose en el contenido del fichero de entrada. Para la preparación del prototipo se han desarrollado una serie de servicios web que permitirán realizar pruebas y demostraciones de concepto de la herramienta en sí. Además se ha desarrollado una versión preliminar de la aplicación web que utilizará el operador del laboratorio para gestionar las peticiones, decidiendo que protocolo se ejecuta a continuación y siguiendo el flujo de tareas del experimento.---ABSTRACT---The current TFG is bound by synthetic biology context (more specifically in the protocol automation) and represents an element of progression in this sector. It consists of a management platform for automated laboratories. The technological result will help the operator to coordinate the available machines in a lab, this way an experiment based on a synthetic biological protocol, could be executed. Nowadays, the biological experiments have a low success rate in conventional laboratories, due to the amount of external factors that intrude during the protocol. On top of it, these experiments are usually expensive and require of an operator monitoring at every phase of the protocol. The laboratories’ automation might mean an increase in the success rate, and also a reduction of costs and risks for the lab workers. The current approach is hoped to divide the different entities in a laboratory in functional units. Those will be the elements to be coordinated by the tool that results from this TFG. In order to provide flexibility to the system, a service-oriented architecture will be used (SOA). Every functional unit will deploy a web service, publishing its functionality to the rest of the lab. SOA is essential to facilitate the communication between machines, due to the fact that it provides an abstraction on the type of the machine and how its functionality is implemented. The main difficulty of this TFG consists on grappling with the integration and coordination problems, being able to manage successfully the lifecycle of an experiment. For that, a benchmark has been made on the available open source tools. Finally Apache Camel has been chosen as a framework over which the tool defined in the TFG will be created. Apache Camel plays a fundamental role in this project, given that it establishes the connection layers to the different services and routes the suitable messages to each service, based on the received file’s content. For the prototype development a number of services that will allow it to perform demonstrations and concept tests have been deployed. Furthermore a preliminary version of the webapp has been developed. It will allow the laboratory operator managing petitions, to decide what protocol goes next as it executes the flow of the experiment’s tasks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de ésta tesis es estudiar cómo desarrollar una aplicación informática que implemente algoritmos numéricos de evaluación de características hidrodinámicas de modelos geométricos representativos de carenas de buques. Se trata de especificar los requisitos necesarios que debe cumplir un programa para informático orientado a dar solución a un determinado problema hidródinámico, como es simular el comportamiento en balance de un buque sometido a oleaje, de popa o proa. una vez especificada la aplicación se realizará un diseño del programa; se estudiarán alternativas para implementar la aplicación; se explicará el proceso que ha de seguirse para obtener la aplicación en funcionamiento y se contrastarán los resultados obtenidos en la medida que sea posible. Se pretende sistematizar y sintetizar todo el proceso de desarrollo de software, orientado a la simulación del comportamiento hidrodinámico de un buque, en una metodología que se pondrá a disposición de la comunidad académica y científica en la forma que se considere más adecuada. Se trata, por tanto, de proponer una metodología de desarrollo de software para obetener una aplicación que facilite la evaluación de diferentes alternativas de estudio variando parámetros relativos al problema en estudio y que sea capaz de proporcionar resultados para su análisis. Así mismo se incide en cómo ha de conducirse en el proceso para que dicha aplicación pueda crecer, incorporando soluciones existentes no implementadas o nuevas soluciones que aparezcan en este ámbito de conocimiento. Como aplicación concreta de la aplicación se ha elegido implementar los algoritmos necesarios para evaluar la aparición del balance paramétrico en un buque. En el análisis de éste problema se considera de interés la representación geométrica que se hace de la carena del buque. Además de la carena aparecen otros elementos que tienen influencia determinante en éste estudio, como son las situación de mar y las situaciones de carga. Idealmente, el problema sería resuelto si se consiguiera determinar el ángulo de balance que se produce al enfrentar un buque a las diferentes condiciones de mar. Se pretende preparar un programa utilizando el paradigma de la orientación a objetos. Considero que es la más adecuada forma de modularizar el programa para poder utilizar diferentes modelos de una misma carena y así comparar los resultados de la evaluación del balance paramétrico entre sí. En una etapa posterior se podrían comparar los resultados con otros obtenidos empíricamente. Hablo de una nueva metodología porque pretendo indicar cómo se ha de construir una aplicación de software que sea usable y sobre la que se pueda seguir desarrollando. Esto justifica la selección del lenguaje de programación C++. Se seleccionará un núcleo geométrico de software que permita acoplar de forma versátil los distintos componentes de software que van a construir el programa. Este trabajo pretende aplicar el desarrollo de software a un aspecto concreto del área de conocimiento de la hidrodinámica. No se pretende aportar nuevos algoritmos para resolver problemas de hidrodinámica, sino diseñar un conjunto de objetos de software que implementen soluciones existentes a conocidas soluciones numéricas a dichos problemas. Se trata fundamentalmente de un trabajo de software, más que de hidrodinámica. Lo que aporta de novedad es una nueva forma de realizar un programa aplicado a los cálculos hidrodinámicos relativos a la determinación del balance paramétrico, que pueda crecer e incorporar cualquier novedad que pueda surgir más adelante. Esto será posible por la programación modular utilizada y los objetos que representan cada uno de los elementos que intervienen en la determinación del balance paramétrico. La elección de aplicar la metodología a la predicción del balance paramétrico se debe a que este concepto es uno de los elementos que intervienen en la evaluación de criterios de estabilidad de segunda generación que estan en estudio para su futura aplicación en el ámbito de la construcción naval. Es por tanto un estudio que despierta interés por su próxima utilidad. ABSTRACT The aim of this thesis is to study how to develop a computer application implementing numerical algorithms to assess hydrodynamic features of geometrical models of vessels. It is therefore to propose a methodology for software development applied to an hydrodynamic problem, in order to evaluate different study alternatives by varying different parameters related to the problem and to be capable of providing results for analysis. As a concrete application of the program it has been chosen to implement the algorithms necessary for evaluating the appearance of parametric rolling in a vessel. In the analysis of this problem it is considered of interest the geometrical representation of the hull of the ship and other elements which have decisive influence in this phenomena, such as the sea situation and the loading condition. Ideally, the application would determine the roll angle that occurs when a ship is on waves of different characteristics. It aims to prepare a program by using the paradigm of object oriented programming. I think it is the best methodology to modularize the program. My intention is to show how face the global process of developing an application from the initial specification until the final release of the program. The process will keep in mind the spefici objetives of usability and the possibility of growing in the scope of the software. This work intends to apply software development to a particular aspect the area of knowledge of hydrodynamics. It is not intended to provide new algorithms for solving problems of hydrodynamics, but designing a set of software objects that implement existing solutions to these problems. This is essentially a job software rather than hydrodynamic. The novelty of this thesis stands in this work focuses in describing how to apply the whole proccess of software engineering to hydrodinamics problems. The choice of the prediction of parametric balance as the main objetive to be applied to is because this concept is one of the elements involved in the evaluation of the intact stability criteria of second generation. Therefore, I consider this study as relevant usefull for the future application in the field of shipbuilding.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto de fin de grado es uno de los resultados generados en un proyecto de financiación privada por parte de Telefónica consistente en el desarrollo y posterior implantación de un sistema para minería de datos de empresas presentes en Internet. Este TFG surge a partir de un proyecto que el grupo de investigación AICU-LABS (Mercator) de la UPM ha desarrollado para Telefónica, y tiene como elemento principal el desarrollo de Agentes web (también llamados robots software, “softbots” o “crawlers”) capaces de obtener datos de empresas a partir de sus CIF a través de internet. El listado de empresas nos los proporciona Telefónica, y está compuesto por empresas que no son clientes de Telefónica en la actualidad. Nuestra misión es proporcionarles los datos necesarios (principalmente teléfono, correo electrónico y dirección de la empresa) para la creación de una base de datos de potenciales clientes. Para llevar a cabo esta tarea, se ha realizado una aplicación que, a partir de los CIF que nos proporcionan, busque información en internet y extraiga aquella que nos interese. Además se han desarrollado sistemas de validación de datos para ayudarnos a descartar datos no válidos y clasificar los datos según su calidad para así maximizar la calidad de los datos producidos por el robot. La búsqueda de datos se hará tanto en bases de datos online como, en caso de localizarlas, las propias páginas web de las empresas. ABSTRACT This Final Degree Project is one of the results obtained from a project funded by Telefónica. This project consists on the development and subsequent implantation of a system which performs data mining on companies operating on the Internet. This document arises from a project the research group AICU-LABS (Mercator) from the Universidad Politécnica de Madrid has developed for Telefónica. The main goal of this project is the creation of web agents (also known as “crawlers” or “web spiders”) able to obtain data from businesses through the Internet, knowing only their VAT identification number. The list of companies is given by Telefónica, and it is composed by companies that are not Telefónica’s customers today. Our mission is to provide the data required (mainly phone, email and address of the company) to create a database of potential customers. To perform this task, we’ve developed an application that, starting with the given VAT numbers, searches the web for information and extracts the data sought. In addition, we have developed data validation systems, that are capable of discarding low quality data and also sorting the data according to their quality, to maximize the quality of the results produced by the robot. We’ll use both the companies’ websites and external databases as our sources of information.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El habla es la principal herramienta de comunicación de la que dispone el ser humano que, no sólo le permite expresar su pensamiento y sus sentimientos sino que le distingue como individuo. El análisis de la señal de voz es fundamental para múltiples aplicaciones como pueden ser: síntesis y reconocimiento de habla, codificación, detección de patologías, identificación y reconocimiento de locutor… En el mercado se pueden encontrar herramientas comerciales o de libre distribución para realizar esta tarea. El objetivo de este Proyecto Fin de Grado es reunir varios algoritmos de análisis de la señal de voz en una única herramienta que se manejará a través de un entorno gráfico. Los algoritmos están siendo utilizados en el Grupo de investigación en Aplicaciones MultiMedia y Acústica de la Universidad Politécnica de Madrid para llevar a cabo su tarea investigadora y para ofertar talleres formativos a los alumnos de grado de la Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación. Actualmente se ha encontrado alguna dificultad para poder aplicar los algoritmos ya que se han ido desarrollando a lo largo de varios años, por distintas personas y en distintos entornos de programación. Se han adaptado los programas existentes para generar una única herramienta en MATLAB que permite: . Detección de voz . Detección sordo/sonoro . Extracción y revisión manual de frecuencia fundamental de los sonidos sonoros . Extracción y revisión manual de formantes de los sonidos sonoros En todos los casos el usuario puede ajustar los parámetros de análisis y se ha mantenido y, en algunos casos, ampliado la funcionalidad de los algoritmos existentes. Los resultados del análisis se pueden manejar directamente en la aplicación o guardarse en un fichero. Por último se ha escrito el manual de usuario de la aplicación y se ha generado una aplicación independiente que puede instalarse y ejecutarse aunque no se disponga del software o de la versión adecuada de MATLAB. ABSTRACT. The speech is the main communication tool which has the human that as well as allowing to express his thoughts and feelings distinguishes him as an individual. The analysis of speech signal is essential for multiple applications such as: synthesis and recognition of speech, coding, detection of pathologies, identification and speaker recognition… In the market you can find commercial or open source tools to perform this task. The aim of this Final Degree Project is collect several algorithms of speech signal analysis in a single tool which will be managed through a graphical environment. These algorithms are being used in the research group Aplicaciones MultiMedia y Acústica at the Universidad Politécnica de Madrid to carry out its research work and to offer training workshops for students at the Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación. Currently some difficulty has been found to be able to apply the algorithms as they have been developing over several years, by different people and in different programming environments. Existing programs have been adapted to generate a single tool in MATLAB that allows: . Voice Detection . Voice/Unvoice Detection . Extraction and manual review of fundamental frequency of voiced sounds . Extraction and manual review formant voiced sounds In all cases the user can adjust the scan settings, we have maintained and in some cases expanded the functionality of existing algorithms. The analysis results can be managed directly in the application or saved to a file. Finally we have written the application user’s manual and it has generated a standalone application that can be installed and run although the user does not have MATLAB software or the appropriate version.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La utilización de un lenguaje inclusivo en los discursos académicos constituye un excelente vehículo con el que crear referentes femeninos, representar la aportación de mujeres y hombres tanto en la vida cotidiana como en la Academia y en la ciencia, así como romper estereotipos y prejuicios de carácter sexista. A través de la lengua no solo se describen los acontecimientos y hechos que intentamos transmitir sino que también se construye la realidad que buscamos comunicar. Este alcance dual del uso de la lengua (describir y construir) convierte al uso del lenguaje inclusivo en un elemento central en la consideración de la inclusión de la perspectiva de género en la docencia universitaria. En este marco, la Red de investigación para la docencia universitaria “Universidad, género, docencia e igualdad” de la UA trabaja en el diseño de una herramienta informática que permita identificar, de forma rápida y sencilla, el sexismo en el lenguaje de nuestros discursos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los requerimientos de métodos analíticos que permitan realizar determinaciones más eficientes en diversas ramas de la Química, así como el gran desarrollo logrado por la Nanobiotecnología, impulsaron la investigación de nuevas alternativas de análisis. Hoy, el campo de los Biosensores concita gran atención en el primer mundo, sin embargo, en nuestro país es todavía un área de vacancia, como lo es también la de la Nanotecnología. El objetivo de este proyecto es diseñar y caracterizar nuevos electrodos especialmente basados en el uso de nanoestructuras y estudiar aspectos básicos de la inmovilización de enzimas, ADN, aptámeros, polisacáridos y otros polímeros sobre dichos electrodos a fin de crear nuevas plataformas de biorreconocimiento para la construcción de (bio)sensores electroquímicos dirigidos a la cuantificación de analitos de interés clínico, farmaco-toxicológico y ambiental.Se estudiarán las propiedades de electrodos de C vítreo, Au, "screen printed" y compósitos de C modificados con nanotubos de C (CNT) y/o nanopartículas (NP) de oro y/o nanoalambres empleando diversas estrategias. Se investigarán nuevas alternativas de inmovilización de las biomoléculas antes mencionadas sobre dichos electrodos, se caracterizarán las plataformas resultantes y se evaluarán sus posibles aplicaciones analíticas al desarrollo de biosensores con enzimas y ADNs como elementos de biorreconocimiento. Se funcionalizarán CNT con polímeros comerciales y sintetizados en nuestro laboratorio modificados con moléculas bioactivas. Se diseñarán y caracterizarán nuevas arquitecturas supramoleculares basadas en el autoensamblado de policationes, enzimas y ADNs sobre Au. Se evaluarán las propiedades catalíticas de NP de magnetita y de perovskitas de Mn y su aplicación al desarrollo de biosensores enzimáticos. Se diseñarán biosensores que permitan la detección altamente sensible y selectiva de secuencias específicas de ADNs de interés clínico. Se estudiará la interacción de genotóxicos con ADN (en solución e inmovilizado) y se desarrollarán biosensores que permitan su cuantificación. Se construirán biosensores enzimáticos para la cuantificación de bioanalitos, especialmente glucosa, fenoles y catecoles, y sensores electroquímicos para la determinación de neurotransmisores, ácido úrico y ácido ascórbico. Se diseñarán nuevos aptasensores electroquímicos para la cuantificación de biomarcadores, comenzando por lisozima y trombina y continuando con otros de interés regional/nacional.Se emplearán las siguientes técnicas: voltamperometrías cíclica (CV), de pulso diferencial (DPV) y de onda cuadrada (SWV); "stripping" potenciométrico a corriente constante (PSA); elipsometría; microbalanza de cristal de cuarzo con cálculo de pérdida de energía por disipación (QCM-D); resonancia de plasmón superficial con detección dual (E-SPR); espectroscopía de impedancia electroquímica (EIE); microscopías de barrido electroquímico (SECM), de barrido electrónico (SEM), de transmisión (TEM) y de fuerzas atómicas (AFM); espectrofotometría UV-visible; espectroscopías IR, Raman, de masas, RMN.Se espera que la inclusión de los CNT y/o de las NP metálicas y/o de los nanoalambres en los diferentes electrodos permita una mejor transferencia de carga de diversos analitos y por ende una detección más sensible y selectiva de bioanalitos empleando enzimas, ADN y aptámeros como elementos de biorreconocimiento. Se espera una mayor eficiencia en los aptasensores respecto de los inmunosensores, lo que permitirá la determinacion selectiva de diversos biomarcadores. La modificación de electrodos con nanoestructuras posibilitará la detección altamente sensible y selectiva del evento de hibridación. La respuesta obtenida luego de la interacción de genotóxicos con ADN permitirá un mejor conocimiento de la asociación establecida, de la cinética y de las constantes termodinámicas. Los neurotransmisores podrán ser determinados a niveles nanomolares aún en muestras complejas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante los dos años que van desde noviembre de 2005 a noviembre de 2007, en los que se ha llevado a cabo la Beca de colaborador en el ámbito del deporte, tanto en el CAR de Sant Cugat como en el Consell Catala de l’Esport, se han investigado y estudiado las acciones práxicas de un deporte tan popular, pero al mismo tiempo tan desconocido, como es el futbol. El primer año se investigaron las acciones práxicas que finalizaron en gol en la Liga de Fútbol Profesional, Liga Española, temporada 2005-2006. Dichas investigaciones sirvieron como una primera toma de contacto en relación a este tipo de estudios y sirvieron también para elaborar unas primeras aplicaciones informáticas que nos permitieran el registro de dichas acciones para su posterior análisis. Durante el segundo año, se trabajó en la confección de una aplicación informática que reflejara y permitiera el registro de las acciones práxicas del portero de futbol durante un partido de competición. Así mismo, durante este segundo año también se elaboraron y publicaron dos artículos científicos relacionados con las investigaciones llevadas a cabo en el primer año de Beca. La finalidad y propósito de toda esta serie de investigaciones y trabajos ha sido conocer en profundidad el deporte en cuestión para poder plantear nuevas metodologías y planteamientos de entrenamiento basadas en la competición, que nos permitan mejorar el rendimiento en el deporte investigado. 

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El sector sanitari és un dels més importants i sensibles dintre de l’economia espanyola, ja que és un element clau del benestar social. Per aquest motiu, el sector de la sanitat s’enfronta a nombrosos reptes, i les Tecnologies de la Informació i les Comunicacions (TIC) obren un ampli ventall de possibilitats de renovació i millora. És per això que Hewlett-Packard està desenvolupant una aplicació informàtica per a hospitals, anomenada HCIS (Health Care Information System). El projecte que es presenta en aquesta memòria és el desenvolupament del mòdul d’HCIS per a gestionar l’Arxiu d’Històries Clíniques d’un hospital, i la seva implantació a la Corporació Sanitària Parc Taulí de Sabadell.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proyecto trata de crear un software que dinámicamente nos proporcione exámenes o pruebas dependiendo de nuestro nivel de conocimientos actual. Estos exámenes se cargarán a través de un fichero XML configurable, lo que nos permitirá poner a prueba nuestros conocimientos en el tema que deseemos. El software se desarrollará en Nintendo DS, para aprovechar las prestaciones que nos ofrece de serie: doble pantalla, pantalla táctil, portabilidad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Debido al gran número de transistores por mm2 que hoy en día podemos encontrar en las GPU convencionales, en los últimos años éstas se vienen utilizando para propósitos generales gracias a que ofrecen un mayor rendimiento para computación paralela. Este proyecto implementa el producto sparse matrix-vector sobre OpenCL. En los primeros capítulos hacemos una revisión de la base teórica necesaria para comprender el problema. Después veremos los fundamentos de OpenCL y del hardware sobre el que se ejecutarán las librerías desarrolladas. En el siguiente capítulo seguiremos con una descripción del código de los kernels y de su flujo de datos. Finalmente, el software es evaluado basándose en comparativas con la CPU.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desarrollo de un entorno con conectividad inalámbrica basada en Wi-Fi, sistema de envío y recepción de datos en redes computacionales que utiliza ondas hertzianas para la comunicación y está acotada por la Wi-Fi Alliance bajo el estándar 802.11.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proyecto se desarrolla en el marco de un convenio entre la UAB y la empresa UNIT4 en las oficinas de UNIT4 Ibérica en Barberà del Vallès. El objetivo del proyecto es crear una nueva herramienta, denominada karat Starter Kit Reloaded, que sirva de autoformación y demostración de la plataforma de desarrollo propia utilizada en la empresa (karat) reforzando los puntos débiles de la anterior y manteniendo los puntos fuertes de los que ya disponía.