1000 resultados para Componentes biométricos
Resumo:
Ponencia titulada: ?Modelos de componentes inobservables para la predicción de precios en mercados eléctricos liberalizados" en el VIII Congreso de la Asociación Española de Economía de la Energía
Resumo:
En la Web 2.0, donde usuarios finales sin grandes conocimientos de programación pueden interactuar y crear aplicaciones web utilizando componentes publicados en Internet, ofrecidos por una gran variedad de proveedores de servicio. La selección de estos componentes requiere de un análisis exhaustivo por parte de los usuarios sobre las propiedades de estos componentes en referencia a su calidad. En este proyecto, se presentan dos modelos de calidad según una estructura jerárquica, uno para componentes web como elementos autónomos y otro para componentes utilizados en aplicaciones de mashup, basado en un análisis de la emergente Web 2.0. Además, se define una herramienta de medición y anotación de calidad para los distintos niveles de los modelos. Estas herramientas pretenden ser un útil instrumento para los desarrolladores y usuarios de componentes y mashups.---ABSTRACT---In the Web 2.0, where end users without a technical programming background can interact and develop web applications leveraging web components published on the Internet, offered by a great diversity of service providers. This component selection requires an exhaustive analysis by these end users based on the requirements of these components related to their quality. In this work, two quality models are presented according to a hierarchical structure, one for web components as independent elements and another one for web components as parts of web mashup applications, based on an analysis of the emerging Web 2.0. In addition, a measuring and write down quality framework is defined to weigh the quality of all the levels of the models. These tools intend to provide a useful instrument to components and mashup developers and end users.
Resumo:
En este trabajo se describe el diseñno y la implementación de una infraestructura para la comunicación entre componentes que sigan el estilo arquitectóonico C2 sobre una plataforma Java. Un requisito de esta infraestructura es que componentes y conectores se ejecuten cada uno en su propia máquina virtual (JVM) en el mismo nodo o en nodos diferentes. Se ha diseñado un conjunto de clases que proporcionan mecanismos para la comunicación entre componentes y conectores C2. Como parte del trabajo, se han evaluado las tecnologías disponibles para Java que permiten construir la infraestructura, habiéndose elegido la invocación remota a método (RMI) como la base para la comunicación entre los componentes del sistema
Resumo:
La web vive un proceso de cambio constante, basado en una interacción mayor del usuario. A partir de la actual corriente de paradigmas y tecnologías asociadas a la web 2.0, han surgido una serie de estándares de gran utilidad, que cubre la necesidad de los desarrollos actuales de la red. Entre estos se incluyen los componentes web, etiquetas HTML definidas por el usuario que cubren una función concreta dentro de una página. Existe una necesidad de medir la calidad de dichos desarrollos, para discernir si el concepto de componente web supone un cambio revolucionario en el desarrollo de la web 2.0. Para ello, es necesario realizar una explotación de componentes web, considerada como la medición de calidad basada en métricas y definición de un modelo de interconexión de componentes. La plataforma PicBit surge como respuesta a estas cuestiones. Consiste en una plataforma social de construcción de perfiles basada en estos elementos. Desde la perspectiva del usuario final se trata de una herramienta para crear perfiles y comunidades sociales, mientras que desde una perspectiva académica, la plataforma consiste en un entorno de pruebas o sandbox de componentes web. Para ello, será necesario implementar el extremo servidor de dicha plataforma, enfocado a la labor de explotación, por medio de la definición de una interfaz REST de operaciones y un sistema para la recolección de eventos de usuario en la plataforma. Gracias a esta plataforma se podrán discernir qué parámetros influyen positivamente en la experiencia de uso de un componente, así como descubrir el futuro potencial de este tipo de desarrollos.---ABSTRACT---The web evolves into a more interactive platform. From the actual version of the web, named as web 2.0, many paradigms and standards have arisen. One of those standards is web components, a set of concepts to define new HTML tags that covers a specific function inside a web page. It is necessary to measure the quality of this kind of software development, and the aim behind this approach is to determine if this new set of concepts would survive in the actual web paradigm. To achieve this, it is described a model to analyse components, in the terms of quality measure and interconnection model description. PicBit consists of a social platform to use web components. From the point of view of the final user, this platform is a tool to create social profiles using components, whereas from the point of view of technicians, it consists of a sandbox of web components. Thanks to this platform, we will be able to discover those parameters that have a positive effect in the user experience and to discover the potential of this new set of standards into the web 2.0.
Resumo:
La web ha evolucionado hacia la participación en la creación de contenido tanto por desarrolladores expertos como por usuarios finales sin un gran conocimiento en esta área. A pesar de que su uso es igual de válido y funcional, las diferencias entre la calidad de los productos desarrollados por ambos puede llegar a ser considerable. Esta característica se observa con mayor claridad cuando se analizan los web components. El trabajo consiste en el desarrollo de un entorno capaz de recoger las métricas de calidad de los componentes, basadas en la interacción con ellos por parte de los usuarios. A partir de las métricas obtenidas, se determinará su calidad para realizar una mejora de la misma, en función de las características valoradas. La selección de las métricas se realiza mediante un estudio de las características que definen a un componente, y permiten ser analizadas. Para poder llevar a cabo la construcción del portal, se ha descrito un prototipo capaz de proporcionar un sistema para permitir que los componentes intercambien información entre ellos. El modelo ha sido integrado en los componentes que se han de evaluar para obtener nuevas métricas sobre esta característica. Se ha desarrollado un dashboard que permite la interacción sin limitaciones de los usuarios con los componentes, facilitándoles un sistema para conectar componentes, utilizando para ello el sistema previamente descrito. Como conclusión del trabajo, se puede observar la necesidad de integrar los componentes web en un entorno real para poder determinar su calidad. Debido a que la calidad está determinada por los usuarios que consumen los componentes, se ha de contar con su opinión en la cuantificación de la misma.---ABSTRACT---Recently, the web has evolved to the collaboration between professional developers and end users with limited knowledge to create web content. Although both solutions are correct and functional, the differences in the quality between them can be appreciable. This feature is shown clearly when the web components are analyzed. The work is composed of the development of a virtual environment which is able to pick the quality measures of the components, based on the interaction between these components and the user. The measures are the starting point to decide the quality, and improve them with the rated measures. The measures selection is done through a study of the main features of a component. This selection can be analyzed. In order to create the website, a prototype has been specified to provide a system in which the components can be trade information between them. The interconnection model has been integrated in the components to evaluate. A dashboard has been developed to allow users interacting with the components without rules, making them possible connecting components through the model. The main conclusion of the work is the necessity of integrating web components in a real environment to decide their quality. Due to the fact that the quality is measured in terms of the rate of the users, it is a must to give them the main roles in the establishment of that quality.
Resumo:
Este proyecto se encuadra dentro de los estudios de impacto que están produciendo en las empresas el desarrollo e incorporación de las nuevas tecnologías, y más concretamente la implantación de las aplicaciones provenientes de la denominada web 2.0. Se conoce con este nombre a las herramientas web que permiten una comunicación bidireccional, es decir, el usuario y la empresa pueden intercambiar opiniones, de manera que el usuario adquiere un nuevo papel más protagonista, presentando ideas, aclaraciones, gustos, críticas...que son tenidas en cuenta por la empresa para realizar su actividad. De esta manera se ha roto con el modelo anterior donde el usuario solo podía consultar la información de una página web, era simple receptor de la información. El objetivo de este estudio es conocer cómo las empresas están incorporando estas tecnologías 2.0 a su estrategia empresarial, y cómo términos como innovación abierta o co-creación están tomando mayor importancia en el entorno empresarial gracias a estas nuevas tecnologías. Si bien existen estudios a nivel de consultoría que generalmente aportan información sobre cuáles son las plataformas 2.0 más utilizadas en el mundo empresarial, no se han encontrado hasta ahora estudios que vinculen estas plataformas entre ellas y con la estructura empresarial, para poder definir un perfil de la organización que trabaja con ellas o el nivel de madurez de la incorporación de estas tecnologías en las organizaciones. Analizar cualitativamente estos aspectos, significa estudiar los nuevos conceptos incorporados a las tecnologías 2.0 en la empresa. Un análisis cuantitativo nos llevaría a estudiar de manera práctica que tipo de recursos y en qué cantidad se están utilizando y su vinculación con la estructura de la organización. Para ello: En una primera parte, nos centraremos en las diferentes formas en las que se puede acceder a Internet, y a continuación enfocaremos el estudio en los dispositivos móviles que nos permiten la conexión desde cualquier lugar y en cualquier instante. Con esto conseguiremos tener una situación actual del mercado de las TIC y veremos cómo las empresas han ido construyendo nuevas políticas para cambiar su estrategia con el fin de estar presentes en los nuevos dispositivos móviles y no perder cuota de mercado. Tras ello, veremos porqué conceptos como el de innovación abierta y proceso de co-creación han sido posibles gracias a la implantación de las tecnologías 2.0 en el ámbito empresarial, facilitando que la empresa y el usuario final cooperen y vayan de la mano en una misma dirección; la empresa se surte de las aportaciones que los usuarios ofrecen, y por otra parte el usuario se siente valorado por la empresa para conseguir la meta final. Es aquí donde comprobaremos la transformación que ha sufrido la empresa en sus distintos sectores departamentales (marketing, ventas, recursos humanos y atención al cliente) como consecuencia de la incorporación de las herramientas 2.0 al mundo laboral. Por todo ello, se enumerarán los distintos usos que realizan las empresas de las redes social más habituales, y además se describirán las principales herramientas y/o aplicaciones para monitorizar las redes sociales que servirán a la empresa para hacer un seguimiento de las mismas. La segunda parte del proyecto será un caso práctico y servirá para ofrecer una visión más real del estado actual de las empresas y su relación con las redes sociales. Para la recopilación de los datos se han escogido las empresas que pertenecen al sector de la “Fabricación de productos informáticos, electrónicos y ópticos”. En cuento a las redes sociales elegidas, han sido Facebook y Twitter. Este estudio práctico nos hará entender mejor el impacto directo que tienen las redes sociales en la actividad diaria de las empresas. Finalmente se realizarán una serie de consideraciones a modo de directrices que servirán para tratar de entender cómo se están utilizando las redes sociales en el entorno empresarial y cuál puede ser la manera más óptima de utilizarlas según el estudio presentado. ABSTRACT. This project is part of the impact studies arisen in companies by the development and incorporation of new technologies and, specifically, by the implementation of applications from the so-called web 2.0. That is how we call the web tools that allow bidirectional communication, this is, user and company can exchange opinions, in such a way that users acquire a leading role, submitting ideas, explanations, preferences, criticism... considered by the company when performing its activities. This way, we have broken with the previous model, where users could only check information from a web page and were simple information recipients. The objective of this study is to get to know how companies are incorporating these technologies 2.0 to their business strategy and how terms such as open innovation or co-creation are becoming more important in the business sphere thanks to these new technologies. Even if there are consulting studies that generally provide information about which are the platforms 2.0 more used in the business world, no studies have been found until now that link such platforms among them and with the business structure, in order to define a profile of the organization that works with them or the level of development of the incorporation of these technologies in the organizations. A qualitative analysis of these aspects involves studying the new concepts incorporated to technologies 2.0 by companies. A qualitative analysis would lead us to study in a practical manner what kind of resources and what amount are being used and their relation with the organization structure. Therefore: First, we will focus on the different ways to gain access to the Internet and, afterwards, we will focus the study on mobile devices that allow us to be connected everywhere any time. This way, we will manage to obtain a present situation of the ICT market and we will see how companies have constructed new policies to change their strategy in order to be present in the new mobile devices without losing their market share. Later, we will review why concepts such as open innovation and co-creation process have been possible thanks to the implementation of technologies 2.0 in the business environment, facilitating that companies and final users cooperate and walk hand in hand in the same direction; companies stock up on the contributions offered by users and, on the other hand, users feel appreciated by companies in the achievement of the final goal. Here we will confirm the transformation suffering by companies in different department sectors (marketing, sales, human resources and customer service) as a result of the incorporation of tools 2.0 to the work environment. Therefore, we will enumerate the different uses that companies make of the most common social networks, describing the main tools and/or applications to monitor social networks used by companies to follow them up. The second part of the project will be a case study to offer a more real vision of the present status of companies and their relation with social networks. To collect the data, we have selected companies from the “Manufacture of computer, electronic and optical products” industry. The social networks chosen are Facebook and Twitter. This case study will help us to get a better understanding of the direct impact of social networks in companies’ daily activity. Finally, we will offer a series of considerations and guidelines to try to understand how are social networks being used in the business environment and what can be the most suitable manner to use them according to this study.
Resumo:
La clasificación de las semillas de especies olerícolas se realiza principalmente por peso y tamaño, con criterios similares a los aplicados en cereales y leguminosas, en que se asocia positivamente estos atributos físicos con la calidad fisiológica. No obstante lo anterior, en diversas especies de hortalizas la información es escasa y contradictoria al respecto, lo que motiva la realización de la presente investigación. En semillas de tomate (Solanum lycopersicum L.) se determinó el efecto del peso y tamaño sobre la calidad fisiológica expresada como germinación y vigor. Además, se correlacionaron los resultados de las pruebas de evaluación de calidad fisiológica y se describieron variables del crecimiento y desarrollo. Se utilizaron lotes de diferentes variedades de semillas híbridas de cuatro temporadas, producidas en un clima templado cálido con lluvias invernales y estación seca prolongada (32º 54’ y 34° 21´ latitud Sur). Se midió peso y tamaño de semillas, además en dos temporadas se evaluaron las características internas de área y peso de embrión y área de endospermo. Se determinó la calidad de las semillas con la prueba de germinación y según fuera el año de estudio se midió vigor con las pruebas de envejecimiento acelerado, de plantas útiles al trasplante y de plántulas emergidas. Con análisis de imágenes y rayos X se extrajeron datos del tamaño externo e interno de las semillas y plántulas. Los lotes se compararon mediante análisis de varianza y las medias con la prueba de Tukey, la asociación entre dos variables se determinó con correlaciones de Pearson, las variables de peso y tamaño de la semilla y su relación con las pruebas de calidad, se analizaron mediante regresiones múltiples. Se utilizó un nivel de significación de 0,05 de probabilidad. Los resultados indicaron que el tamaño y no el peso de las semillas de tomate, diferenciaron calidad entre lotes en las diversas variedades. La prueba de germinación tuvo una baja sensibilidad para discriminar lotes, además de una escasa correlación con las características físicas de las semillas, cuando hubo asociación, la relación fue débil y negativa. La prueba de vigor de envejecimiento acelerado diferenció lotes y presentó escasa asociación con las características físicas de las semillas. El número de semillas germinadas en la prueba de envejecimiento acelerado se explicó por el efecto del tamaño de las semillas, mientras que las fracciones de descarte se asociaron con el peso de las mismas. La prueba de vigor de plantas útiles al trasplante no discriminó entre lotes. Tuvo una asociación débil con el peso y tamaño de las semillas. El modelo asociado a esta relación explicó con un alto coeficiente de determinación que el peso de la semilla influyó sobre la emergencia temprana, mientras que la relación fue menor y negativa con plantas de mayor desarrollo. La prueba de vigor de plántulas emergidas discriminó lotes de semillas con plántulas de 3 a 5 días después de siembra. Hubo escasa y débil asociación entre esta prueba y las características de peso y tamaño las semillas. El modelo de predicción de plántulas emergidas fue particular en cada temporada, cuando hubo un coeficiente de determinación alto influyó negativamente el peso o tamaño de la semilla. Entre las pruebas de calidad fisiológica evaluadas en semillas de tomate hubo escasas correlaciones significativas. Entre germinación y vigor las correlaciones significativas fueron débiles y sólo se encontraron en algunas temporadas de evaluación. Entre las pruebas de vigor no hubo asociación. En las pruebas de vigor de plantas útiles al trasplante y de plántulas emergidas, los cotiledones alcanzaron el mayor porcentaje de materia seca y se correlacionaron fuertemente con la materia seca total. En la prueba de plántulas emergidas la materia seca de las radículas diferenció parcialmente lotes de semillas al igual que la longitud total y de las radículas. La longitud de la radícula se correlacionó fuertemente con la longitud total de plántulas. ABSTRACT Seed selection for olericultural species is mainly carried out considering weight and size with similar criteria to those applied in cereals and legumes where size and physiological quality are favorably associated. However, information about several species is limited and contradictory regarding the above, leading to the present research. In tomato (Solanum lycopersicum L.) seeds, the effect of weight and size on the physiological quality expressed as germination and vigor was determined. In addition, results of quality evaluation tests were correlated and variables of growth and development were described. Batches of hybrid seeds from four seasons were used. These seeds were produced in a mild warm climate with winter rainfalls and long dry season (32º 54’ and 34° 21´South Latitude). Seed weight and size were determined, additionally internal characteristics such as embryo area and weight as well as endosperm area were evaluated in two seasons. The quality of seeds was established using the germination test and, depending on the year of the study, vigor was measured through accelerated aging tests for plants useful for transplanting and emerged seedlings. Using imaging analysis and X rays, data regarding external and internal size of seeds and seedlings were obtained. Batches were compared through ANOVA and means using Tukey’s test; the association between both variables was determined with Pearson correlations, whereas variables of seed weight and size and their relation to quality tests were analyzed through multiple regressions. A significance level of 0.05 probability was used. Results showed that the size (but not the weight) of tomatoes differentiates quality between batches from several seasons. The germination test was not sensitive enough to discriminate batches in addition to having a limited correlation with the characteristics of seeds, when they were associated, the relation was weak and unfavorable. Vigor test for accelerated aging made the difference between batches and presented low association with physical characteristics of the seeds. The number of germinated seeds in the accelerated aging test was explained by the effect of the seed size, whereas cull fractions were associated with their weight. The vigor test of plants useful for transplanting did not discriminate between batches. The association with seed weight and size was weak. The model associated to this relation explained, with a high coefficient determination, that the seed weight had influence on early emergence, whereas the relation was minor and unfavorable with more developed plants. Vigor test of emerged seedlings discriminated batches of seeds with seedlings of 3 to 5 days after sowing. There was a limited and weak association between this test and the characteristics of seed weight and size. The prediction model for seedlings emerged was particular in each season, when the determination coefficient was high, seed weight and size influenced negatively. Among the physiological quality tests evaluated in tomato seeds, significant correlations were negligible. Between germination and vigor, significant correlations were poor, being only found in some evaluation seasons. There was no association in the vigor tests. In vigor tests for plants useful for transplanting and emerged seedlings, cotyledons reached the highest percentage of dry matter and were strongly correlated with total dry matter. In the test of emerged seedlings, dry matter of radicles partially differentiated batches of seeds as well as total length and radicles. Radicle length was strongly correlated with total seedlings length.
Resumo:
Las patologías de la voz se han transformado en los últimos tiempos en una problemática social con cierto calado. La contaminación de las ciudades, hábitos como el de fumar, el uso de aparatos de aire acondicionado, etcétera, contribuyen a ello. Esto alcanza más relevancia en profesionales que utilizan su voz de manera frecuente, como, por ejemplo, locutores, cantantes, profesores o teleoperadores. Por todo ello resultan de especial interés las técnicas de ayuda al diagnóstico que son capaces de extraer conclusiones clínicas a partir de una muestra de la voz grabada con un micrófono, frente a otras invasivas que implican la exploración utilizando laringoscopios, fibroscopios o videoendoscopios, técnicas en cualquier caso mucho más molestas para los pacientes al exigir la introducción parcial del instrumental citado por la garganta, en actuaciones consideradas de tipo quirúrgico. Dentro de aquellas técnicas se ha avanzado mucho en un período de tiempo relativamente corto. En lo que se refiere al diagnóstico de patologías, hemos pasado en los últimos quince años de trabajar principalmente con parámetros extraídos de la señal de voz –tanto en el dominio del tiempo como en el de la frecuencia– y con escalas elaboradas con valoraciones subjetivas realizadas por expertos a hacerlo también con parámetros procedentes de estimaciones de la fuente glótica. La importancia de utilizar la fuente glótica reside, a grandes rasgos, en que se trata de una señal vinculada directamente al estado de la estructura laríngea del locutor y también en que está generalmente menos influida por el tracto vocal que la señal de voz. Es conocido que el tracto vocal guarda más relación con el mensaje hablado, y su presencia dificulta el proceso de detección de patología vocal. Estas estimaciones de la fuente glótica han sido obtenidas a través de técnicas de filtrado inverso desarrolladas por nuestro grupo de investigación. Hemos conseguido, además, profundizar en la naturaleza de la señal glótica: somos capaces de descomponerla y relacionarla con parámetros biomecánicos de los propios pliegues vocales, obteniendo estimaciones de elementos como la masa, la pérdida de energía o la elasticidad del cuerpo y de la cubierta del pliegue, entre otros. De las componentes de la fuente glótica surgen también los denominados parámetros biométricos, relacionados con la forma de la señal, que constituyen por sí mismos una firma biométrica del individuo. También trabajaremos con parámetros temporales, relacionados con las diferentes etapas que se observan dentro de la señal glótica durante un ciclo de fonación. Por último, consideraremos parámetros clásicos de perturbación y energía de la señal. En definitiva, contamos ahora con una considerable cantidad de parámetros glóticos que conforman una base estadística multidimensional, destinada a ser capaz de discriminar personas con voces patológicas o disfónicas de aquellas que no presentan patología en la voz o con voces sanas o normofónicas. Esta tesis doctoral se ocupa de varias cuestiones: en primer lugar, es necesario analizar cuidadosamente estos nuevos parámetros, por lo que ofreceremos una completa descripción estadística de los mismos. También estudiaremos cuestiones como la distribución de los parámetros atendiendo a criterios como el de normalidad estadística de los mismos, ocupándonos especialmente de la diferencia entre las distribuciones que presentan sujetos sanos y sujetos con patología vocal. Para todo ello emplearemos diferentes técnicas estadísticas: generación de elementos y diagramas descriptivos, pruebas de normalidad y diversos contrastes de hipótesis, tanto paramétricos como no paramétricos, que considerarán la diferencia entre los grupos de personas sanas y los grupos de personas con alguna patología relacionada con la voz. Además, nos interesa encontrar relaciones estadísticas entre los parámetros, de cara a eliminar posibles redundancias presentes en el modelo, a reducir la dimensionalidad del problema y a establecer un criterio de importancia relativa en los parámetros en cuanto a su capacidad discriminante para el criterio patológico/sano. Para ello se aplicarán técnicas estadísticas como la Correlación Lineal Bivariada y el Análisis Factorial basado en Componentes Principales. Por último, utilizaremos la conocida técnica de clasificación Análisis Discriminante, aplicada a diferentes combinaciones de parámetros y de factores, para determinar cuáles de ellas son las que ofrecen tasas de acierto más prometedoras. Para llevar a cabo la experimentación se ha utilizado una base de datos equilibrada y robusta formada por doscientos sujetos, cien de ellos pertenecientes al género femenino y los restantes cien al género masculino, con una proporción también equilibrada entre los sujetos que presentan patología vocal y aquellos que no la presentan. Una de las aplicaciones informáticas diseñada para llevar a cabo la recogida de muestras también es presentada en esta tesis. Los distintos estudios estadísticos realizados nos permitirán identificar aquellos parámetros que tienen una mayor contribución a la hora de detectar la presencia de patología vocal. Alguno de los estudios, además, nos permitirá presentar una ordenación de los parámetros en base a su importancia para realizar la detección. Por otra parte, también concluiremos que en ocasiones es conveniente realizar una reducción de la dimensionalidad de los parámetros para mejorar las tasas de detección. Por fin, las propias tasas de detección constituyen quizá la conclusión más importante del trabajo. Todos los análisis presentes en el trabajo serán realizados para cada uno de los dos géneros, de acuerdo con diversos estudios previos que demuestran que los géneros masculino y femenino deben tratarse de forma independiente debido a las diferencias orgánicas observadas entre ambos. Sin embargo, en lo referente a la detección de patología vocal contemplaremos también la posibilidad de trabajar con la base de datos unificada, comprobando que las tasas de acierto son también elevadas. Abstract Voice pathologies have become recently in a social problem that has reached a certain concern. Pollution in cities, smoking habits, air conditioning, etc. contributes to it. This problem is more relevant for professionals who use their voice frequently: speakers, singers, teachers, actors, telemarketers, etc. Therefore techniques that are capable of drawing conclusions from a sample of the recorded voice are of particular interest for the diagnosis as opposed to other invasive ones, involving exploration by laryngoscopes, fiber scopes or video endoscopes, which are techniques much less comfortable for patients. Voice quality analysis has come a long way in a relatively short period of time. In regard to the diagnosis of diseases, we have gone in the last fifteen years from working primarily with parameters extracted from the voice signal (both in time and frequency domains) and with scales drawn from subjective assessments by experts to produce more accurate evaluations with estimates derived from the glottal source. The importance of using the glottal source resides broadly in that this signal is linked to the state of the speaker's laryngeal structure. Unlike the voice signal (phonated speech) the glottal source, if conveniently reconstructed using adaptive lattices, may be less influenced by the vocal tract. As it is well known the vocal tract is related to the articulation of the spoken message and its influence complicates the process of voice pathology detection, unlike when using the reconstructed glottal source, where vocal tract influence has been almost completely removed. The estimates of the glottal source have been obtained through inverse filtering techniques developed by our research group. We have also deepened into the nature of the glottal signal, dissecting it and relating it to the biomechanical parameters of the vocal folds, obtaining several estimates of items such as mass, loss or elasticity of cover and body of the vocal fold, among others. From the components of the glottal source also arise the so-called biometric parameters, related to the shape of the signal, which are themselves a biometric signature of the individual. We will also work with temporal parameters related to the different stages that are observed in the glottal signal during a cycle of phonation. Finally, we will take into consideration classical perturbation and energy parameters. In short, we have now a considerable amount of glottal parameters in a multidimensional statistical basis, designed to be able to discriminate people with pathologic or dysphonic voices from those who do not show pathology. This thesis addresses several issues: first, a careful analysis of these new parameters is required, so we will offer a complete statistical description of them. We will also discuss issues such as distribution of the parameters, considering criteria such as their statistical normality. We will take special care in the analysis of the difference between distributions from healthy subjects and the distributions from pathological subjects. To reach these goals we will use different statistical techniques such as: generation of descriptive items and diagramas, tests for normality and hypothesis testing, both parametric and nonparametric. These latter techniques consider the difference between the groups of healthy subjects and groups of people with an illness related to voice. In addition, we are interested in finding statistical relationships between parameters. There are various reasons behind that: eliminate possible redundancies in the model, reduce the dimensionality of the problem and establish a criterion of relative importance in the parameters. The latter reason will be done in terms of discriminatory power for the criterion pathological/healthy. To this end, statistical techniques such as Bivariate Linear Correlation and Factor Analysis based on Principal Components will be applied. Finally, we will use the well-known technique of Discriminant Analysis classification applied to different combinations of parameters and factors to determine which of these combinations offers more promising success rates. To perform the experiments we have used a balanced and robust database, consisting of two hundred speakers, one hundred of them males and one hundred females. We have also used a well-balanced proportion where subjects with vocal pathology as well as subjects who don´t have a vocal pathology are equally represented. A computer application designed to carry out the collection of samples is also presented in this thesis. The different statistical analyses performed will allow us to determine which parameters contribute in a more decisive way in the detection of vocal pathology. Therefore, some of the analyses will even allow us to present a ranking of the parameters based on their importance for the detection of vocal pathology. On the other hand, we will also conclude that it is sometimes desirable to perform a dimensionality reduction in order to improve the detection rates. Finally, detection rates themselves are perhaps the most important conclusion of the work. All the analyses presented in this work have been performed for each of the two genders in agreement with previous studies showing that male and female genders should be treated independently, due to the observed functional differences between them. However, with regard to the detection of vocal pathology we will consider the possibility of working with the unified database, ensuring that the success rates obtained are also high.
Resumo:
Los Recursos Educativos Abiertos (REA) y los Cursos Educativos Abiertos (OCW) son utilizados como apoyo para los procesos de enseñanza aprendizaje; el carácter de abierto de estos recursos contribuye a la difusión de conocimiento y facilita el acceso a la información. Existe una gran cantidad de universidades e instituciones de educación superior que se han unido al movimiento abierto, poniendo a disposición los OCW que sus docentes realizan para los estudiantes formales, sin embargo se ha detectado que no existe un proceso estándar en la producción de OCW ya que cada universidad lo realiza con modelos propios de acuerdo a las normativas institucionales. Por lo cual en este trabajo de tesis doctoral se propone un modelo de producción de REA y OCW, denominado REACS que contempla el uso de un modelo de diseño instruccional que permite realizar un proceso sistemático de actividades que contribuyen al aprendizaje; además de la utilización de herramientas sociales y herramientas semánticas que aportan al trabajo colaborativo e identificación de los recursos por su significado, lo cual aporta a la inteligencia colectiva. REACS fue comparado con procesos de producción similares de las universidades relevantes del movimiento OCW, además de ser implementado en un caso de estudio con tres fases en la creación de OCW para una institución de educación superior. Con esta validación se pudo comprobar que REACS aportaba a incrementar el número de estudiantes que aprueban un curso y disminuye el tiempo de producción y publicación de un OCW. ABSTRACT Open Educational Resources (OER) and Open Course Ware (OCW) are used as support for teaching and learning processes; the open characteristic of these resources contributes to the diffusion of knowledge and facilitates the access to information. There are an important number of universities and institutions of higher education have joined to the open movement, making available the OCW´s for formal students. However, it has been found that there is not a standard process for the production of OCW and each university develop these with their own models according to their institutional regulations. Therefore, this doctoral thesis proposes REACS, a production model of OER and OCW that contemplates the use of an instructional design model that allows a systematic process of activities that contribute to learning. REACS includes the use of social tools and semantic tools that provide collaborative and identification of resources based in their meaning, contributing with the collective intelligence. REACS was compared with similar production processes belonging to relevant universities in the OCW movement. Additionally OCW were produced using REACS in a study case developed in three stages. With these validations, it was found that REACS contributed to increasing the student approved ratio and the OCW production and publication times were reduced.
Resumo:
La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).
Resumo:
Hay un ejemplar encuadernado con: La Real Compañia formada por S.M. para llevar a efecto el canal de navegación y riego del reyno de Murcia, las... experiencias de que informa D. Domingo Aguirre... le han confirmado en los abusos y fraudes que hacen muchos... (XVIII/4279).
Resumo:
En este trabajo lo que se pretende es hacer un análisis de los aspectos más importantes para la práctica del fútbol y, además, establecer una opinión personal de cómo se deberían entrenar estos tópicos tan importantes en nuestro deporte escogido, el fútbol. Para ello hemos dividido el trabajo en cuatro grandes bloques: cualidades físicas básicas, que constan de la fuerza, resistencia, flexibilidad y velocidad, de los componentes básicos del juego, a los que se les conocen como técnica, táctica y estrategia, un breve análisis de distintas formas de planificación para una temporada de un equipo de fútbol de Primera División y, por último, una opinión personal de como entrenar todo lo anterior, además de proponer un modelo de planificación anual y mensual para un equipo de la máxima categoría de la Liga Española de Fútbol.
Resumo:
Esta tesis presenta el diseño y la aplicación de una metodología que permite la determinación de los parámetros para la planificación de nodos e infraestructuras logísticas en un territorio, considerando además el impacto de estas en los diferentes componentes territoriales, así como en el desarrollo poblacional, el desarrollo económico y el medio ambiente, presentando así un avance en la planificación integral del territorio. La Metodología propuesta está basada en Minería de Datos, que permite el descubrimiento de patrones detrás de grandes volúmenes de datos previamente procesados. Las características propias de los datos sobre el territorio y los componentes que lo conforman hacen de los estudios territoriales un campo ideal para la aplicación de algunas de las técnicas de Minería de Datos, tales como los ´arboles decisión y las redes bayesianas. Los árboles de decisión permiten representar y categorizar de forma esquemática una serie de variables de predicción que ayudan al análisis de una variable objetivo. Las redes bayesianas representan en un grafo acíclico dirigido, un modelo probabilístico de variables distribuidas en padres e hijos, y la inferencia estadística que permite determinar la probabilidad de certeza de una hipótesis planteada, es decir, permiten construir modelos de probabilidad conjunta que presentan de manera gráfica las dependencias relevantes en un conjunto de datos. Al igual que con los árboles de decisión, la división del territorio en diferentes unidades administrativas hace de las redes bayesianas una herramienta potencial para definir las características físicas de alguna tipología especifica de infraestructura logística tomando en consideración las características territoriales, poblacionales y económicas del área donde se plantea su desarrollo y las posibles sinergias que se puedan presentar sobre otros nodos e infraestructuras logísticas. El caso de estudio seleccionado para la aplicación de la metodología ha sido la República de Panamá, considerando que este país presenta algunas características singulares, entra las que destacan su alta concentración de población en la Ciudad de Panamá; que a su vez a concentrado la actividad económica del país; su alto porcentaje de zonas protegidas, lo que ha limitado la vertebración del territorio; y el Canal de Panamá y los puertos de contenedores adyacentes al mismo. La metodología se divide en tres fases principales: Fase 1: Determinación del escenario de trabajo 1. Revisión del estado del arte. 2. Determinación y obtención de las variables de estudio. Fase 2: Desarrollo del modelo de inteligencia artificial 3. Construcción de los ´arboles de decisión. 4. Construcción de las redes bayesianas. Fase 3: Conclusiones 5. Determinación de las conclusiones. Con relación al modelo de planificación aplicado al caso de estudio, una vez aplicada la metodología, se estableció un modelo compuesto por 47 variables que definen la planificación logística de Panamá, el resto de variables se definen a partir de estas, es decir, conocidas estas, el resto se definen a través de ellas. Este modelo de planificación establecido a través de la red bayesiana considera los aspectos de una planificación sostenible: económica, social y ambiental; que crean sinergia con la planificación de nodos e infraestructuras logísticas. The thesis presents the design and application of a methodology that allows the determination of parameters for the planning of nodes and logistics infrastructure in a territory, besides considering the impact of these different territorial components, as well as the population growth, economic and environmental development. The proposed methodology is based on Data Mining, which allows the discovery of patterns behind large volumes of previously processed data. The own characteristics of the territorial data makes of territorial studies an ideal field of knowledge for the implementation of some of the Data Mining techniques, such as Decision Trees and Bayesian Networks. Decision trees categorize schematically a series of predictor variables of an analyzed objective variable. Bayesian Networks represent a directed acyclic graph, a probabilistic model of variables divided in fathers and sons, and statistical inference that allow determine the probability of certainty in a hypothesis. The case of study for the application of the methodology is the Republic of Panama. This country has some unique features: a high population density in the Panama City, a concentration of economic activity, a high percentage of protected areas, and the Panama Canal. The methodology is divided into three main phases: Phase 1: definition of the work stage. 1. Review of the State of the art. 2. Determination of the variables. Phase 2: Development of artificial intelligence model 3. Construction of decision trees. 4. Construction of Bayesian Networks. Phase 3: conclusions 5. Determination of the conclusions. The application of the methodology to the case study established a model composed of 47 variables that define the logistics planning for Panama. This model of planning established through the Bayesian network considers aspects of sustainable planning and simulates the synergies between the nodes and logistical infrastructure planning.
Resumo:
Inclui bibliografia.