634 resultados para Listas de MacKinnon


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesis analiza las posibilidades que ofrecen en la actualidad las tecnologías del habla para la detección de patologías clínicas asociadas a la vía aérea superior. El estudio del habla que tradicionalmente cubre tanto la producción como el proceso de transformación del mensaje y las señales involucradas, desde el emisor hasta alcanzar al receptor, ofrece una vía de estudio alternativa para estas patologías. El hecho de que la señal emitida no solo contiene este mensaje, sino también información acerca del locutor, ha motivado el desarrollo de sistemas orientados a la identificación y verificación de la identidad de los locutores. Estos trabajos han recibido recientemente un nuevo impulso, orientándose tanto hacia la caracterización de rasgos que son comunes a varios locutores, como a las diferencias existentes entre grabaciones de un mismo locutor. Los primeros resultan especialmente relevantes para esta Tesis dado que estos rasgos podrían evidenciar la presencia de características relacionadas con una cierta condición común a varios locutores, independiente de su identidad. Tal es el caso que se enfrenta en esta Tesis, donde los rasgos identificados se relacionarían con una de la patología particular y directamente vinculada con el sistema de físico de conformación del habla. El caso del Síndrome de Apneas Hipopneas durante el Sueno (SAHS) resulta paradigmático. Se trata de una patología con una elevada prevalencia mundo, que aumenta con la edad. Los pacientes de esta patología experimentan episodios de cese involuntario de la respiración durante el sueño, que se prolongan durante varios segundos y que se reproducen a lo largo de la noche impidiendo el correcto descanso. En el caso de la apnea obstructiva, estos episodios se deben a la imposibilidad de mantener un camino abierto a través de la vía aérea, de forma que el flujo de aire se ve interrumpido. En la actualidad, el diagnostico de estos pacientes se realiza a través de un estudio polisomnográfico, que se centra en el análisis de los episodios de apnea durante el sueño, requiriendo que el paciente permanezca en el hospital durante una noche. La complejidad y el elevado coste de estos procedimientos, unidos a las crecientes listas de espera, han evidenciado la necesidad de contar con técnicas rápidas de detección, que si bien podrían no obtener tasas tan elevadas, permitirían reorganizar las listas de espera en función del grado de severidad de la patología en cada paciente. Entre otros, los sistemas de diagnostico por imagen, así como la caracterización antropométrica de los pacientes, han evidenciado la existencia de patrones anatómicos que tendrían influencia directa sobre el habla. Los trabajos dedicados al estudio del SAHS en lo relativo a como esta afecta al habla han sido escasos y algunos de ellos incluso contradictorios. Sin embargo, desde finales de la década de 1980 se conoce la existencia de patrones específicos relativos a la articulación, la fonación y la resonancia. Sin embargo, su descripción resultaba difícilmente aprovechable a través de un sistema de reconocimiento automático, pero apuntaba la existencia de un nexo entre voz y SAHS. En los últimos anos las técnicas de procesado automático han permitido el desarrollo de sistemas automáticos que ya son capaces de identificar diferencias significativas en el habla de los pacientes del SAHS, y que los distinguen de los locutores sanos. Por contra, poco se conoce acerca de la conexión entre estos nuevos resultados, los sé que habían obtenido en el pasado y la patogénesis del SAHS. Esta Tesis continua la labor desarrollada en este ámbito considerando específicamente: el estudio de la forma en que el SAHS afecta el habla de los pacientes, la mejora en las tasas de clasificación automática y la combinación de la información obtenida con los predictores utilizados por los especialistas clínicos en sus evaluaciones preliminares. Las dos primeras tareas plantean problemas simbióticos, pero diferentes. Mientras el estudio de la conexión entre el SAHS y el habla requiere de modelos acotados que puedan ser interpretados con facilidad, los sistemas de reconocimiento se sirven de un elevado número de dimensiones para la caracterización y posterior identificación de patrones. Así, la primera tarea debe permitirnos avanzar en la segunda, al igual que la incorporación de los predictores utilizados por los especialistas clínicos. La Tesis aborda el estudio tanto del habla continua como del habla sostenida, con el fin de aprovechar las sinergias y diferencias existentes entre ambas. En el análisis del habla continua se tomo como punto de partida un esquema que ya fue evaluado con anterioridad, y sobre el cual se ha tratado la evaluación y optimización de la representación del habla, así como la caracterización de los patrones específicos asociados al SAHS. Ello ha evidenciado la conexión entre el SAHS y los elementos fundamentales de la señal de voz: los formantes. Los resultados obtenidos demuestran que el éxito de estos sistemas se debe, fundamentalmente, a la capacidad de estas representaciones para describir dichas componentes, obviando las dimensiones ruidosas o con poca capacidad discriminativa. El esquema resultante ofrece una tasa de error por debajo del 18%, sirviéndose de clasificadores notablemente menos complejos que los descritos en el estado del arte y de una única grabación de voz de corta duración. En relación a la conexión entre el SAHS y los patrones observados, fue necesario considerar las diferencias inter- e intra-grupo, centrándonos en la articulación característica del locutor, sustituyendo los complejos modelos de clasificación por el estudio de los promedios espectrales. El resultado apunta con claridad hacia ciertas regiones del eje de frecuencias, sugiriendo la existencia de un estrechamiento sistemático en la sección del tracto en la región de la orofaringe, ya prevista en la patogénesis de este síndrome. En cuanto al habla sostenida, se han reproducido los estudios realizados sobre el habla continua en grabaciones de la vocal /a/ sostenida. Los resultados son cualitativamente análogos a los anteriores, si bien en este caso las tasas de clasificación resultan ser más bajas. Con el objetivo de identificar el sentido de este resultado se reprodujo el estudio de los promedios espectrales y de la variabilidad inter e intra-grupo. Ambos estudios mostraron importantes diferencias con los anteriores que podrían explicar estos resultados. Sin embargo, el habla sostenida ofrece otras oportunidades al establecer un entorno controlado para el estudio de la fonación, que también había sido identificada como una fuente de información para la detección del SAHS. De su estudio se pudo observar que, en el conjunto de datos disponibles, no existen variaciones que pudieran asociarse fácilmente con la fonación. Únicamente aquellas dimensiones que describen la distribución de energía a lo largo del eje de frecuencia evidenciaron diferencias significativas, apuntando, una vez más, en la dirección de las resonancias espectrales. Analizados los resultados anteriores, la Tesis afronta la fusión de ambas fuentes de información en un único sistema de clasificación. Con ello es posible mejorar las tasas de clasificación, bajo la hipótesis de que la información presente en el habla continua y el habla sostenida es fundamentalmente distinta. Esta tarea se realizo a través de un sencillo esquema de fusión que obtuvo un 88.6% de aciertos en clasificación (tasa de error del 11.4%), lo que representa una mejora significativa respecto al estado del arte. Finalmente, la combinación de este clasificador con los predictores utilizados por los especialistas clínicos ofreció una tasa del 91.3% (tasa de error de 8.7%), que se encuentra dentro del margen ofrecido por esquemas más costosos e intrusivos, y que a diferencia del propuesto, no pueden ser utilizados en la evaluación previa de los pacientes. Con todo, la Tesis ofrece una visión clara sobre la relación entre el SAHS y el habla, evidenciando el grado de madurez alcanzado por la tecnología del habla en la caracterización y detección del SAHS, poniendo de manifiesto que su uso para la evaluación de los pacientes ya sería posible, y dejando la puerta abierta a futuras investigaciones que continúen el trabajo aquí iniciado. ABSTRACT This Thesis explores the potential of speech technologies for the detection of clinical disorders connected to the upper airway. The study of speech traditionally covers both the production process and post processing of the signals involved, from the speaker up to the listener, offering an alternative path to study these pathologies. The fact that utterances embed not just the encoded message but also information about the speaker, has motivated the development of automatic systems oriented to the identification and verificaton the speaker’s identity. These have recently been boosted and reoriented either towards the characterization of traits that are common to several speakers, or to the differences between records of the same speaker collected under different conditions. The first are particularly relevant to this Thesis as these patterns could reveal the presence of features that are related to a common condition shared among different speakers, regardless of their identity. Such is the case faced in this Thesis, where the traits identified would relate to a particular pathology, directly connected to the speech production system. The Obstructive Sleep Apnea syndrome (OSA) is a paradigmatic case for analysis. It is a disorder with high prevalence among adults and affecting a larger number of them as they grow older. Patients suffering from this disorder experience episodes of involuntary cessation of breath during sleep that may last a few seconds and reproduce throughout the night, preventing proper rest. In the case of obstructive apnea, these episodes are related to the collapse of the pharynx, which interrupts the air flow. Currently, OSA diagnosis is done through a polysomnographic study, which focuses on the analysis of apnea episodes during sleep, requiring the patient to stay at the hospital for the whole night. The complexity and high cost of the procedures involved, combined with the waiting lists, have evidenced the need for screening techniques, which perhaps would not achieve outstanding performance rates but would allow clinicians to reorganize these lists ranking patients according to the severity of their condition. Among others, imaging diagnosis and anthropometric characterization of patients have evidenced the existence of anatomical patterns related to OSA that have direct influence on speech. Contributions devoted to the study of how this disorder affects scpeech are scarce and somehow contradictory. However, since the late 1980s the existence of specific patterns related to articulation, phonation and resonance is known. By that time these descriptions were virtually useless when coming to the development of an automatic system, but pointed out the existence of a link between speech and OSA. In recent years automatic processing techniques have evolved and are now able to identify significant differences in the speech of OSAS patients when compared to records from healthy subjects. Nevertheless, little is known about the connection between these new results with those published in the past and the pathogenesis of the OSA syndrome. This Thesis is aimed to progress beyond the previous research done in this area by addressing: the study of how OSA affects patients’ speech, the enhancement of automatic OSA classification based on speech analysis, and its integration with the information embedded in the predictors generally used by clinicians in preliminary patients’ examination. The first two tasks, though may appear symbiotic at first, are quite different. While studying the connection between speech and OSA requires simple narrow models that can be easily interpreted, classification requires larger models including a large number dimensions for the characterization and posterior identification of the observed patterns. Anyhow, it is clear that any progress made in the first task should allow us to improve our performance on the second one, and that the incorporation of the predictors used by clinicians shall contribute in this same direction. The Thesis considers both continuous and sustained speech analysis, to exploit the synergies and differences between them. On continuous speech analysis, a conventional speech processing scheme, designed and evaluated before this Thesis, was taken as a baseline. Over this initial system several alternative representations of the speech information were proposed, optimized and tested to select those more suitable for the characterization of OSA-specific patterns. Evidences were found on the existence of a connection between OSA and the fundamental constituents of the speech: the formants. Experimental results proved that the success of the proposed solution is well explained by the ability of speech representations to describe these specific OSA-related components, ignoring the noisy ones as well those presenting low discrimination capabilities. The resulting scheme obtained a 18% error rate, on a classification scheme significantly less complex than those described in the literature and operating on a single speech record. Regarding the connection between OSA and the observed patterns, it was necessary to consider inter-and intra-group differences for this analysis, and to focus on the articulation, replacing the complex classification models by the long-term average spectra. Results clearly point to certain regions on the frequency axis, suggesting the existence of a systematic narrowing in the vocal tract section at the oropharynx. This was already described in the pathogenesis of this syndrome. Regarding sustained speech, similar experiments as those conducted on continuous speech were reproduced on sustained phonations of vowel / a /. Results were qualitatively similar to the previous ones, though in this case perfomance rates were found to be noticeably lower. Trying to derive further knowledge from this result, experiments on the long-term average spectra and intraand inter-group variability ratios were also reproduced on sustained speech records. Results on both experiments showed significant differences from the previous ones obtained from continuous speech which could explain the differences observed on peformance. However, sustained speech also provided the opportunity to study phonation within the controlled framework it provides. This was also identified in the literature as a source of information for the detection of OSA. In this study it was found that, for the available dataset, no sistematic differences related to phonation could be found between the two groups of speakers. Only those dimensions which relate energy distribution along the frequency axis provided significant differences, pointing once again towards the direction of resonant components. Once classification schemes on both continuous and sustained speech were developed, the Thesis addressed their combination into a single classification system. Under the assumption that the information in continuous and sustained speech is fundamentally different, it should be possible to successfully merge the two of them. This was tested through a simple fusion scheme which obtained a 88.6% correct classification (11.4% error rate), which represents a significant improvement over the state of the art. Finally, the combination of this classifier with the variables used by clinicians obtained a 91.3% accuracy (8.7% error rate). This is within the range of alternative, but costly and intrusive schemes, which unlike the one proposed can not be used in the preliminary assessment of patients’ condition. In the end, this Thesis has shed new light on the underlying connection between OSA and speech, and evidenced the degree of maturity reached by speech technology on OSA characterization and detection, leaving the door open for future research which shall continue in the multiple directions that have been pointed out and left as future work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antecedentes Europa vive una situación insostenible. Desde el 2008 se han reducido los recursos de los gobiernos a raíz de la crisis económica. El continente Europeo envejece con ritmo constante al punto que se prevé que en 2050 habrá sólo dos trabajadores por jubilado [54]. A esta situación se le añade el aumento de la incidencia de las enfermedades crónicas, relacionadas con el envejecimiento, cuyo coste puede alcanzar el 7% del PIB de un país [51]. Es necesario un cambio de paradigma. Una nueva manera de cuidar de la salud de las personas: sustentable, eficaz y preventiva más que curativa. Algunos estudios abogan por el cuidado personalizado de la salud (pHealth). En este modelo las prácticas médicas son adaptadas e individualizadas al paciente, desde la detección de los factores de riesgo hasta la personalización de los tratamientos basada en la respuesta del individuo [81]. El cuidado personalizado de la salud está asociado a menudo al uso de las tecnologías de la información y comunicación (TICs) que, con su desarrollo exponencial, ofrecen oportunidades interesantes para la mejora de la salud. El cambio de paradigma hacia el pHealth está lentamente ocurriendo, tanto en el ámbito de la investigación como en la industria, pero todavía no de manera significativa. Existen todavía muchas barreras relacionadas a la economía, a la política y la cultura. También existen barreras puramente tecnológicas, como la falta de sistemas de información interoperables [199]. A pesar de que los aspectos de interoperabilidad están evolucionando, todavía hace falta un diseño de referencia especialmente direccionado a la implementación y el despliegue en gran escala de sistemas basados en pHealth. La presente Tesis representa un intento de organizar la disciplina de la aplicación de las TICs al cuidado personalizado de la salud en un modelo de referencia, que permita la creación de plataformas de desarrollo de software para simplificar tareas comunes de desarrollo en este dominio. Preguntas de investigación RQ1 >Es posible definir un modelo, basado en técnicas de ingeniería del software, que represente el dominio del cuidado personalizado de la salud de una forma abstracta y representativa? RQ2 >Es posible construir una plataforma de desarrollo basada en este modelo? RQ3 >Esta plataforma ayuda a los desarrolladores a crear sistemas pHealth complejos e integrados? Métodos Para la descripción del modelo se adoptó el estándar ISO/IEC/IEEE 42010por ser lo suficientemente general y abstracto para el amplio enfoque de esta tesis [25]. El modelo está definido en varias partes: un modelo conceptual, expresado a través de mapas conceptuales que representan las partes interesadas (stakeholders), los artefactos y la información compartida; y escenarios y casos de uso para la descripción de sus funcionalidades. El modelo fue desarrollado de acuerdo a la información obtenida del análisis de la literatura, incluyendo 7 informes industriales y científicos, 9 estándares, 10 artículos en conferencias, 37 artículos en revistas, 25 páginas web y 5 libros. Basándose en el modelo se definieron los requisitos para la creación de la plataforma de desarrollo, enriquecidos por otros requisitos recolectados a través de una encuesta realizada a 11 ingenieros con experiencia en la rama. Para el desarrollo de la plataforma, se adoptó la metodología de integración continua [74] que permitió ejecutar tests automáticos en un servidor y también desplegar aplicaciones en una página web. En cuanto a la metodología utilizada para la validación se adoptó un marco para la formulación de teorías en la ingeniería del software [181]. Esto requiere el desarrollo de modelos y proposiciones que han de ser validados dentro de un ámbito de investigación definido, y que sirvan para guiar al investigador en la búsqueda de la evidencia necesaria para justificarla. La validación del modelo fue desarrollada mediante una encuesta online en tres rondas con un número creciente de invitados. El cuestionario fue enviado a 134 contactos y distribuido en algunos canales públicos como listas de correo y redes sociales. El objetivo era evaluar la legibilidad del modelo, su nivel de cobertura del dominio y su potencial utilidad en el diseño de sistemas derivados. El cuestionario incluía preguntas cuantitativas de tipo Likert y campos para recolección de comentarios. La plataforma de desarrollo fue validada en dos etapas. En la primera etapa se utilizó la plataforma en un experimento a pequeña escala, que consistió en una sesión de entrenamiento de 12 horas en la que 4 desarrolladores tuvieron que desarrollar algunos casos de uso y reunirse en un grupo focal para discutir su uso. La segunda etapa se realizó durante los tests de un proyecto en gran escala llamado HeartCycle [160]. En este proyecto un equipo de diseñadores y programadores desarrollaron tres aplicaciones en el campo de las enfermedades cardio-vasculares. Una de estas aplicaciones fue testeada en un ensayo clínico con pacientes reales. Al analizar el proyecto, el equipo de desarrollo se reunió en un grupo focal para identificar las ventajas y desventajas de la plataforma y su utilidad. Resultados Por lo que concierne el modelo que describe el dominio del pHealth, la parte conceptual incluye una descripción de los roles principales y las preocupaciones de los participantes, un modelo de los artefactos TIC que se usan comúnmente y un modelo para representar los datos típicos que son necesarios formalizar e intercambiar entre sistemas basados en pHealth. El modelo funcional incluye un conjunto de 18 escenarios, repartidos en: punto de vista de la persona asistida, punto de vista del cuidador, punto de vista del desarrollador, punto de vista de los proveedores de tecnologías y punto de vista de las autoridades; y un conjunto de 52 casos de uso repartidos en 6 categorías: actividades de la persona asistida, reacciones del sistema, actividades del cuidador, \engagement" del usuario, actividades del desarrollador y actividades de despliegue. Como resultado del cuestionario de validación del modelo, un total de 65 personas revisó el modelo proporcionando su nivel de acuerdo con las dimensiones evaluadas y un total de 248 comentarios sobre cómo mejorar el modelo. Los conocimientos de los participantes variaban desde la ingeniería del software (70%) hasta las especialidades médicas (15%), con declarado interés en eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), medicina personalizada (5%), sistemas basados en pHealth (15%), informática médica (10%) e ingeniería biomédica (8%) con una media de 7.25_4.99 años de experiencia en estas áreas. Los resultados de la encuesta muestran que los expertos contactados consideran el modelo fácil de leer (media de 1.89_0.79 siendo 1 el valor más favorable y 5 el peor), suficientemente abstracto (1.99_0.88) y formal (2.13_0.77), con una cobertura suficiente del dominio (2.26_0.95), útil para describir el dominio (2.02_0.7) y para generar sistemas más específicos (2_0.75). Los expertos también reportan un interés parcial en utilizar el modelo en su trabajo (2.48_0.91). Gracias a sus comentarios, el modelo fue mejorado y enriquecido con conceptos que faltaban, aunque no se pudo demonstrar su mejora en las dimensiones evaluadas, dada la composición diferente de personas en las tres rondas de evaluación. Desde el modelo, se generó una plataforma de desarrollo llamada \pHealth Patient Platform (pHPP)". La plataforma desarrollada incluye librerías, herramientas de programación y desarrollo, un tutorial y una aplicación de ejemplo. Se definieron cuatro módulos principales de la arquitectura: el Data Collection Engine, que permite abstraer las fuentes de datos como sensores o servicios externos, mapeando los datos a bases de datos u ontologías, y permitiendo interacción basada en eventos; el GUI Engine, que abstrae la interfaz de usuario en un modelo de interacción basado en mensajes; y el Rule Engine, que proporciona a los desarrolladores un medio simple para programar la lógica de la aplicación en forma de reglas \if-then". Después de que la plataforma pHPP fue utilizada durante 5 años en el proyecto HeartCycle, 5 desarrolladores fueron reunidos en un grupo de discusión para analizar y evaluar la plataforma. De estas evaluaciones se concluye que la plataforma fue diseñada para encajar las necesidades de los ingenieros que trabajan en la rama, permitiendo la separación de problemas entre las distintas especialidades, y simplificando algunas tareas de desarrollo como el manejo de datos y la interacción asíncrona. A pesar de ello, se encontraron algunos defectos a causa de la inmadurez de algunas tecnologías empleadas, y la ausencia de algunas herramientas específicas para el dominio como el procesado de datos o algunos protocolos de comunicación relacionados con la salud. Dentro del proyecto HeartCycle la plataforma fue utilizada para el desarrollo de la aplicación \Guided Exercise", un sistema TIC para la rehabilitación de pacientes que han sufrido un infarto del miocardio. El sistema fue testeado en un ensayo clínico randomizado en el cual a 55 pacientes se les dio el sistema para su uso por 21 semanas. De los resultados técnicos del ensayo se puede concluir que, a pesar de algunos errores menores prontamente corregidos durante el estudio, la plataforma es estable y fiable. Conclusiones La investigación llevada a cabo en esta Tesis y los resultados obtenidos proporcionan las respuestas a las tres preguntas de investigación que motivaron este trabajo: RQ1 Se ha desarrollado un modelo para representar el dominio de los sistemas personalizados de salud. La evaluación hecha por los expertos de la rama concluye que el modelo representa el dominio con precisión y con un balance apropiado entre abstracción y detalle. RQ2 Se ha desarrollado, con éxito, una plataforma de desarrollo basada en el modelo. RQ3 Se ha demostrado que la plataforma es capaz de ayudar a los desarrolladores en la creación de software pHealth complejos. Las ventajas de la plataforma han sido demostradas en el ámbito de un proyecto de gran escala, aunque el enfoque genérico adoptado indica que la plataforma podría ofrecer beneficios también en otros contextos. Los resultados de estas evaluaciones ofrecen indicios de que, ambos, el modelo y la plataforma serán buenos candidatos para poderse convertir en una referencia para futuros desarrollos de sistemas pHealth. ABSTRACT Background Europe is living in an unsustainable situation. The economic crisis has been reducing governments' economic resources since 2008 and threatening social and health systems, while the proportion of older people in the European population continues to increase so that it is foreseen that in 2050 there will be only two workers per retiree [54]. To this situation it should be added the rise, strongly related to age, of chronic diseases the burden of which has been estimated to be up to the 7% of a country's gross domestic product [51]. There is a need for a paradigm shift, the need for a new way of caring for people's health, shifting the focus from curing conditions that have arisen to a sustainable and effective approach with the emphasis on prevention. Some advocate the adoption of personalised health care (pHealth), a model where medical practices are tailored to the patient's unique life, from the detection of risk factors to the customization of treatments based on each individual's response [81]. Personalised health is often associated to the use of Information and Communications Technology (ICT), that, with its exponential development, offers interesting opportunities for improving healthcare. The shift towards pHealth is slowly taking place, both in research and in industry, but the change is not significant yet. Many barriers still exist related to economy, politics and culture, while others are purely technological, like the lack of interoperable information systems [199]. Though interoperability aspects are evolving, there is still the need of a reference design, especially tackling implementation and large scale deployment of pHealth systems. This thesis contributes to organizing the subject of ICT systems for personalised health into a reference model that allows for the creation of software development platforms to ease common development issues in the domain. Research questions RQ1 Is it possible to define a model, based on software engineering techniques, for representing the personalised health domain in an abstract and representative way? RQ2 Is it possible to build a development platform based on this model? RQ3 Does the development platform help developers create complex integrated pHealth systems? Methods As method for describing the model, the ISO/IEC/IEEE 42010 framework [25] is adopted for its generality and high level of abstraction. The model is specified in different parts: a conceptual model, which makes use of concept maps, for representing stakeholders, artefacts and shared information, and in scenarios and use cases for the representation of the functionalities of pHealth systems. The model was derived from literature analysis, including 7 industrial and scientific reports, 9 electronic standards, 10 conference proceedings papers, 37 journal papers, 25 websites and 5 books. Based on the reference model, requirements were drawn for building the development platform enriched with a set of requirements gathered in a survey run among 11 experienced engineers. For developing the platform, the continuous integration methodology [74] was adopted which allowed to perform automatic tests on a server and also to deploy packaged releases on a web site. As a validation methodology, a theory building framework for SW engineering was adopted from [181]. The framework, chosen as a guide to find evidence for justifying the research questions, imposed the creation of theories based on models and propositions to be validated within a scope. The validation of the model was conducted as an on-line survey in three validation rounds, encompassing a growing number of participants. The survey was submitted to 134 experts of the field and on some public channels like relevant mailing lists and social networks. Its objective was to assess the model's readability, its level of coverage of the domain and its potential usefulness in the design of actual, derived systems. The questionnaires included quantitative Likert scale questions and free text inputs for comments. The development platform was validated in two scopes. As a small-scale experiment, the platform was used in a 12 hours training session where 4 developers had to perform an exercise consisting in developing a set of typical pHealth use cases At the end of the session, a focus group was held to identify benefits and drawbacks of the platform. The second validation was held as a test-case study in a large scale research project called HeartCycle the aim of which was to develop a closed-loop disease management system for heart failure and coronary heart disease patients [160]. During this project three applications were developed by a team of programmers and designers. One of these applications was tested in a clinical trial with actual patients. At the end of the project, the team was interviewed in a focus group to assess the role the platform had within the project. Results For what regards the model that describes the pHealth domain, its conceptual part includes a description of the main roles and concerns of pHealth stakeholders, a model of the ICT artefacts that are commonly adopted and a model representing the typical data that need to be formalized among pHealth systems. The functional model includes a set of 18 scenarios, divided into assisted person's view, caregiver's view, developer's view, technology and services providers' view and authority's view, and a set of 52 Use Cases grouped in 6 categories: assisted person's activities, system reactions, caregiver's activities, user engagement, developer's activities and deployer's activities. For what concerns the validation of the model, a total of 65 people participated in the online survey providing their level of agreement in all the assessed dimensions and a total of 248 comments on how to improve and complete the model. Participants' background spanned from engineering and software development (70%) to medical specialities (15%), with declared interest in the fields of eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), Personalized Medicine (5%), Personal Health Systems (15%), Medical Informatics (10%) and Biomedical Engineering (8%) with an average of 7.25_4.99 years of experience in these fields. From the analysis of the answers it is possible to observe that the contacted experts considered the model easily readable (average of 1.89_0.79 being 1 the most favourable scoring and 5 the worst), sufficiently abstract (1.99_0.88) and formal (2.13_0.77) for its purpose, with a sufficient coverage of the domain (2.26_0.95), useful for describing the domain (2.02_0.7) and for generating more specific systems (2_0.75) and they reported a partial interest in using the model in their job (2.48_0.91). Thanks to their comments, the model was improved and enriched with concepts that were missing at the beginning, nonetheless it was not possible to prove an improvement among the iterations, due to the diversity of the participants in the three rounds. From the model, a development platform for the pHealth domain was generated called pHealth Patient Platform (pHPP). The platform includes a set of libraries, programming and deployment tools, a tutorial and a sample application. The main four modules of the architecture are: the Data Collection Engine, which allows abstracting sources of information like sensors or external services, mapping data to databases and ontologies, and allowing event-based interaction and filtering, the GUI Engine, which abstracts the user interface in a message-like interaction model, the Workow Engine, which allows programming the application's user interaction ows with graphical workows, and the Rule Engine, which gives developers a simple means for programming the application's logic in the form of \if-then" rules. After the 5 years experience of HeartCycle, partially programmed with pHPP, 5 developers were joined in a focus group to discuss the advantages and drawbacks of the platform. The view that emerged from the training course and the focus group was that the platform is well-suited to the needs of the engineers working in the field, it allowed the separation of concerns among the different specialities and it simplified some common development tasks like data management and asynchronous interaction. Nevertheless, some deficiencies were pointed out in terms of a lack of maturity of some technological choices, and for the absence of some domain-specific tools, e.g. for data processing or for health-related communication protocols. Within HeartCycle, the platform was used to develop part of the Guided Exercise system, a composition of ICT tools for the physical rehabilitation of patients who suffered from myocardial infarction. The system developed using the platform was tested in a randomized controlled clinical trial, in which 55 patients used the system for 21 weeks. The technical results of this trial showed that the system was stable and reliable. Some minor bugs were detected, but these were promptly corrected using the platform. This shows that the platform, as well as facilitating the development task, can be successfully used to produce reliable software. Conclusions The research work carried out in developing this thesis provides responses to the three three research questions that were the motivation for the work. RQ1 A model was developed representing the domain of personalised health systems, and the assessment of experts in the field was that it represents the domain accurately, with an appropriate balance between abstraction and detail. RQ2 A development platform based on the model was successfully developed. RQ3 The platform has been shown to assist developers create complex pHealth software. This was demonstrated within the scope of one large-scale project, but the generic approach adopted provides indications that it would offer benefits more widely. The results of these evaluations provide indications that both the model and the platform are good candidates for being a reference for future pHealth developments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El principal mecanismo de georreferenciación es numérico, asociando un conjunto de coordenadas a los puntos representativos del tipo de entidad que se pretende referenciar, si bien no es el único. El segundo mecanismo es alfanumérico usando la dirección postal. Ambos mecanismos presentan dificultades ya sea del lado del ciudadano, por no interpretar correctamente las coordenadas, o por la falta de consistencia en las denominaciones de las vías. En este documento se presenta una propuesta alternativa basada en georreferenciación simbólica que se apoya en los identificadores que gestiona y mantiene la Dirección General de Catastro (DGC) y que ya se están utilizando en el plano del derecho (notarios y registradores) o en el de los tributos (agencia tributaria). La propuesta de mecanismo de georreferenciación pasa por usar las Referencias Catastrales (RC) para localizar infraestructuras y para registrar todo tipo de instalaciones que afectan a la mayoría de los ciudadanos. En esta línea se apunta la necesidad de proveer servicios web que permitan recuperar listas de RC, que se parezcan a un patrón suministrado, así como la posición de dichas RC (GeoCoder), la posibilidad de solicitar la descarga del polígono envolvente de la RC, o determinar la RC más próxima a una determinada posición definida por sus coordenadas. Todo ello usando los formatos de intercambio de información que no requieran la disposición de un servicio intermediario (proxy), como ocurre con los formatos de la familia XML (GML). Se propone el formato GeoJSON, basado en el estándar WKT del OGC y que es fácilmente procesable en entornos web con JavaScript.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Physical activity for pregnant women should be controlled and adapted in order to minimize the risk of loss of balance and fetal trauma (Davies, Wolfe, Mottola, y MacKinnon, 2003). Noninvasive technologies are required for understanding better the effects of physical activity on pregnant women. Infrared thermography allows, remotely, securely and without any contact, to measure and display accurate temperatures on the human skin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La apertura de los mercados internacionales de capital como consecuencia del proceso de globalización ha motivado un aumento significativo de la labor investigadora en el campo de la economía y, concretamente, en la teoría de la inversión. Los trabajos en este área tuvieron como punto de partida el artículo publicado por Harry Markowitz en 1952 en el Journal of Finance bajo el título “Portfolio Selection”. En él se pretende hacer una modelización del proceso inversionista principalmente a través de dos criterios: riesgo y retorno. Markowitz no da indicaciones en cuanto a cómo elegir la composición de una cartera optimizando simultáneamente riesgo y retorno. En su lugar, fija una de las dos variables (según la aversión al riesgo del inversor y su preferencia por las ganancias) y optimiza la otra. Sin embargo, este análisis resulta ser bastante simplista si tenemos en cuenta que los inversores, como cualquier ser humano, son decisores multicriterio: no sólo maximizarán el beneficio para un riesgo dado, sino que intentarán también minimizar el riesgo, diversificar el tipo de acciones que poseen para inmunizarse frente a crisis financieras, emplear nuevos criterios de inversión que incorporen la sostenibilidad medioambiental y el impacto que la actividad productiva tiene en la sociedad, destinar un mayor porcentaje del presupuesto a compañías poco endeudadas, que alcancen un buen rating o unos buenos índices de responsabilidad social corporativa, etc. La inclusión de estas nuevas variables en el modelo tradicional es ahora posible gracias a la teoría de la decisión multicriterio (MCDM: Multiple Criteria Decision Making). Desde los años setenta se viene desarrollando y aplicando este nuevo paradigma en áreas tan dispares como la planificación de redes de telecomunicación, la optimización de listas de espera en hospitales o la planificación logística de las grandes distribuidoras y compañías de mensajería. En el presente trabajo se pretende aplicar el paradigma MCDM a la construcción de una cartera de acciones siguiendo criterios tanto puramente financieros como de sostenibilidad medioambiental y responsabilidad social corporativa. Para ello, en esta primera parte se estudiará la teoría clásica de selección de carteras de Markowitz, explicando los parámetros que permiten caracterizar un instrumento financiero individual (retorno, riesgo, covarianza) y una cartera de instrumentos (diversificación, frontera eficiente). En la segunda parte se analizará en profundidad el concepto de desarrollo sostenible, tan extendido en la actualidad, y su transposición al plano corporativo y de gestión de carteras. Se realizará una revisión histórica del término y su encaje en el esquema de decisión de una compañía privada, así como un estudio de las herramientas para medir el cumplimiento de ciertos principios de sostenibilidad por parte de las compañías y hacer, de esta forma, cuantificables dichos conceptos con vistas a su incorporación al esquema decisional del inversor. Con posterioridad, en la tercera parte se estudiará la programación por metas como técnica de decisión multicriterio para aplicar al problema de la composición de carteras. El potencial de esta metodología radica en que permite hacer resoluble un problema, en principio, sin solución. Y es que, como no se pueden optimizar todos y cada uno de los criterios simultáneamente, la programación por metas minimizará las desviaciones respecto a determinados niveles de aspiración para ofrecer una solución lo más cercana posible a la ideal. Finalmente, se construirá un caso de estudio a partir de datos reales tanto financieros como de sostenibilidad para, posteriormente, resolver el modelo matemático construido empleando LINGO. A través de esta herramienta software se podrá simular el proceso de optimización y obtener una cartera-solución que refleje las preferencias del agente decisor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El principal objetivo de este proyecto, tal como se especifica más adelante, es desarrollar una serie de buenas prácticas dentro del ámbito informático forense. Éstas serían la base de una metodología informática forense, para que cualquier persona con los conocimientos técnicos adecuados pueda afrontar una investigación pericial informática forense con garantías de poder afrontar un proceso judicial. Los objetivos secundarios son: Explorar las posibilidades de alinear las buenas prácticas desarrolladas con el uso del editor de textos Emacs, y un método de gestión de las actividades conocido como Getting Things Done (GTD), utilizando el modo orgmode de Emacs. • GTD se basa en el principio de que una persona necesita borrar de su mente todas las tareas que tiene pendientes guardándolas en un lugar específico. De este modo, se libera a la mente del trabajo de recordar todo lo que hay que hacer, y se puede concentrar en la efectiva realización de aquellas tareas. • ORGMODE es un modo de edición del editor de texto Emacs mediante el cual se editan documentos jerárquicos en texto plano. Su uso encaja con distintas necesidades, como la creación de notas de cosas por hacer, la planificación de proyectos y programación, entre otros aspectos. Por ejemplo, los elementos to-do (cosas por hacer) pueden disponer de prioridades y fechas de vencimiento, pueden estar subdivididos en subtareas o en listas de verificación, y pueden etiquetarse o darles propiedades. También puede generarse automáticamente una agenda de las entradas de cosas por hacer. Facilitar las plantillas de documentación y herramientas que permitan a un perito informático forense abordar una investigación informática forense, siguiendo las buenas prácticas definidas en el presente documento, con garantías de que las tareas realizadas, así como las evidencias presentadas serán aceptadas en un proceso judicial. Explicar las diferencias básicas entre el concepto sobreentendido socialmente como análisis forense y el peritaje informático forense. No es objetivo de este proyecto desarrollar herramientas concretas con objetivos forenses ni una metodología completa de peritaje informático forense.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los tipos de datos concurrentes son implementaciones concurrentes de las abstracciones de datos clásicas, con la diferencia de que han sido específicamente diseñados para aprovechar el gran paralelismo disponible en las modernas arquitecturas multiprocesador y multinúcleo. La correcta manipulación de los tipos de datos concurrentes resulta esencial para demostrar la completa corrección de los sistemas de software que los utilizan. Una de las mayores dificultades a la hora de diseñar y verificar tipos de datos concurrentes surge de la necesidad de tener que razonar acerca de un número arbitrario de procesos que invocan estos tipos de datos de manera concurrente. Esto requiere considerar sistemas parametrizados. En este trabajo estudiamos la verificación formal de propiedades temporales de sistemas concurrentes parametrizados, poniendo especial énfasis en programas que manipulan estructuras de datos concurrentes. La principal dificultad a la hora de razonar acerca de sistemas concurrentes parametrizados proviene de la interacción entre el gran nivel de concurrencia que éstos poseen y la necesidad de razonar al mismo tiempo acerca de la memoria dinámica. La verificación de sistemas parametrizados resulta en sí un problema desafiante debido a que requiere razonar acerca de estructuras de datos complejas que son accedidas y modificadas por un numero ilimitado de procesos que manipulan de manera simultánea el contenido de la memoria dinámica empleando métodos de sincronización poco estructurados. En este trabajo, presentamos un marco formal basado en métodos deductivos capaz de ocuparse de la verificación de propiedades de safety y liveness de sistemas concurrentes parametrizados que manejan estructuras de datos complejas. Nuestro marco formal incluye reglas de prueba y técnicas especialmente adaptadas para sistemas parametrizados, las cuales trabajan en colaboración con procedimientos de decisión especialmente diseñados para analizar complejas estructuras de datos concurrentes. Un aspecto novedoso de nuestro marco formal es que efectúa una clara diferenciación entre el análisis del flujo de control del programa y el análisis de los datos que se manejan. El flujo de control del programa se analiza utilizando reglas de prueba y técnicas de verificación deductivas especialmente diseñadas para lidiar con sistemas parametrizados. Comenzando a partir de un programa concurrente y la especificación de una propiedad temporal, nuestras técnicas deductivas son capaces de generar un conjunto finito de condiciones de verificación cuya validez implican la satisfacción de dicha especificación temporal por parte de cualquier sistema, sin importar el número de procesos que formen parte del sistema. Las condiciones de verificación generadas se corresponden con los datos manipulados. Estudiamos el diseño de procedimientos de decisión especializados capaces de lidiar con estas condiciones de verificación de manera completamente automática. Investigamos teorías decidibles capaces de describir propiedades de tipos de datos complejos que manipulan punteros, tales como implementaciones imperativas de pilas, colas, listas y skiplists. Para cada una de estas teorías presentamos un procedimiento de decisión y una implementación práctica construida sobre SMT solvers. Estos procedimientos de decisión son finalmente utilizados para verificar de manera automática las condiciones de verificación generadas por nuestras técnicas de verificación parametrizada. Para concluir, demostramos como utilizando nuestro marco formal es posible probar no solo propiedades de safety sino además de liveness en algunas versiones de protocolos de exclusión mutua y programas que manipulan estructuras de datos concurrentes. El enfoque que presentamos en este trabajo resulta ser muy general y puede ser aplicado para verificar un amplio rango de tipos de datos concurrentes similares. Abstract Concurrent data types are concurrent implementations of classical data abstractions, specifically designed to exploit the great deal of parallelism available in modern multiprocessor and multi-core architectures. The correct manipulation of concurrent data types is essential for the overall correctness of the software system built using them. A major difficulty in designing and verifying concurrent data types arises by the need to reason about any number of threads invoking the data type simultaneously, which requires considering parametrized systems. In this work we study the formal verification of temporal properties of parametrized concurrent systems, with a special focus on programs that manipulate concurrent data structures. The main difficulty to reason about concurrent parametrized systems comes from the combination of their inherently high concurrency and the manipulation of dynamic memory. This parametrized verification problem is very challenging, because it requires to reason about complex concurrent data structures being accessed and modified by threads which simultaneously manipulate the heap using unstructured synchronization methods. In this work, we present a formal framework based on deductive methods which is capable of dealing with the verification of safety and liveness properties of concurrent parametrized systems that manipulate complex data structures. Our framework includes special proof rules and techniques adapted for parametrized systems which work in collaboration with specialized decision procedures for complex data structures. A novel aspect of our framework is that it cleanly differentiates the analysis of the program control flow from the analysis of the data being manipulated. The program control flow is analyzed using deductive proof rules and verification techniques specifically designed for coping with parametrized systems. Starting from a concurrent program and a temporal specification, our techniques generate a finite collection of verification conditions whose validity entails the satisfaction of the temporal specification by any client system, in spite of the number of threads. The verification conditions correspond to the data manipulation. We study the design of specialized decision procedures to deal with these verification conditions fully automatically. We investigate decidable theories capable of describing rich properties of complex pointer based data types such as stacks, queues, lists and skiplists. For each of these theories we present a decision procedure, and its practical implementation on top of existing SMT solvers. These decision procedures are ultimately used for automatically verifying the verification conditions generated by our specialized parametrized verification techniques. Finally, we show how using our framework it is possible to prove not only safety but also liveness properties of concurrent versions of some mutual exclusion protocols and programs that manipulate concurrent data structures. The approach we present in this work is very general, and can be applied to verify a wide range of similar concurrent data types.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Sistema Integrado de Gestión Académica consiste en una plataforma software modular orientada a apoyar la labor del profesorado en la gestión docente de las asignaturas impartidas por el Departamento de Mecánica de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid. Durante los últimos 5 años se ha trabajado en la creación de esta plataforma que se encuentra ahora en su recta final. Es necesario aclarar que toda la plataforma desde su inicio ha sido creada por el mismo autor y que debido al tiempo disponible para la realización del TFG, éste se ha centrado en realizar mejoras sobre lo ya desarrollado y en implementar uno de los módulos. El trabajo desarrollado comienza con un estudio de plataformas educativas online. Se han valorado las alternativas de Moodle y ATutor como posibles soluciones a los requisitos planteados llegando a la conclusión de que era necesario realizar un desarrollo a medida. La plataforma consta de 3 módulos principales:  Plataforma de Gestión Docente en Internet (PGDNet)  Aplicación de Notas (AdN)  Plataforma de Entrega de Prácticas Académicas (PEPA) PGDNet está orientado a la realización de pruebas de evaluación online. El profesor tiene a su alcance un conjunto de opciones que le permiten la creación de actividades y ejercicios de diferente índole, gestionar alumnos y establecer periodos de evaluación. El sistema recoge los resultados y corrige automáticamente permitiendo además exportar los resultados, manteniendo de esta manera la compatibilidad con otros sistemas informáticos de la UPM. PGDNet ofrece además un servicio de correo electrónico para realizar comunicaciones con grupos predefinidos de alumnos, un gestor documental enlazado con las diferentes actividades y un gestor de encuestas programable a medida. AdN se integra en la plataforma como un sistema para la gestión de calificaciones y permite mantener un historial del alumno. Las materias pueden dividirse en diferentes evaluaciones con un determinado peso sobre la calificación final. La nota total se calcula en tiempo real y de forma automática. El alumno puede entrar a consultar sus calificaciones en cualquier momento. El módulo ofrece a los profesores acceso simultáneo a introducir las calificaciones e importar notas guardadas de convocatorias pasadas. PEPA es el nuevo módulo que se añade a la plataforma y el que concentra los esfuerzos de desarrollo de este TFG. Se trata de un sistema de entrega de prácticas online que permite al profesor centralizar la recogida de documentación para su posterior corrección. PEPA dispone de un sistema de plantillas de respuestas fijas utilizadas en los laboratorios que son corregidas de forma automática en la entrega. Los 3 módulos se complementan entre sí compartiendo datos y permitiendo realizar importaciones y exportaciones de información con las aplicaciones actuales de Secretaría de alumnos como puede ser la introducción de listas de alumnos.---ABSTRACT---Academic Management Framework (Sistema Integrado de Gestión Académica) is a module‐oriented software application that aims to help teachers from ETSIDI Department from UPM to manage all information related to graduate courses. The software, which has been in continuous developing during the last 5 years, is now about to be finished. It must be pointed out the fact that the entire application has been designed and implemented by the same author. However, due to time schedule restrictions in this TFG (spanish acronym for “Graduation Project”), it has been focused on developing a few improvements in the software already implemented and creating a specific new module. In the beginning, this TFG includes an educational software comparative study. Moodle and ATutor have been selected as plausible assembled solutions that would fit the requirements given. Nonetheless, the conclusion ends up with rejecting both possibilities and moving the project towards a custom‐developed software. The application is divided in 3 modules:  Network Based Academic Management Platform (Plataforma de Gestión Docente en Internet ‐ PGDNet)  Evaluation Aid Tool (Aplicación de Notas ‐ AdN)  Academic Lab‐Work Delivery Platform (Plataforma de Entrega de Prácticas Académicas ‐ PEPA) PGDNet main purpose is handling online tests for students. There are a bunch of tools available for teachers that allow them to create activities and different types of exercises, manage students and set examination schedules. The system gathers the results and marks exercises automatically. Moreover, the teacher is able to export this information which is compatible with other UPM systems. PGDNet offers a mail service, a document management system and a survey application among others. AdN adds new features to the system. It helps teachers to manage student marks by keeping a history over the years. Subjects can be divided into little parts with a different weight in the final mark. Eventually, the mark is automatically calculated and published. The application can be accessed by both students and teachers simultaneously. This module is also ready to import old marks into the current course and allow all teachers to fill in the results at the same time. PEPA, which is a new module added from scratch, concentrate this TFG efforts. It consists of a practice delivery system that gathers all student documentation in a single site for easy correction. Besides, PEPA deploys an answer template repository for laboratory training. Students fill the templates and PEPA corrects them automatically on sending. These 3 modules are integrated in a single system that allows them to share data and import information such as student lists from the Administration Department.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La acuicultura, el cultivo y cría de animales y plantas acuáticas, representa en la actualidad una fuente esencial de proteína animal y vegetal altamente saludable y nutritiva, proporcionando un sistema de vida y de ingresos en todo el mundo. La acuicultura además de ser un motor para el desarrollo social y económico de las áreas costeras marinas y fluviales mundiales, supone en muchas regiones subdesarrolladas una garantía de alimento de alta calidad y es clave en la seguridad alimentaria de sus poblaciones. El desarrollo de la acuicultura se ha realizado fundamentalmente en los últimos 50 años, y ha sido sobre todo en la década de los años 80, cuando la acuicultura ha experimentado un fuerte crecimiento con tasas anuales que superan el 6%. Con el estancamiento de la producción pesquera y el incremento de la población mundial, la acuicultura se presenta como la única fuente posible de suministro de proteínas (vegetales y animales) de alta calidad, ricas en aceites omega 3 (EPA y DHA) de origen acuático. En la actualidad la producción procedente de la acuicultura supera los 95 millones de toneladas anuales, siendo ligeramente superior a los 94 millones de toneladas anuales provenientes de la pesca extractiva. De este total mundial acuícola, la producción asiática representa el 89%, mientras que la europea el 4,2% Aunque el 46% de la producción mundial acuícola se concentra únicamente en solo 10 especies, una de las principales características de la acuicultura es la gran diversidad de especies cultivadas, más de 500, realizándose su cría bajo diferentes tecnologías y sistemas productivos. El ámbito de esta tesis, es únicamente la acuicultura marina que se desarrolla en las aguas del mar mediterráneo, indistintamente de los sistemas y tecnología de producción utilizados. Los principales grupos de cultivo que se realizan en las aguas del Mediterráneo son los moluscos y los peces, siendo muy escasos los cultivos de otros grupos como crustáceos y macroalgas. La piscicultura marina mediterránea está dominada por el cultivo en jaulas flotantes de dos especies, la dorada (Sparus auratus) y la lubina (Dicentrarchus labrax). Estas dos especies y tras 30 años de experiencia de cultivo, mantienen todavía una ineficiencia productiva alta (reducida selección genética, lento crecimiento hasta talla comercial, alto factor de conversón del pienso…) y además ocupan un estrecho nicho de mercado, ya que prácticamente toda la comercialización de la dorada y lubina se realiza en fresco y sin elaborar ni transformar, a una talla media de 500 g. Para dar respuesta desde la acuicultura mediterránea al alto consumo y a la creciente demanda que en la Unión Europea existe de los productos acuícolas, y en especial los productos elaborados y transformados, es necesario de manera urgente, un aumento de la producción de las especies ya cultivadas (dorada y lubina) mediante la mejora de su eficiencia productiva, al mismo tiempo que se debe iniciar la producción industrial de nuevas especies piscícolas, mediante la diversificación de los cultivos. Para llevar a cabo esta diversificación, se hace necesario el establecimiento de una metodología clara, que asegure una selección de especies apropiadas y rentables para la industria acuícola mediterránea, cuyo cultivo sostenible debiera cumplir con los desafíos que el sector tiene. Nuevas especies que complementen y cubran las demandas actuales y futuras del mercado Europeo e Internacional de productos acuícolas. Nuevas especies con parámetros productivos eficientes, que garanticen unos costes productivos competitivos. Nuevas especies que puedan ser cultivadas utilizando como base la tecnología de producción ya existente en el sector. El objetivo de esta tesis es la definición y desarrollo de una metodología sencilla para la selección de nuevas especies piscícolas marinas para su cultivo eficiente y sostenible Y bajo la aplicación de esta metodología, la selección de un grupo de especies piscícolas para su cultivo rentable a corto y medio plazo (6-8 años) en el Mediterráneo. Para ello se ha definido y aplicado una metodología con la que se han evaluado diez especies candidatas, previamente escogidas de una serie de listas previas originadas en los distintos estudios y trabajos de diversificación realizados con anterioridad por otros equipos de investigación. Estas especies candidatas han sido: Seriola dumerili. (Seriola) , Argyrosomus regius (Corvina), Polyprion americanus (Cherna), Ephinephelus marginatus (Mero), Dentex dentex (Dentón), Pagrus pagrus (Pargo), Solea senegalensis (Lenguado del Senegal), Thunnus thynnus (Atún rojo), Mugil cephalus (Lisa), Coryphaena hippurus (Lampuga). El conjunto de estas especies ocupa un amplio y variado espectro dentro de las distintas áreas de mercado, productiva, tecnológica, y medioambiental . Y en todas ellas existe una experiencia mínima en sus diferentes fases de cultivo. En el desarrollo de la metodología de selección, en esta tesis se han definido diversos parámetros de evaluación, considerados como los más significativos y sencillos de aplicar. Los parámetros se han agrupado en tres bloques, el comercial, el productivo y el medioambiental. El Bloque de Mercado, comprende aquellos criterios que están relacionados con la comercialización de la especie. Calidad de la carne del pescado. Competencia con otras especies en el mercado. Potencial de Transformado. Precio de venta del pescado. El bloque Medioambiental incluye criterios del grado de idoneidad de la especie en la región y del grado de impacto ambiental de su cultivo. Rango de temperaturas del agua óptimo para el cultivo. Potencial impacto ambiental de su cultivo. Eslabón trófico de la especie.. El bloque Productivo, engloba los criterios y parámetros relacionados con el nivel de conocimiento y control que sobre su cultivo existen ( larvario, engorde, tecnología) Grado de control de la fase larvaria. Disponibilidad de alevines en el sector Crecimiento. Factor de conversión Aprovechamiento de la capacidad productiva instalada, Coste de inversión. Previa a la evaluación se han descrito las principales características de las especies candidatas en función del estado y experiencia actual sus cultivos. En la aplicación de estos criterios se han establecido matrices de evaluación y a cada criterio se le ha asignado un valor diferente en función de sus características y propiedades selectivas. Los resultados obtenidos mediante la aplicación de la metodología de evaluación propuesta, han señalado la seriola y la corvina como especies más recomendadas para su puesta en cultivo en el Mediterráneo a corto y medio plazo. Las otras dos especies seleccionadas han sido la lisa y la lampuga. Como conclusión final podemos señalar que el cultivo de nuevas especies es fundamentalmente para el desarrollo sostenible de la acuicultura mediterránea. Esta diversificación debe basarse en la aplicación de una metodología sencilla y práctica, que garantice una selección de especies cuyo cultivo sea rentable y abarquen nuevos segmentos de mercado. ABSTRACT Aquaculture, the cultivation and breeding of aquatic animals and plants, currently represents an essential source of highly nutritious and healthy protein that provides a way of life and income all over the world. Apart from being a social and economic driver in coastal and marine areas, it also entails a guaranteed high quality nourishment in many undeveloped areas being key to the alimentary safety of their population. Aquaculture has developed mainly in the last 50 years and experienced a high growth especially during the Eighties when the annual rates were above 6%. With fishing production stagnating and the global population increasing, aquaculture emerges as the only possible animal and vegetable protein source of aquatic origin, high in quality and omega 3 oils (EPA and DHA). Here and now, aquaculture production is over 95 million tons per year, which is slightly higher than the 94 million tons per year that come from extractive fisheries. From this aquaculture total, Asiatic production represents 89% while Europe´s is only 4.2%. Even though 46% of the global aquaculture production focuses just on 10 species, one of the main characteristics of aquaculture is the wide diversity of cultivated species –over 500– using different technologies and production systems. This PhD’s scope is only marine aquaculture in Mediterranean water, regardless of the technology or systems used. The main crop groups in the Mediterranean sea are molluscs and finfish, while crustacean and macroalgae cultivations are very limited. Mediterranean fish culture is dominated by the cultivation in floating cages of two species: Bream (Sparus auratus) and Bass (Dicentrarchus labrax). After 30 years of farming, these two species still keep a high productive inefficiency –reduced genetic selection, slow growth to marketable size, high feed conversion rate– and fill a narrow niche market as practically all bream and bass is sold fresh and whole, unprocessed and untransformed, with an average size of 500 grams. To meet the high consumption and growing demand of aquaculture products, in the European Union (especially those prepared and transformed), Mediterranean aquaculture needs to urgently increase the production of the species already under cultivation (Bass and Bream) by means of improving its productive efficiency and at the same time begin initiating industrial production of new species by diversifying the cultivation. To carry out this diversification it is necessary to establish a clear methodology that ensures the selection of adapted and profitable species for the Mediterranean aquaculture industry. The sustainable farming of these new species needs to meet the challenges this sector faces: New species that complement and meet the current and future needs of the European and International markets for aquaculture products. New species with efficient production parameters that ensure competitive production costs. New species that can be cultivated using already existing production technologies. The aim of this PhD is to define and develop a simple methodology for the selection of new marine fish species for their efficient and sustainable cultivation. And by applying this methodology, to select a group of fish species for its profitable crop in the short and medium term (6-8 years) in the Mediterranean. For this, a methodology has been defined and applied evaluating ten candidate species selected from a series of lists originated from different studies and from diversification works previously conducted by other research teams. These candidate species are: Seriola dumerili. (Greater amberjack), Argyrosomus regius (Meagre), Polyprion americanus (Wreckfish), Ephinephelus marginatus (Dusky grouper), Dentex dentex (Common dentex), Pagrus pagrus (Red porgy), Solea senegalensis (Senegal sole), Thunnus thynnus (Bluefin tuna), Mugil cephalus (Grey mullet), Coryphaena hippurus (Dolphinfish). All these species occupy a broad and varied spectrum within different productive, technological and environmental market areas. There is minimal experience in their different stages of cultivation for all of them. While developing the selection methodology several evaluation parameters have been defined in this PhD, considered the most significant and simple to apply. The parameters are grouped in three blocks: commercial, productivity and environmental. Market block comprises criteria related to the marketing of the species. Quality of the fish meatCompetition with other species in the marketTransformation potentialFish selling price Environment block includes criteria related to the degree of suitability of the species in the region and the degree of environmental impact of their cultivation. Optimal water temperature range for cultivationPotential environmental impact of their cultivationTrophic chain level. Productivity block includes criteria and parameters related to the level of knowledge and control over their cultivation (larval, ongrowing, technology) Degree of control of the larval stageAvailability of alevin in the sector GrowthFeed conversion rate. Exploitation of installed capacityInvestment cost Prior to the evaluation, the main characteristics of the candidate species have been described based on the current status and experience of their cultivations. When applying these criteria evaluation matrices have been established assigning to each criteria a different value depending on their characteristics and selective properties. The results obtained by applying the proposed assessment methodology have identified the Greater Amberjack and Meagre as the most recommended species for farming in the Mediterranean in the short and medium term. The other two selected species were the Grey Mullet and the Dolphinfish. In conclusion, the cultivation of new species is crucial for the sustainable development of Mediterranean aquaculture. This diversification has to be based on the application of a simple and practical methodology that guarantees a selection of species whose cultivation is profitable and covers new market segments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto “Aplicación móvil y web para la gestión de lugares geolocalizados (www.midiez.com)” tiene como objetivo principal crear un repositorio de listas categorizadas de sitios para su uso en el ámbito personal o comercial. Tanto la aplicación web como la aplicación móvil desarrollada en Android tienen el propósito de gestionar listas de lugares de interés (Restaurantes, tiendas,..) o con propósitos específicos (Organización de viajes) o simplemente como una forma de anotar aquellos sitios que nos comentan y que nos gustaría visitar. El desarrollo de este proyecto además permitirá contrastar las distintas alternativas y la evolución de las distintas herramientas que se han ido desarrollando para la gestión del ocio en los últimos años desde el sistema Android y plataformas web. Todo el proyecto ha sido realizado usando software libre (PHP para el lenguaje web servidor y Java para la programación móvil). La principal finalidad desde el punto de vista del desarrollador es: aprovechar las sinergias de la programación móvil y la programación web de manera que las mismas capas de negocio de Datos sean usadas por ambas plataformas. Asimismo crear una aplicación distribuida y fácilmente escalable. Las herramientas que se han usado para desarrollar han sido: la SDK proporcionada por Google, una JDK de Java y un IDE de desarrollo Java como es Eclipse y otro similar para el desarrollo de la parte PHP. La BBDD elegida ha sido MySQL. El proyecto pretende mostrar el potencial de las aplicaciones móviles geolocalizadas desde el punto de vista del ocio y compararlas con el estado del arte actual. Por lo tanto la mayor parte del tiempo dedicado al proyecto ha sido empleado en el desarrollo de la aplicación web, la aplicación móvil y en la base de datos pero también he dedicado una pequeña parte del trabajo para realizar un estudio sobre las consecuencias que esta tecnología está teniendo en nuestros cerebros. ABSTRACT The project "Web and Mobile App for managing geolocation places” has as main objective managing of places lists in order to use them in the leisure time scope. Nowadays the use of GPS is being a constant in mobile applications so that is already part of our daily life. We used to know where we are always and at the same time we can find locations using the technology of our mobile phones. Now it is very difficult to get lost outside but also is difficult to explain somebody how to get to anywhere without using Google Maps. Google Maps, Geolocation, gps navigators, … all that kind of stuff are making our life easier and less complicated but also are making our brains lazier. Furthermore, the development of this project will use the potential of locate places into maps to avoid annotate every spot we would like to visit or a brand new restaurant. The project itself shows the location features of Google Maps combined with an places data base in order to create, and manage places lists and use them to get to them as well as to share those places with our contacts. Also, the main purpose from the point of view of the developer is to combine different programming languages and use the resulting synergies in a easily scalable and portable environment. The tools that have been used to develop are: the SDK provided by Google, one JDK Java and Java development IDE such as Eclipse and similar to the development of the PHP part. The DB has been chosen MySQL. Finally, this project aims to show, from an educational point of view, the use and potential of this technology. Thus, it has been devoted a large amount of time of the project (and, consequently, its documentation) on develop the Android app, the data base and the web app but also but also to highlight the consequences of using technology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Director Vicente M. Carceller

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação é dirigida a um especial e não resolvido problema na descrição do desenvolvimento religioso de Israel. Em textos do Antigo Testamento acerca do sacrifício de humanos, há uma unidades literárias autônomas relacionadas ao culto a mOlek. Porém, alguns pesquisadores sustentam que o culto a mOlek não tem esta característica. A dissertação aspira a investigar este argumento, concentrando-se em fontes históricas (2Reis 16,3; 17,17.31; 21,6; 23,10). Discutindo fontes ugaríticas duas listas de divindades e um texto funerário nós perguntares acerca das características das divindades mLlK nas culturas cananéias. Em síntese, mOlek é uma divindade ctônica mas não é destinatária de sacrifícios humanos.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação é dirigida a um especial e não resolvido problema na descrição do desenvolvimento religioso de Israel. Em textos do Antigo Testamento acerca do sacrifício de humanos, há uma unidades literárias autônomas relacionadas ao culto a mOlek. Porém, alguns pesquisadores sustentam que o culto a mOlek não tem esta característica. A dissertação aspira a investigar este argumento, concentrando-se em fontes históricas (2Reis 16,3; 17,17.31; 21,6; 23,10). Discutindo fontes ugaríticas duas listas de divindades e um texto funerário nós perguntares acerca das características das divindades mLlK nas culturas cananéias. Em síntese, mOlek é uma divindade ctônica mas não é destinatária de sacrifícios humanos.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em diversas ocasiões, os líderes da Igreja Presbiteriana do Brasil revelaram o desejo de uma eqüidistância teológica dos extremos liberais e fundamentalistas. Entretanto, os dis-cursos e as práticas dessa instituição eclesiástica contrastam com esse posicionamento ofici-al. Além disso, essa pretensa posição de eqüidistância dos extremos liberais e fundamenta-listas não denota fronteiras rígidas, mas é um instrumento eficaz de legitimação do poder nos momentos de reconfiguração do campo religioso, principalmente em situações de crises internas. Outrossim, após a redemocratização do Brasil e o conseqüente aumento de plura-lismo religioso, houve a transformação do campo social brasileiro, provocando dificuldades em setores mais conservadores dessa instituição. Atualmente, procura-se revitalizar a pró-pria tradição religiosa diante das ameaças de sua dissolução impostas pelos processos e-mancipatórios modernos e pela influência das concepções seculares e supostamente atéias da vida (como o feminismo, a luta em defesa dos direitos reprodutivos, a união civil entre pessoas do mesmo sexo, o chamado ―movimento de lésbicas, gays, bissexuais, travestis e transgêneros‖ etc.). No campo religioso, os resultados imediatos dessa postura de reação em face das transformações sociais impostas pela modernidade são: (1) misoginia; (2) aquela manifestação de ativismo político-religioso de caráter conservador os protestantes de pen-dor fundamentalista, cuja expansão no Brasil se vem processando há muitas décadas, em ritmo sabidamente veloz, com base em um modelo de proselitismo muito bem-sucedido entre as camadas mais pobres da população brasileira, por todo território nacional.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em diversas ocasiões, os líderes da Igreja Presbiteriana do Brasil revelaram o desejo de uma eqüidistância teológica dos extremos liberais e fundamentalistas. Entretanto, os dis-cursos e as práticas dessa instituição eclesiástica contrastam com esse posicionamento ofici-al. Além disso, essa pretensa posição de eqüidistância dos extremos liberais e fundamenta-listas não denota fronteiras rígidas, mas é um instrumento eficaz de legitimação do poder nos momentos de reconfiguração do campo religioso, principalmente em situações de crises internas. Outrossim, após a redemocratização do Brasil e o conseqüente aumento de plura-lismo religioso, houve a transformação do campo social brasileiro, provocando dificuldades em setores mais conservadores dessa instituição. Atualmente, procura-se revitalizar a pró-pria tradição religiosa diante das ameaças de sua dissolução impostas pelos processos e-mancipatórios modernos e pela influência das concepções seculares e supostamente atéias da vida (como o feminismo, a luta em defesa dos direitos reprodutivos, a união civil entre pessoas do mesmo sexo, o chamado ―movimento de lésbicas, gays, bissexuais, travestis e transgêneros‖ etc.). No campo religioso, os resultados imediatos dessa postura de reação em face das transformações sociais impostas pela modernidade são: (1) misoginia; (2) aquela manifestação de ativismo político-religioso de caráter conservador os protestantes de pen-dor fundamentalista, cuja expansão no Brasil se vem processando há muitas décadas, em ritmo sabidamente veloz, com base em um modelo de proselitismo muito bem-sucedido entre as camadas mais pobres da população brasileira, por todo território nacional.(AU)