34 resultados para Sociologia de la medicina
em Universidad Politécnica de Madrid
Resumo:
El ruido como fenómeno físico capaz de generar molestias y de impactar la salud es uno de los agentes perturbadores presentes en las comunidades del siglo XXI, principalmente en las grandes urbes donde existe concentración poblacional, tal es el caso de la ciudad de Barquisimeto, capital del estado Lara en Venezuela, la cual ocupa el cuarto lugar en importancia a nivel nacional según criterios de ubicación geopolítica, densidad poblacional, infraestructuras, actividades económicas y educativas. La presente tesis doctoral, cuya área de emplazamiento es el centro de dicha ciudad, consiste en una investigación científica experimental de carácter correlacional, en la que se estableció la siguiente hipótesis �a mayor tiempo de exposición al ruido, mayores efectos neurológicos y psicológicos en la población que ocupa el centro de Barquisimeto�. Su singularidad y relevancia radica en articular el estudio del ruido como agente físico con la incidencia de éste en la actividad bioeléctrica cerebral humana y sus efectos en las inteligencias múltiples, tomando como basamento la teoría de las inteligencias múltiples del Dr. Howard Gardner, catedrático de la Universidad de Hardvard, siendo un importante aporte científico en el campo de la física, la medicina y la psicología. Para alcanzar la cristalización de la presente investigación, se realizó una revisión del estado del arte sobre la temática abordada. Tras analizar las fuentes, tanto bibliográficas como digitales, se diseñó el desarrollo de la misma gestionándose la autorización de la Alcaldía del Municipio Iribarren, tomando en consideración que en la fase experimental se aplicaron instrumentos de recolección de datos y se realizaron mediciones en espacios públicos. La fase experimental se ejecutó en seis etapas, obedeciendo a las siguientes variables: a.) Percepción neurológica y psicológica (estudio subjetivo); b) Sonoridad; c.) Dosimetría; d.) Valoración neurológica; e) Valoración psicológica sobre las inteligencias múltiples; f) Mapa de conflicto acústico. En relación al estudio subjetivo se tomó una muestra recurriendo al muestreo aleatorio estratificado, quedando conformada por 67 Residentes, 64 Funcionarios Públicos, 66 comerciantes formales y 64 Comerciantes Informales para un total de 261 sujetos, a los que se viiiaplicó una encuesta titulada Cuestionario Ruambar, conteniendo 30 Ítemes sobre la percepción de efectos neurológicos y psicológicos del ruido, utilizando la escala de Lickert. Para la toma de datos de la sonoridad y de la dosimetría se utilizaron métodos científicos estandarizados, usándose las normas ISO 1996-1, ISO 1999, los Decretos Reales 1367/2007 y el 286/2006; y los criterios técnicos de la OMS. Para lograr una mayor precisión y confiabilidad de los datos, se evaluó el cálculo de la incertidumbre según el documento GUM �Guide for the expresión of uncertainly in Measurement de la International Organization for Standardization� para medidas de categoría A. [JCGM 100:2008]. En cuanto a la valoración neurológica, se siguió el protocolo de la Sociedad Americana de Neurología. En el estudio neurológico participaron voluntariamente 192 sujetos, utilizándose un electroencefalógrafo Digital Stellate Systems con 18 electrodos que determinó la actividad bioeléctrica de los sujetos, estando sometidos a una estimulación sonora de 1000 Hz y a presiones sonoras de 20, 40, 60, 80 y 100 dB (A). Con respecto a la valoración psicológica del efecto del ruido sobre las inteligencias múltiples se diseñó el Test RUAMIN con 24 ítemes y con adaptación a una escala psicométrica. Con respecto a la prueba de hipótesis las correlaciones obtenidas son lineales positivas exceptuando el estrato funcionarios, confirmándose que se acepta la hipótesis planteada para los estratos residentes, comerciantes formales y comerciantes informales, y siendo esta misma hipótesis nula para el estrato funcionarios. Finalmente, como resultado de la investigación se elaboró un mapa de conflicto acústico con el propósito de establecer los puntos de mayor impacto acústico en la zona de emplazamiento, estableciéndose comparaciones entre los mismos y pudiendo ser útil el mencionado mapa para la adopción de disposiciones legales y civiles en aras de mejorar la calidad de vida de los ciudadanos.
Resumo:
El crecimiento de Internet y la proliferación de información multidominio de forma pública ha propiciado la aparición de nuevas oportunidades en entornos muy dispares, principalmente en el ámbito de la investigación. Además, desde que se planteara el concepto de Web Semántica se han venido desarrollando un nutrido conjunto de herramientas y estándares ideados para facilitar la interoperabilidad en la World Wide Web. Este factor adicional posibilita el acceso a datos compartidos y su integración de forma mucho más abierta y comprensible, siendo la tendencia esperada la de acercarse poco a poco a la completa homogeneización de los contenidos disponibles en Internet. En este trabajo de tesis doctoral se presenta un método en cinco fases para la mediación semántica y sintáctica en sistemas de bases de datos integradas. Los lenguajes y estándares más utilizados para el desarrollo de este método son los asociados a la Web Semántica para la descripción de esquemas, recursos y consultas. En conjunto con este trabajo teórico se han desarrollado una serie de componentes software para dar servicio conjunto a las distintas problemáticas asociadas al enfoque elegido. Estos componentes han sido construidos dentro del marco del proyecto europeo ACGT1, centrado en el apoyo a los ensayos clínicos post-genómicos en cáncer. La ejecución completa del método propuesto permite crear consultas SPARQL a partir de descripciones en lenguaje natural, y resolver automáticamente algunos de los problemas más importantes en el proceso de mediación, tales como la resolución de conflictos y ambigüedades, la traducción de consultas y la gestión de restricciones. Además, lo experimentos llevados a cabo en este trabajo muestran cómo estas tareas pueden ser realizadas de manera eficiente. Además de las tareas propias de la mediación semántica, se ha dotado al método de una solución para agilizar la construcción de componentes para la homogeneización de las interfaces sintácticas y tecnológicas con los propios recursos de datos. Esto resulta especialmente útil cuando las fuentes carecen de esquema o el medio de acceso no está diseñado específicamente para llevar a cabo una integración. Para la evaluación de la utilidad, viabilidad y eficiencia del método y las herramientas asociadas se han desarrollado en primer lugar una serie de experimentos en el contexto de ACGT. Estos experimentos han sido validados en diversas revisiones por expertos en el dominio de la medicina y los sistemas de información. Además se presenta una evaluación teórica de la eficiencia de los algoritmos presentados, demostrándose que para el caso general se encuentra una solución en tiempo polinómico. La conclusión final de esta tesis es que el conjunto de técnicas presentadas es útil, viable y eficiente para la explotación de la información integrada a partir de repositorios heterogéneos.
Resumo:
Este proyecto se enmarca dentro de la Computación Simbólica y de los fundamentos matemáticos del Diseño Geométrico Asistido por ordenador (CAGD). Se abordara uno de los problemas principales en el ámbito del CAGD y que es la manipulación de las Curvas Concoide. La importancia del avance en la manipulación de las curvas concoide radica en el papel fundamental que desempeñan en múltiples aplicaciones en la actualidad dentro de campos de diversa índole tales como la medicina, la óptica, el electromagnetismo, la construcción, etc. El objetivo principal de este proyecto es el diseño e implementación de algoritmos para el estudio, cálculo y manipulación de curvas concoides, utilizando técnicas propias del Calculo Simbólico. Esta implementación se ha programado utilizando el sistema de computación simbólica Maple. El proyecto consiste en dos partes bien diferenciadas, una parte teórica y otra más practica. La primera incluye la descripción geométrica y definición formal de curvas concoide, así como las ideas y propiedades básicas. De forma más precisa, se presenta un estudio matemático sobre el análisis de racionalidad de estas curvas, explicando los algoritmos que serán implementados en las segunda parte, y que constituye el objetivo principal de este proyecto. Para cerrar esta parte, se presenta una pequeña introducción al sistema y a la programación en Maple. Por otro lado, la segunda parte de este proyecto es totalmente original, y en ella el autor desarrolla las implementaciones en Maple de los algoritmos presentados en la parte anterior, así como la creación de un paquete Maple que las recoge. Por último, se crean las paginas de ayudas en el sistema Maple para la correcta utilización del paquete matemático anteriormente mencionado. Una vez terminada la parte de implementación, se aplican los algoritmos implementados a una colección de curvas clásicas conocidas, recogiendo los datos y resultados obtenidos en un atlas de curvas. Finalmente, se presenta una recopilación de las aplicaciones más destacadas en las que las concoides desempeñan un papel importante así como una breve reseña sobre las concoides de superficies, objeto de varios estudios en la actualidad y a los que se considera que el presente proyecto les puede resultar de gran utilidad. Abstract This project is set up in the framework of Symbolic Computation as well as in the implementation of algebraic-geometric problems that arise from Computer Aided Geometric Design (C.A.G.D.) applications. We address problems related to conchoid curves. The importance of these curves is the fundamental role that they play in current applications as medicine, optics, electromagnetism, construction, etc. The main goal of this project is to design and implement some algorithms to solve problems in studying, calculating and generating conchoid curves with symbolic computation techniques. For this purpose, we program our implementations in the symbolic system “Maple". The project consists of two differentiated parts, one more theoretical part and another part more practical. The first one includes the description of conchoid curves as well as the basic ideas about the concept and its basic properties. More precisely, we introduce in this part the mathematical analysis of the rationality of the conchoids, and we present the algorithms that will be implemented. Furthermore, the reader will be brie y introduced in Maple programming. On the other hand, the second part of this project is totally original. In this more practical part, the author presents the implemented algorithms and a Maple package that includes them, as well as their help pages. These implemented procedures will be check and illustrated with some classical and well known curves, collecting the main properties of the conchoid curves obtained in a brief atlas. Finally, a compilation of the most important applications where conchoids play a fundamental role, and a brief introduction to the conchoids of surfaces, subject of several studies today and where this project could be very useful, are presented.
Resumo:
La medicina ha evolucionado de forma que las imágenes digitales tienen un papel de gran relevancia para llevar a cabo el diagnóstico de enfermedades. Son muchos y de diversa naturaleza los problemas que pueden presentar el aparato fonador. Un paso previo para la caracterización de imágenes digitales de la laringe es la segmentación de las cuerdas vocales. Hasta el momento se han desarrollado algoritmos que permiten la segmentación de la glotis. El presente proyecto pretende avanzar un paso más en el estudio, procurando asimismo la segmentación de las cuerdas vocales. Para ello, es necesario aprovechar la información de color que ofrecen las imágenes, pues es lo que va a determinar la diferencia entre una región y otra de la imagen. En este proyecto se ha desarrollado un novedoso método de segmentación de imágenes en color estroboscópicas de la laringe basado en el crecimiento de regiones a partir de píxeles-semilla. Debido a los problemas que presentan las imágenes obtenidas por la técnica de la estroboscopia, para conseguir óptimos resultados de la segmentación es necesario someter a las imágenes a un preprocesado, que consiste en la eliminación de altos brillos y aplicación de un filtro de difusión anisotrópica. Tras el preprocesado, comienza el crecimiento de la región a partir de unas semillas que se obtienen previamente. La condición de inclusión de un píxel en la región se basa en un parámetro de tolerancia que se determina de forma adaptativa. Este parámetro comienza teniendo un valor muy bajo y va aumentando de forma recursiva hasta alcanzar una condición de parada. Esta condición se basa en el análisis de la distribución estadística de los píxeles dentro de la región que va creciendo. La última fase del proyecto consiste en la realización de las pruebas necesarias para verificar el funcionamiento del sistema diseñado, obteniéndose buenos resultados en la segmentación de la glotis y resultados esperanzadores para seguir mejorando el sistema para la segmentación de las cuerdas vocales. ABSTRACT Medicine has evolved so that digital images have a very important role to perform disease diagnosis. There are wide variety of problems that can present the vocal apparatus. A preliminary step for characterization of digital images of the larynx is the segmentation of the vocal folds. To date, some algorithms that allow the segmentation of the glottis have been developed. This project aims to go one step further in the study, also seeking the segmentation of the vocal folds. To do this, we must use the color information offered by images, since this is what will determine the difference between different regions in a picture. In this project a novel method of larynx color images segmentation based on region growing from a pixel seed is developed. Due to the problems of the images obtained by the technique of stroboscopy, to achieve optimal results of the segmentation is necessary a preprocessing of the images, which involves the removal of high brightness and applying an anisotropic diffusion filter. After this preprocessing, the growth of the region from previously obtained seeds starts. The condition for inclusion of a pixel in the region is based on a tolerance parameter, which is adaptively determined. It initially has a low value and this is recursively increased until a stop condition is reached. This condition is based on the analysis of the statistical distribution of the pixels within the grown region. The last phase of the project involves the necessary tests to verify the proper working of the designed system, obtaining very good results in the segmentation of the glottis and encouraging results to keep improving the system for the segmentation of the vocal folds.
Resumo:
El vertiginoso avance de la informática y las telecomunicaciones en las últimas décadas ha incidido invariablemente en la producción y la prestación de servicios, en la educación, en la industria, en la medicina, en las comunicaciones e inclusive en las relaciones interpersonales. No obstante estos avances, y a pesar de la creciente aportación del software al mundo actual, durante su desarrollo continuamente se incurre en el mismo tipo de problemas que provocan un retraso sistemático en los plazos de entrega, se exceda en presupuesto, se entregue con una alta tasa de errores y su utilidad sea inferior a la esperada. En gran medida, esta problemática es atribuible a defectos en los procesos utilizados para recoger, documentar, acordar y modificar los requisitos del sistema. Los requisitos son los cimientos sobre los cuáles se construye un producto software, y sin embargo, la incapacidad de gestionar sus cambios es una de las principales causas por las que un producto software se entrega fuera de tiempo, se exceda en coste y no cumpla con la calidad esperada por el cliente. El presente trabajo de investigación ha identificado la necesidad de contar con metodologías que ayuden a desplegar un proceso de Gestión de Requisitos en pequeños grupos y entornos de trabajo o en pequeñas y medianas empresas. Para efectos de esta tesis llamaremos Small-Settings a este tipo de organizaciones. El objetivo de este trabajo de tesis doctoral es desarrollar un metamodelo que permita, por un lado, la implementación y despliegue del proceso de Gestión de Requisitos de forma natural y a bajo coste y, por otro lado, el desarrollo de mecanismos para la mejora continua del mismo. Este metamodelo esta soportado por el desarrollo herramientas que permiten mantener una biblioteca de activos de proceso para la Gestión de Requisitos y a su vez contar con plantillas para implementar el proceso partiendo del uso de activos previamente definidos. El metamodelo contempla el desarrollo de prácticas y actividades para guiar, paso a paso, la implementación del proceso de Gestión de Requisitos para una Small-Setting utilizando un modelo de procesos como referencia y una biblioteca de activos de proceso como principal herramienta de apoyo. El mantener los activos de proceso bien organizados, indexados, y fácilmente asequibles, facilita la introducción de las mejores prácticas al interior de una organización. ABSTRACT The fast growth of computer science and telecommunication in recent decades has invariably affected the provision of products and services in education, industry, healthcare, communications and also interpersonal relationships. In spite of such progress and the active role of the software in the world, its development and production continually incurs in the same type of problems that cause systematic delivery delays, over budget, a high error rate and consequently its use is lower than expected. These problems are largely attributed to defects in the processes used to identify, document, organize, and track all system's requirements. It is generally accepted that requirements are the foundation upon which the software process is built, however, the inability to manage changes in requirements is one of the principal factors that contribute to delays on the software development process, which in turn, may cause customer dissatisfaction. The aim of the present research work has identified the need for appropriate methodologies to help on the requirement management process for those organizations that are categorised as small and medium size enterprises, small groups within large companies, or small projects. For the purposes of this work, these organizations are named Small-Settings. The main goal of this research work is to develop a metamodel to manage the requirement process using a Process Asset Library (PAL) and to provide predefined tools and actives to help on the implementation process. The metamodel includes the development of practices and activities to guide step by step the deployment of the requirement management process in Small-Settings. Keeping assets organized, indexed, and readily available are a main factor to the success of the organization process improvement effort and facilitate the introduction of best practices within the organization. The Process Asset Library (PAL) will become a repository of information used to keep and make available all process assets that are useful to those who are defining, implementing, and managing processes in the organization.
Resumo:
El deporte de la esgrima no siempre ha sido considerado como actualmente se conoce, ni tampoco el empleo de las armas ha sido el mismo en las diferentes épocas de la historia. Si nos centramos en la española, podemos decir que se hablaba de una forma particular de hacer esgrima, la cual era muy apreciada por el resto de los países europeos. También lo era la que se hacía en Italia. Como cualquier actividad que se desarrolla a lo largo del tiempo debe generarse desde unos comienzos. Estos comienzos siempre están en relación a alguna causa. Para centrarnos en nuestro estudio, los comienzos del manejo de la espada, de una manera lógica y razonada, se une en la persona y en la vida de Jerónimo Sánchez Carranza porque hasta que él no se decide a estudiar en profundidad la ciencia de las armas, no se ve con claridad si todo lo que se hacía con ellas era correcto o no y si todo lo que la inmensa mayoría hacía cuando tenía que utilizarlas estaba revestido de cierta coherencia y fundamento, es decir, tenía su verdad que se pudiera demostrar. Carranza estudia la esgrima que se empleaba en su época y en las anteriores y se da cuenta que tiene que dar una nueva visión de la forma de usar las armas, diferente a lo que la gran mayoría entendía hasta entonces. A Carranza se le ha considerado por muchos autores como el inventor de la esgrima española, hecho que se puede leer con bastante facilidad si se hojea algún tratado que hable de la esgrima española, sin embargo también se habla de Luis Pacheco de Narváez asignándole el mismo calificativo, aunn- ;o es posteriora Carranza. or tanto nuestro estudio se ha centrado en la vida de Jerónimo Sánchez Carranza y en ueva forma de emplear las armas por lo que hace que la tesis sea una tesis biográfica de dicho personaje, donde se ha resaltado mucho más el aspecto del manejo de las armas, de la Destreza. Partimos de las siguientes hipótesis: Carranza es el que sienta los principios técnicos dando forma y coherencia a la escuela de esgrima española gracias a sus aportaciones en los distintos aspectos metodológicos, técnicos y tácticos. La escuela de esgrima española tiene una estructura interna, responde a unas características determinadas y sirve de base a la esgrima que posteriormente se practica. Para que el estudio se pudiera llevar a cabo tuvimos que diseñar un esquema donde se pudieran recoger todos los aspectos que estuvieran relacionados con nuestro autor, de ahí surge el porqué de cada uno de los capítulos que hemos confeccionado. Dicho esquema responde a la visión actual de diferentes facetas de lo que hoy se estudia en diversas ciencias y que cuando Carranza vivía aún no se conocían. Para recoger información sobre su persona y su obra tuvimos en cuenta los distintos lugares donde se podía localizar la documentación necesaria, sobre todo Bibliotecas y Archivos, para ir confeccionando el método de trabajo que consistió en la recopilación de fuentes de todo tipo referidas al tema, pasando luego a la interpretación de las mismas. Esto nos dio una visión de conjunto que hizo que nos adentráramos en aquellos aspectos que más tarde tendríamos que analizar con mucho más detenimiento. En la tesis se puede observar dos partes bien diferenciadas que son las relacionadas; por un lado, a su vida y su tratado y, por otro, al contenido de sus teorías que son realmente las que se deben analizar necesariamente bajo unos conocimientos específicos de la actividad de la esgrima. En cuanto a su vida, se han destacado y estudiado los hechos más importantes de los que hay que resaltar, sobre todo, el que fuera considerado como el inventor de la destreza y de la manera tan particular de concebir dicho arte, diferente a lo que hasta ahora se venía haciendo y que dio paso a lo que se entendió por esgrima científica, quedando plasmada de tal manera que dio pie a la creación de una doctrina y una nueva forma de entender la esgrima la cual generó una línea de actuación que fue continuada por numerosos seguidores. Para todo ello tuvo mucho que ver el que Carranza fuera militar, la cultura y los estudios que poseía, así como la situación en la que se encontraba España además de la gente con quien se relacionaba, que por lo general, era gente culta y de clase social alta. Se ha estudiado también dentro del mismo apartado de su vida unos hechos que se le imputan y que en nuestra opinión son erróneos. Hemos considerado como más relevantes el que Carranza no fue quien riñó con Quevedo como se afirma en algunas de las obras que hemos tratado, sino que fue Pacheco quien tuvo dicha riña, ya que más bien Quevedo se mostraba partidario de las enseñanzas de Carranza, estando en contra de Pacheco. Tampoco fue quien inventó el florete como se dice en algunas ocasiones, ya que el florete aparece posteriormente como un arma de estudio de la técnica de la esgrima. Con respecto al apartado de su obra, se debe decir que tan solo escribió un único tratado que se publicó en 1582, aunque estaba acabado desde el año 1569. En el apartado de su escuela se debe destacar los fundamentos en los que basó sus postulados para que la destreza alcanzara el mismo nivel de las demás artes liberales y que lo hizo a través del estudio de la propia destreza. A lo largo del estudio que hemos realizado se puede apreciar cómo se está generando un arte que hasta ahora no había sido estudiado, viéndose los problemas que ello suponía, desde la organización de la materia a tratar, hasta cómo se debía enseñar, pasando a veces a tener que denominar conceptos de nueva aparición o renombrar y modificar antiguos que estaban anclados en puntos de partida equivocados, siendo éstos los que mayor trabajo le supuso. Diferencia bien dos aspectos básicos que debían existir en cualquier arte y más concretamente en la destreza que son: la teoría y la práctica, ambas deben estar en base a la razón ya que sería una de las formas por la que la destreza perduraría en el tiempo, junto con que esta razón estuviera apoyada en otras ciencias y con los principios de ellas. Carranza fue de la opinión de que el diestro debía conocer mediante el estudio, los elementos fundamentales con los que había que trabajar la destreza, estos elementos son el cuerpo del diestro y las armas, porque ambos van a intervenir en cualquier gesto o acción que se vaya a realizar. Del cuerpo estudió cada una de las partes que más importancia tiene cada vez que el diestro interviene y lo hace sobre todo en base a la medicina, relacionándolo con las matemáticas para poder sacar el máximo provecho, aconsejando que por el conocimiento del propio cuerpo, como el del contrario, se podrá emplear en determinadas situaciones, que si no se supiera de ello, no se sacaría el mismo resultado. De las armas lo que más resaltó fue, por un lado, que la espada debía ser el único arma que el diestro debía utilizar y, por otro, el hecho de que la espada la graduara para poder demostrar que no se hacia todo igual con las distintas partes de la misma porque no todo el arma tenía las mismas propiedades cuando se actuaba con ella. Una de las recomendaciones que dio fue que con la parte más próxima a la empuñadura se debía practicar la defensa por tener más fuerza con esta parte que con la punta y lo demostró con principios matemáticos. Se puede ver con la lectura de la tesis cómo Carranza aporta una nueva forma de trabajo en la que le da mucha importancia a la aplicación de los conocimientos, que previamente se han adquirido y para ello, es importante conocer bien los puntos fuertes y débiles del adversario. La adquisición de la práctica se debe realizar a través de la repetición para crear el hábito necesario que haga que el gesto salga fluido en cada uno de los movimientos que el diestro ejecute. Todo esto no sería posible si quien lo enseña no conoce cada uno de los elementos que intervienen en la destreza, por tanto, a la figura del maestro le da un lugar de una gran relevancia, ya que va a ser él quien tenga que guiar a los alumnos que enseñe. Lo primero que debe hacer los maestros es procurar saber lo máximo de la materia que va a enseñar, por lo que el maestro debe saber casi todo sobre la teoría y la práctica de la destreza, pero además esta teoría y práctica debe ser la correcta. Carranza persigue con su estudio, establecer los principios de la destreza, por lo menos, los más importantes, aunque fueran elementales, para que posteriormente se siguiera trabajando sobre ellos y poder conseguir que la destreza tenga cuerpo y forma de arte liberal, pudiéndose estudiar como cualquier otra, así de esta manera se haría un bien público, ya que los jóvenes se instruirían eficazmente en el uso de las armas, aunque el verdadero fin se encuentra en la conservación de la vida como manda la Fe Católica, siendo la destreza uno de los medios más eficaces para conseguirlo. Hemos dedicado un apartado de técnica y de táctica donde se refleja todo lo relacionado con las posiciones y movimientos que debe realizar el diestro para llegar a conseguir su objetivo, que es herir sin ser herido. Se han analizado las distintas tretas y el porqué de cada una desde el punto de vista del gesto y del movimiento. Si lo que se hace en destreza se relaciona con el adversario, nos adentramos en el terreno de la táctica donde se han estudiado como más importantes los conceptos del tiempo y la distancia, así como las energías que debe conservar el diestro para poder llevar a cabo un combate y del mismo salir victorioso sin llegar al agotamiento. Concluimos diciendo que de todo el estudio que se ha realizado, se ha podido comprobar que Carranza fue quien dotó a la destreza de unos principios técnicos, tácticos y metodológicos, por su forma de concebir este nuevo arte, así como que por la manera en que estableció sus teorías hizo que la destreza que se practicaba en España disfrutara de una estructura interna coherente que perduró a través de los años. SUMMARY The sport of fencing has not always been the respected sport that we know it to be today ñor has the use of weapons been the same throughout history. If we concéntrate on Spainish weapons, we can say that one particular type of sword ¡s spoken about. this sword being very respected by outher European countries, it was also the one that was respected and used in Italy. As with any activity that develops in time, it must evlove from some simple beginnings. Such basics beginnings are always in relation to a cause. To concéntrate on our study, the beginnings are, the use of the sword in a reasoned and logical manner, brought together in the life and times of Jerónimo Sánchez Carranza because until he decided to study in depth the science of weapons, we cannot see with calrity if their use was correct or not and if the vast majority , when they had to use them, used any foundation or coherence, that ¡s to say if any exactness of logical use could be demonstrated. Carranza studied the sword used in his time and those that had gone before, bearing in mind that he had a new visión of the form of use of weapons, different to what the vast majority had until then understood. Carranza has been considered by many historians as the inventor of the Spanish sword, a fact which can be seen with relative ease if one flicks through any work which deals with the Spanish sword, however, they also speak of Luis Pacheco de Narváez affording him the same title, even though he followed Carranza. In ar H our study has been centred on the life of Jerónimo Sánchez Carranza and his ne-" use of weapons. In effect this thesis is a biographical thesis of the said wherein the aspect of the use of weapons stands out more than their mastery. Given the following hypothesis: It was Carranza who evolved the first techniques giving form and coherence to the .Spanish School of Fencing, thanks to his contributions to the different aspects of method, íechnique and tactic. The Spanish School of Fencing had an ¡nternal structure anaswerable to pre-detremined characteristics and served as a base for the fencing that was to, in later days, be practised. For this study to come to a head, we had to design a plan wherein we could collate all of the aspects we could, related to our inventor. From there springs the reason for each of the chapters that we have put together. The said plan responding to the actual visión of different facets that are studied today in different sciences, that were not known in Carranza's lifetime. To collect information on his person and his works we bore in mind the different places in which we could lócate the necessary documentation, above all in libraries and archives. Developing the work-method that consisted in extracing from every source, every thing relative to the theme, re-writing later our interpretation of the same. This brought us closer and made us focus of those aspects that much later we would have to analize in greater detail. In the thesis one can observe two defferent parts that are related; on the one hand his life and works and on the other his theories, which are those that should be really analised and as such, necessarily analised within the confines of a specific knowledge of fencing. In that his life has been isolated and studied the most important facts that stand out above all, is that he was considered to be the inventor of swordmanship and the particular manner of interpreting the said art, different to its interpretaion uptil then. It gave a footing to what they understood as scientific fencing, giving shape and form to the creation of a doctrine and a new form of fencing which developed a line of action that was continued by numerious followers. For all that, much had to do with the facts that Carranza was a military man, the culture, the level of studies he had and the situation in which he found himself. What's more the people with whom he mixed were, in general, cultured and of high social standing. We have also seen in the same article on his life some dubious facts which in our opinión are erróneos. We have considered the most relevent to be that it wasnt Carranza who was in dispute with Quevedo as is stated in some of the works with which we have dealt but rather it was with Pacheco he had such disputes. What's more Quevedo demonstrated his partiality to the teachings of Carranza, going against Pacheco ñor was it him who invented The Florete, a famous Spanish sword, as was said on some ocassions, eventhough the florete appeared later as a weapon in the study of fencing technique. With respect to the article on his works, we must say that there was only one article which was published in 1582, even though it was finished in 1569. In the article on his life one must distinguish between the foundations on which he based his teachings in which swordmanship reached the same levéis as other libral art forms and what he did through the study of the self same mastery. Throughout the study which we have done, one can appreciate how he was developing an art which uptill then had not been studied, seeing for himself the problems he had fortold, from the organisation of materials at hand to how it should be taught, at times having to domínate comparative concepts again or clarify and modify ones which were anchored in erróneos points of a fencing match, feeling these to be the main forseeable jobs-at-hand. Differenciating between two basic concepts which must exist in whatever arte form and more concretly in the skill that is; the theory and practice , both being fundamental to the reason why the skill endured through time, together with this reason he was supported by other sciences and the beginnings of such. Carranza was of the opinión that the swordsman must acquired by way of study, the fundemental elements with which he had to work, these elements being the body of the swordsman and the weapons, because both were going to intervene in whatever movement or action that was going to be taken. The body studied, each of the parts having more importance each time the skill intervened and above all what it did based on medicne relating it to matemathics to exact the máximum advantage, one could employ in certain circumstances, that if they were not employed, the same advantages would not result. On weapons, what resulted best was, on the one hand, the sword should be the only weapon that the swordsman should use and on the other hand, the sword should be graded to show that one cannot do the same with the different parts of the same because not all of the weapon had the same properties when used. One of the recomendations he made was that the part nearest to the hand-guard should be used for defence because one could use more forcé with it than the point and he demonstrated this with mathematical principies. One can see on reading this thesis how Carranza brought forth a new work form, in which he put much importance on the application of experience that had previously been acquired and because of it, it was important to know well the strenghts and weaknesses of an adversery. The acquisition of technique should be realised through repetition to form the habit necessary for movement to flow freely each time the swordsman executed a movement. None of this would be possible if whoever was teaching did not know each one of the elements that intervened, affording the fencing master a great reverence, in that it was he who had to guide the students he was to teach. The first thing that the master had to do was to make sure he had the maximun knowledge over which he was going to teach, to that end, the master had to know almost everything about the theory and practice of the skill of fencing but what's more that such theory and practice had to be the correct one. Carranza persued his studies, establishing the principies of technique, at least, the most important ones even though they were elementary, so that later they could continué working on them and it could be seen that the technique had a shape and form of any other art form, allowing it to be studied like any other form, as such it had a good following, even young people could be instructed in the correct use of weapons, however the real end could be found in the conservaron of life as ordered by the Catholic Church, feeling that skill with the sword was one of the most effective methods for assuring it. We have dedicated an article to technique and tactics wherein is reflected everything related to positions and movement that the swordsman must do to achieve his objective, that is, wound without being wounded. We have analised the different tricks and the reasons from every point of view of movement and action. If what is done by technique is related with the adversery we enter in the territory of tactics wherein we have studied, most importantly, the concepts of time and distance just as, the energy the swordsman muse conserve to bring to a head a bout and arrive victorious without being exhausted. We conclude by saying that everything that has been realised by this study, has shown that it was Carranza who gave to the skill, the first basic techniques, tactics and methodology, by his conception of this new art form, just as the manner in which he established his theories, made possible the tecnhiques practiced in Spain would enjoy an intemal coherent structure, which would endure throughout the years.
Resumo:
El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.
Resumo:
Vivimos en la era de la información y del internet, tenemos la necesidad cada vez mayor de conseguir y compartir la información que existe. Esta necesidad se da en todos los ámbitos existentes pero con más ahínco probablemente sea en el área de la medicina, razón por la cual se llevan a cabo muchas investigaciones de distinta índole, lo cual ha llevado a generar un cantidad inimaginable de información y esta su vez muy heterogénea, haciendo cada vez más difícil unificarla y sacar conocimiento o valor agregado. Por lo cual se han llevado a cabo distintas investigaciones para dar solución a este problema, quizás la más importante y con más crecimiento es la búsqueda a partir de modelos de ontologías mediante el uso de sistemas que puedan consultarla. Este trabajo de Fin de Master hace hincapié es la generación de las consultas para poder acceder a la información que se encuentra de manera distribuida en distintos sitios y de manera heterogénea, mediante el uso de una API que genera el código SPARQL necesario. La API que se uso fue creada por el grupo de informática biomédica. También se buscó una manera eficiente de publicar esta API para su futuro uso en el proyecto p-medicine, por lo cual se creó un servicio RESTful para permitir generar las consultas deseadas desde cualquier plataforma, haciendo en esto caso más accesible y universal. Se le dio también una interfaz WEB a la API que permitiera hacer uso de la misma de una manera más amigable para el usuario. ---ABSTRACT---We live in the age of information and Internet so we have the need to consult and share the info that exists. This need comes is in every scope of our lives, probably one of the more important is the medicine, because it is the knowledge area that treats diseases and it tries to extents the live of the human beings. For that reason there have been many different researches generating huge amounts of heterogeneous and distributed information around the globe and making the data more difficult to consult. Consequently there have been many researches to look for an answer about to solve the problem of searching heterogeneous and distributed data, perhaps the more important if the one that use ontological models. This work is about the generation of the query statement based on the mapping API created by the biomedical informatics group. At the same time the project looks for the best way to publish and make available the API for its use in the p-medicine project, for that reason a RESTful API was made to allow the generation of consults from within the platform, becoming much more accessible and universal available. A Web interface was also made to the API, to let access to the final user in a friendly
Resumo:
El análisis de imágenes hiperespectrales permite obtener información con una gran resolución espectral: cientos de bandas repartidas desde el espectro infrarrojo hasta el ultravioleta. El uso de dichas imágenes está teniendo un gran impacto en el campo de la medicina y, en concreto, destaca su utilización en la detección de distintos tipos de cáncer. Dentro de este campo, uno de los principales problemas que existen actualmente es el análisis de dichas imágenes en tiempo real ya que, debido al gran volumen de datos que componen estas imágenes, la capacidad de cómputo requerida es muy elevada. Una de las principales líneas de investigación acerca de la reducción de dicho tiempo de procesado se basa en la idea de repartir su análisis en diversos núcleos trabajando en paralelo. En relación a esta línea de investigación, en el presente trabajo se desarrolla una librería para el lenguaje RVC – CAL – lenguaje que está especialmente pensado para aplicaciones multimedia y que permite realizar la paralelización de una manera intuitiva – donde se recogen las funciones necesarias para implementar dos de las cuatro fases propias del procesado espectral: reducción dimensional y extracción de endmembers. Cabe mencionar que este trabajo se complementa con el realizado por Raquel Lazcano en su Proyecto Fin de Grado, donde se desarrollan las funciones necesarias para completar las otras dos fases necesarias en la cadena de desmezclado. En concreto, este trabajo se encuentra dividido en varias partes. La primera de ellas expone razonadamente los motivos que han llevado a comenzar este Proyecto Fin de Grado y los objetivos que se pretenden conseguir con él. Tras esto, se hace un amplio estudio del estado del arte actual y, en él, se explican tanto las imágenes hiperespectrales como los medios y las plataformas que servirán para realizar la división en núcleos y detectar las distintas problemáticas con las que nos podamos encontrar al realizar dicha división. Una vez expuesta la base teórica, nos centraremos en la explicación del método seguido para componer la cadena de desmezclado y generar la librería; un punto importante en este apartado es la utilización de librerías especializadas en operaciones matriciales complejas, implementadas en C++. Tras explicar el método utilizado, se exponen los resultados obtenidos primero por etapas y, posteriormente, con la cadena de procesado completa, implementada en uno o varios núcleos. Por último, se aportan una serie de conclusiones obtenidas tras analizar los distintos algoritmos en cuanto a bondad de resultados, tiempos de procesado y consumo de recursos y se proponen una serie de posibles líneas de actuación futuras relacionadas con dichos resultados. ABSTRACT. Hyperspectral imaging allows us to collect high resolution spectral information: hundred of bands covering from infrared to ultraviolet spectrum. These images have had strong repercussions in the medical field; in particular, we must highlight its use in cancer detection. In this field, the main problem we have to deal with is the real time analysis, because these images have a great data volume and they require a high computational power. One of the main research lines that deals with this problem is related with the analysis of these images using several cores working at the same time. According to this investigation line, this document describes the development of a RVC – CAL library – this language has been widely used for working with multimedia applications and allows an optimized system parallelization –, which joins all the functions needed to implement two of the four stages of the hyperspectral imaging processing chain: dimensionality reduction and endmember extraction. This research is complemented with the research conducted by Raquel Lazcano in her Diploma Project, where she studies the other two stages of the processing chain. The document is divided in several chapters. The first of them introduces the motivation of the Diploma Project and the main objectives to achieve. After that, we study the state of the art of some technologies related with this work, like hyperspectral images and the software and hardware that we will use to parallelize the system and to analyze its performance. Once we have exposed the theoretical bases, we will explain the followed methodology to compose the processing chain and to generate the library; one of the most important issues in this chapter is the use of some C++ libraries specialized in complex matrix operations. At this point, we will expose the results obtained in the individual stage analysis and then, the results of the full processing chain implemented in one or several cores. Finally, we will extract some conclusions related with algorithm behavior, time processing and system performance. In the same way, we propose some future research lines according to the results obtained in this document
Resumo:
Las imágenes hiperespectrales permiten extraer información con una gran resolución espectral, que se suele extender desde el espectro ultravioleta hasta el infrarrojo. Aunque esta tecnología fue aplicada inicialmente a la observación de la superficie terrestre, esta característica ha hecho que, en los últimos años, la aplicación de estas imágenes se haya expandido a otros campos, como la medicina y, en concreto, la detección del cáncer. Sin embargo, este nuevo ámbito de aplicación ha generado nuevas necesidades, como la del procesado de las imágenes en tiempo real. Debido, precisamente, a la gran resolución espectral, estas imágenes requieren una elevada capacidad computacional para ser procesadas, lo que imposibilita la consecución de este objetivo con las técnicas tradicionales de procesado. En este sentido, una de las principales líneas de investigación persigue el objetivo del tiempo real mediante la paralelización del procesamiento, dividiendo esta carga computacional en varios núcleos que trabajen simultáneamente. A este respecto, en el presente documento se describe el desarrollo de una librería de procesado hiperespectral para el lenguaje RVC - CAL, que está específicamente pensado para el desarrollo de aplicaciones multimedia y proporciona las herramientas necesarias para paralelizar las aplicaciones. En concreto, en este Proyecto Fin de Grado se han desarrollado las funciones necesarias para implementar dos de las cuatro fases de la cadena de análisis de una imagen hiperespectral - en concreto, las fases de estimación del número de endmembers y de la estimación de la distribución de los mismos en la imagen -; conviene destacar que este trabajo se complementa con el realizado por Daniel Madroñal en su Proyecto Fin de Grado, donde desarrolla las funciones necesarias para completar las otras dos fases de la cadena. El presente documento sigue la estructura clásica de un trabajo de investigación, exponiendo, en primer lugar, las motivaciones que han cimentado este Proyecto Fin de Grado y los objetivos que se esperan alcanzar con él. A continuación, se realiza un amplio análisis del estado del arte de las tecnologías necesarias para su desarrollo, explicando, por un lado, las imágenes hiperespectrales y, por otro, todos los recursos hardware y software necesarios para la implementación de la librería. De esta forma, se proporcionarán todos los conceptos técnicos necesarios para el correcto seguimiento de este documento. Tras ello, se detallará la metodología seguida para la generación de la mencionada librería, así como el proceso de implementación de una cadena completa de procesado de imágenes hiperespectrales que permita la evaluación tanto de la bondad de la librería como del tiempo necesario para analizar una imagen hiperespectral completa. Una vez expuesta la metodología utilizada, se analizarán en detalle los resultados obtenidos en las pruebas realizadas; en primer lugar, se explicarán los resultados individuales extraídos del análisis de las dos etapas implementadas y, posteriormente, se discutirán los arrojados por el análisis de la ejecución de la cadena completa, tanto en uno como en varios núcleos. Por último, como resultado de este estudio se extraen una serie de conclusiones, que engloban aspectos como bondad de resultados, tiempos de ejecución y consumo de recursos; asimismo, se proponen una serie de líneas futuras de actuación con las que se podría continuar y complementar la investigación desarrollada en este documento. ABSTRACT. Hyperspectral imaging collects information from across the electromagnetic spectrum, covering a wide range of wavelengths. Although this technology was initially developed for remote sensing and earth observation, its multiple advantages - such as high spectral resolution - led to its application in other fields, as cancer detection. However, this new field has shown specific requirements; for example, it needs to accomplish strong time specifications, since all the potential applications - like surgical guidance or in vivo tumor detection - imply real-time requisites. Achieving this time requirements is a great challenge, as hyperspectral images generate extremely high volumes of data to process. For that reason, some new research lines are studying new processing techniques, and the most relevant ones are related to system parallelization: in order to reduce the computational load, this solution executes image analysis in several processors simultaneously; in that way, this computational load is divided among the different cores, and real-time specifications can be accomplished. This document describes the construction of a new hyperspectral processing library for RVC - CAL language, which is specifically designed for multimedia applications and allows multithreading compilation and system parallelization. This Diploma Project develops the required library functions to implement two of the four stages of the hyperspectral imaging processing chain - endmember and abundance estimations -. The two other stages - dimensionality reduction and endmember extraction - are studied in the Diploma Project of Daniel Madroñal, which complements the research work described in this document. The document follows the classical structure of a research work. Firstly, it introduces the motivations that have inspired this Diploma Project and the main objectives to achieve. After that, it thoroughly studies the state of the art of the technologies related to the development of the library. The state of the art contains all the concepts needed to understand the contents of this research work, like the definition and applications of hyperspectral imaging and the typical processing chain. Thirdly, it explains the methodology of the library implementation, as well as the construction of a complete processing chain in RVC - CAL applying the mentioned library. This chain will test both the correct behavior of the library and the time requirements for the complete analysis of one hyperspectral image, either executing the chain in one processor or in several ones. Afterwards, the collected results will be carefully analyzed: first of all, individual results -from endmember and abundance estimations stages - will be discussed and, after that, complete results will be studied; this results will be obtained from the complete processing chain, so they will analyze the effects of multithreading and system parallelization on the mentioned processing chain. Finally, as a result of this discussion, some conclusions will be gathered regarding some relevant aspects, such as algorithm behavior, execution times and processing performance. Likewise, this document will conclude with the proposal of some future research lines that could continue the research work described in this document.
Resumo:
Actualmente nos encontramos en la era de Internet y las nuevas tecnologías. Esto supone que queremos utilizar Internet para casi cualquier problema que se nos presente hoy en día. Al mismo tiempo vivimos un momento en el que los ensayos clínicos están siendo cruciales para la cura de enfermedades, algo que supone si no el más sí uno de los aspectos más importantes en nuestra vida. Pero el seguimiento de los ensayos clínicos presenta el problema de que finalizados tras cinco años de duración, toda comunicación con los pacientes que participaron en ellos se pierde y volver a contactar con ellos se convierte en una tarea ardua. De estas ideas básicas surge el desarrollo de este proyecto. Se ha querido unir las nuevas tecnologías y el beneficioso uso de Internet con la posibilidad de encontrar a pacientes sin tener que perder demasiado tiempo en ello y sin molestar a nadie por el camino. La aplicación que se plantea en este proyecto es, por tanto, una aplicación web basada en PHP, HTML5 y CSS3 que sea capaz de leer información personal de pacientes almacenada en CRFs y que con ella realice búsquedas en redes sociales destinadas a la medicina y así, de esta manera, poder constatar qué ha sido del paciente. Para ello primero se tendrá que realizar un exhaustivo estudio de las redes sociales y repositorios electrónicos clínicos que hay actualmente en el mercado. Una vez identificados estos recursos y sus posibles elementos de desarrollo se estudiarán las herramientas de manejo de Case Report Forms disponibles, que sean de código abierto, para poder usarlas como punto de lectura de los datos del paciente. Una vez disponible esta información sólo será necesario hacer que la aplicación lea los datos y realice las búsquedas en las redes sociales seleccionadas. En definitiva, se ha diseñado un sistema que facilite el seguimiento de pacientes de estudios clínicos al equipo médico.
Resumo:
La nanotecnología es el estudio que la mayoría de veces es tomada como una meta tecnológica que nos ayuda en el área de investigación para tratar con la manipulación y el control en forma precisa de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. Recordando que el prefijo nano proviene del griego vavoc que significa enano y corresponde a un factor de 10^-9, que aplicada a las unidades de longitud corresponde a una mil millonésima parte de un metro. Ahora sabemos que esta ciencia permite trabajar con estructuras moleculares y sus átomos, obteniendo materiales que exhiben fenómenos físicos, químicos y biológicos, muy distintos a los que manifiestan los materiales usados con una longitud mayor. Por ejemplo en medicina, los compuestos manométricos y los materiales nano estructurados muchas veces ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, ya que muchas veces llegan a combinar los antiguos compuestos con estos nuevos para crear nuevas terapias e inclusive han llegado a reemplazarlos, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales y, por tanto, cualquier flujo de trabajo en nano medicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Muchos investigadores en la nanotecnología están buscando la manera de obtener información acerca de estos materiales nanométricos, para mejorar sus estudios que muchas veces lleva a probar estos métodos o crear nuevos compuestos para ayudar a la medicina actual, contra las enfermedades más poderosas como el cáncer. Pero en estos días es muy difícil encontrar una herramienta que les brinde la información específica que buscan en los miles de ensayos clínicos que se suben diariamente en la web. Actualmente, la informática biomédica trata de proporcionar el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, en este contexto, la nueva área de la nano informática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Otro caso en la actualidad es que muchos investigadores de biomedicina desean saber y comparar la información dentro de los ensayos clínicos que contiene temas de nanotecnología en las diferentes paginas en la web por todo el mundo, obteniendo en si ensayos clínicos que se han creado en Norte América, y ensayos clínicos que se han creado en Europa, y saber si en este tiempo este campo realmente está siendo explotado en los dos continentes. El problema es que no se ha creado una herramienta que estime un valor aproximado para saber los porcentajes del total de ensayos clínicos que se han creado en estas páginas web. En esta tesis de fin de máster, el autor utiliza un mejorado pre-procesamiento de texto y un algoritmo que fue determinado como el mejor procesamiento de texto en una tesis doctoral, que incluyo algunas pruebas con muchos de estos para obtener una estimación cercana que ayudaba a diferenciar cuando un ensayo clínico contiene información sobre nanotecnología y cuando no. En otras palabras aplicar un análisis de la literatura científica y de los registros de ensayos clínicos disponibles en los dos continentes para extraer información relevante sobre experimentos y resultados en nano medicina (patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.), seguido el mecanismo de procesamiento para estructurar y analizar dicha información automáticamente. Este análisis concluye con la estimación antes mencionada necesaria para comparar la cantidad de estudios sobre nanotecnología en estos dos continentes. Obviamente usamos un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento anotados manualmente—, y el conjunto de datos para el test es toda la base de datos de estos registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nano drogas, nano dispositivos y nano métodos de aquellos enfocados a testear productos farmacéuticos tradicionales.---ABSTRACT---Nanotechnology is the scientific study that usually is seen as a technological goal that helps us in the investigation field to deal with the manipulation and precise control of the matter with dimensions that range from 1 to 100 nanometers. Remembering that the prefix nano comes from the Greek word νᾶνος, meaning dwarf and denotes a factor of 10^-9, that applyied the longitude units is equal to a billionth of a meter. Now we know that this science allows us to work with molecular structures and their atoms, obtaining material that exhibit physical, chemical and biological phenomena very different to those manifesting in materials with a bigger longitude. As an example in medicine, the nanometric compounds and the materials in nano structures are often offered with more effectiveness regarding to the traditional chemical formulas. This is due to the fact that many occasions combining these old compounds with the new ones, creates new therapies and even replaced them, reveling new diagnostic and therapeutic properties. Even though the complexity of the information at nano level is greater than that in conventional biologic level and, thus, any work flow in nano medicine requires, in an inherent way, advance information management strategies. Many researchers in nanotechnology are looking for a way to obtain information about these nanometric materials to improve their studies that leads in many occasions to prove these methods or to create a new compound that helps modern medicine against powerful diseases, such as cancer. But in these days it is difficult to find a tool that searches and provides a specific information in the thousands of clinic essays that are uploaded daily on the web. Currently, the bio medic informatics tries to provide the work frame that will allow to deal with these information challenge in nano level. In this context, the new area of nano informatics pretends to detect and establish the existing links between medicine, nanotechnology and informatics, encouraging the usage of computational methods to resolve questions and problems that surge with the wide information intersection that is between biomedicine and nanotechnology. Another present case, is that many biomedicine researchers want to know and be able to compare the information inside those clinic essays that contains subjects of nanotechnology on the different webpages across the world, obtaining the clinic essays that has been done in North America and the essays done in Europe, and thus knowing if in this time, this field is really being exploited in both continents. In this master thesis, the author will use an enhanced text pre-processor with an algorithm that was defined as the best text processor in a doctoral thesis, that included many of these tests to obtain a close estimation that helps to differentiate when a clinic essay contains information about nanotechnology and when it does not. In other words, applying an analysis to the scientific literature and clinic essay available in both continents, in order to extract relevant information about experiments and the results in nano-medicine (textual patterns, common vocabulary, experiments descriptors, characterization parameters, etc.), followed by the mechanism process to structure and analyze said information automatically. This analysis concludes with the estimation, mentioned before, needed to compare the quantity of studies about nanotechnology in these two continents. Obviously we use a data reference model (Gold standard) – a set of training data manually annotated –, and the set of data for the test conforms the entire database of these clinic essay registers, allowing to distinguish automatically the studies centered on nano drugs, nano devices and nano methods of those focus on testing traditional pharmaceutical products.
Resumo:
El presente Trabajo Fin de Grado (TFG) surge de la necesidad de disponer de tecnologías que faciliten el Procesamiento de Lenguaje Natural (NLP) en español dentro del sector de la medicina. Centrado concretamente en la extracción de conocimiento de las historias clínicas electrónicas (HCE), que recogen toda la información relacionada con la salud del paciente y en particular, de los documentos recogidos en dichas historias, pretende la obtención de todos los términos relacionados con la medicina. El Procesamiento de Lenguaje Natural permite la obtención de datos estructurados a partir de información no estructurada. Estas técnicas permiten un análisis de texto que genera etiquetas aportando significado semántico a las palabras para la manipulación de información. A partir de la investigación realizada del estado del arte en NLP y de las tecnologías existentes para otras lenguas, se propone como solución un módulo de anotación de términos médicos extraídos de documentos clínicos. Como términos médicos se han considerado síntomas, enfermedades, partes del cuerpo o tratamientos obtenidos de UMLS, una ontología categorizada que agrega distintas fuentes de datos médicos. Se ha realizado el diseño y la implementación del módulo así como el análisis de los resultados obtenidos realizando una evaluación con treinta y dos documentos que contenían 1372 menciones de terminología médica y que han dado un resultado medio de Precisión: 70,4%, Recall: 36,2%, Accuracy: 31,4% y F-Measure: 47,2%.---ABSTRACT---This Final Thesis arises from the need for technologies that facilitate the Natural Language Processing (NLP) in Spanish in the medical sector. Specifically it is focused on extracting knowledge from Electronic Health Records (EHR), which contain all the information related to the patient's health and, in particular, it expects to obtain all the terms related to medicine from the documents contained in these records. Natural Language Processing allows us to obtain structured information from unstructured data. These techniques enable analysis of text generating labels providing semantic meaning to words for handling information. From the investigation of the state of the art in NLP and existing technologies in other languages, an annotation module of medical terms extracted from clinical documents is proposed as a solution. Symptoms, diseases, body parts or treatments are considered part of the medical terms contained in UMLS ontology which is categorized joining different sources of medical data. This project has completed the design and implementation of a module and the analysis of the results have been obtained. Thirty two documents which contain 1372 mentions of medical terminology have been evaluated and the average results obtained are: Precision: 70.4% Recall: 36.2% Accuracy: 31.4% and F-Measure: 47.2%.
Resumo:
Este proyecto de fin de grado pretende demostrar la importancia y la utilidad de la creación de redes de dispositivos móviles conectados entre sí. Para ello se explicarán varios tipos de redes inalámbricas que permiten estas conexiones directas entre dispositivos sin la necesidad de un servidor. En estas redes inalámbricas se destacan las redes P2P y las redes Ad-hoc, las cuales se explicarán posteriormente. El despliegue de estas redes se puede encontrar en un amplio rango de campos como puede ser la agricultura, la medicina e incluso en el ámbito militar. Es objetivo de este proyecto, además, el estudio de la tecnología Wi-Fi Direct creada por la Wi-Fi Alliance. Como se explicará a lo largo del proyecto, Wi-Fi Direct está basado en las redes P2P. Esta tecnología permite a los dispositivos cercanos crear redes P2P a través de la red Wi-Fi sin la necesidad de un punto de acceso a Internet. Por otro lado, una gran cantidad de los dispositivos móviles que existen actualmente poseen el sistema operativo Android. Android ha incorporado en sus dispositivos más recientes la tecnología Wi-Fi Direct. Debido a ello han ido surgiendo aplicaciones que usando esta tecnología consiguen desde enviar ficheros hasta indicar la localización de un usuario. Esta tecnología combinada con este tipo de dispositivos puede ser muy útil para utilizar en casos de emergencia donde las infraestructuras de comunicaciones no estén disponibles ya que al no necesitar un punto de acceso a internet es posible la comunicación entre un usuario en peligro y otro que se encuentre dentro de un radio cercano. Por estos motivos otro de los principales objetivos de este proyecto es la implementación de una aplicación para dispositivos Android que use la tecnología Wi-Fi Direct para realizar varias funcionalidades diferentes, como es el intercambio de ficheros entre dispositivos y la creación de un chat para la comunicación simultanea entre dos dispositivos. Con esto se pretende conocer mejor el funcionamiento de la tecnología Wi-Fi Direct y demostrar su utilidad en los dispositivos móviles como son los dispositivos Android. ABSTRACT. This final degree Project tries to demonstrate the importance and utility of networking mobile devices. For this purpose several types of wireless networks will be explained. These networks allow direct connections between devices. The most prominent Wireless networks are P2P and Ad-hoc which will be explained later. The use of these networks can be found in a wide range of fields such as agriculture medicine, and even in the military sector. Besides, other aim of this project is the study of Wi-Fi Direct Technology which is created by Wi-Fi Alliance. As it explained along the project, Wi-Fi Direct is based on P2P networks. This technology lets nearby devices create P2P networks through Wi-Fi network without an Internet access point. On the other hand, a large number of mobile devices have the Android OS. Android has integrated Wi-Fi Direct technology in its latest devices. Because of this applications have emerged that using this technology they get from sending files to send the user’s location. This technology combined with these devices can be very useful to use in emergencies where communications infrastructures are not available. Since not need an Internet access point, communication between a user in danger and another within close radius is possible. For these reasons another of the main aims of this project is the implementation of an application for Android devices which use Wi-Fi Direct technology to perform several different functionalities, such as file exchange or chat for simultaneous communication between devices. This is intended to better understand the operation of Wi-Fi Direct technology and prove its utility on mobile devices such as Android devices.
Resumo:
Los sistemas de videoconferencia y colaboración en tiempo real para múltiples usuarios permiten a sus usuarios comunicarse por medio de vídeo, audio y datos. Históricamente estos han sido sistemas caros de obtener y de mantener. El paso de las décadas ha limado estos problemas acercado el mundo de comunicación en tiempo real a un grupo mucho más amplio, llegando a usarse en diversos ámbitos como la educación o la medicina. En este sentido, el último gran salto evolutivo al que hemos asistido ha sido la transición de este tipo de aplicaciones hacia la Web. Varias tecnologías han permitido este viaje hacia el navegador. Las Aplicaciones Ricas de Internet (RIAs), que permiten crear aplicaciones Web interactivas huyendo del clásico esquema de petición y respuesta y llevando funcionalidades propias de las aplicaciones nativas a la Web. Por otro lado, la computación en la nube o Cloud Computing, con su modelo de pago por uso de recursos virtualizados, ha llevado a la creación de servicios que se adaptan mejor a la demanda, han habilitado este viaje hacia el navegador. No obstante, como cada cambio, este salto presenta una serie de retos para los sistemas de videoconferencia establecidos. Esta tesis doctoral propone un conjunto de arquitecturas, mecanismos y algoritmos para adaptar los sistemas de multiconferencia al entorno Web, teniendo en cuenta que este es accedido desde dispositivos diferentes y mediante redes de acceso variadas. Para ello se comienza por el estudio de los requisitos que debe cumplir un sistema de videoconferencia en la Web. Como resultado se diseña, implementa y desarrolla un servicio de videoconferencia que permite la colaboración avanzada entre múltiples usuarios mediante vídeo, audio y compartición de escritorio. Posteriormente, se plantea un sistema de comunicación entre una aplicación nativa y Web, proponiendo técnicas de adaptación entre los dos entornos que permiten la conversación de manera transparente para los usuarios. Estos sistemas permiten facilitar la transición hacia tecnologías Web. Como siguiente paso, se identificaron los principales problemas que existen para la comunicación multiusuario en dispositivos de tamaño reducido (teléfonos inteligentes) utilizando redes de acceso heterogéneas. Se propone un mecanismo, combinación de transcodificación y algoritmos de adaptación de calidad para superar estas limitaciones y permitir a los usuarios de este tipo de dispositivos participar en igualdad de condiciones. La aparición de WebRTC como tecnología disruptiva en este entorno, permitiendo nuevas posibilidades de comunicación en navegadores, motiva la segunda iteración de esta tesis. Aquí se presenta un nuevo esquema de adaptación a la demanda para servidores de videoconferencia diseñado para las necesidades del entorno Web y para aprovechar las características de Cloud Computing. Finalmente, esta tesis repasa las conclusiones obtenidas como fruto del trabajo llevado a cabo, reflejando la evolución de la videoconferencia Web desde sus inicios hasta nuestros días. ABSTRACT Multiuser Videoconferencing and real-time collaboration systems allow users to communicate using video, audio and data streams. These systems have been historically expensive to obtain and maintain. Over the last few decades, technological breakthroughs have mitigated those costs and popularized real time video communication, allowing its use in environments such as education or health. The last big evolutionary leap forward has been the transition of these types of applications towards theWeb. Several technologies have allowed this journey to theWeb browser. Firstly, Rich Internet Applications (RIAs) enable the creation of dynamic Web pages that defy the classical request-response interaction and provide an experience similar to their native counterparts. On the other hand, Cloud Computing brings the leasing of virtualized hardware resources in a pay-peruse model and, with it, better scalability in resource-demanding services. However, as with every change, this evolution imposes a set of challenges on existing videoconferencing solutions. This dissertation proposes a set of architectures, mechanisms and algorithms that aim to adapt multi-conferencing systems to the Web platform, taking into account the variety of devices and access networks that come with it. To this end, this thesis starts with a study concerning the requirements that must be met by new Web videoconferencing systems. The result of this study is the design, development and implementation of a new videoconferencing services that provides advanced collaboration to its user by providing video and audio communication as well as desktop sharing. After this, a new communication system between Web and native applications is presented. This system proposes adaptation mechanisms to bridge the two worlds providing a seamless integration transparent to users who can now access the powerful native application via an easy Web interface. The next step is to identify the main challenges posed by multi-conferencing on small devices (smartphones) with heterogeneous access networks. This dissertation proposes a mechanism that combines transcoding and adaptive quality algorithms to overcome those limitations. A second iteration in this dissertation is motivated by WebRTC. WebRTC appears as a disrupting technology by enabling new real-time communication possibilities in browsers. A new mechanism for flexible videoconferencing server scalability is presented. This mechanism aims to address the strong scalability requirements in the Web environment by taking advantage of Cloud Computing. Finally, the dissertation discusses the results obtained throughout the study, capturing the evolution of Web videoconferencing systems.