1000 resultados para Patología celula
Resumo:
En este trabajo de investigación que se presenta para optar al grado de Doctor, se analizan y estudian los materiales que conforman las viviendas de mampostería de arenisca “Piedra de Ojo” del casco histórico de Maracaibo, Venezuela, construidas en el siglo XIX. No existe una bibliografía descriptiva técnico-constructiva del sistema constructivo, por lo que esta tesis complementa la escasa descripción estilística existente donde apenas se mencionan algunos materiales de construcción. Definido el marco histórico y las manzanas del área en donde se encontraban las viviendas preseleccionadas a estudiar, en la visita de campo se seleccionaron 12 que se encontraban en estado de deterioro, y que permitieron recolectar las muestras más fácilmente. Para realizar la caracterización y comportamientos de los diferentes materiales utilizados: piedra y morteros en los cerramientos, maderas en armaduras de tejados, techos y carpintería de puertas y ventanas, cerámicos en muros y acabados, etc. Para complementar lo antes dicho se ha dividido esta tesis en seis capítulos: En el capítulo I se desarrolla el estado del arte a nivel nacional e internacional de trabajos de investigación, similares. Se aborda la memoria histórica, que es una reseña de la evolución de la vivienda en la ciudad de Maracaibo. En el capítulo II se describe la metodología empleada en la tesis, de acuerdo a los objetivos, tanto generales como específicos de la investigación. Que ha cubierto diferentes frentes: consulta bibliográfica, levantamiento planimétrico, toma de muestras, análisis de visu, caracterización físico-química y correlación de resultados. Se ha desarrollado el trabajo tanto in situ como en laboratorio y despacho. El capítulo III presenta la caracterización de la arenisca “Piedra de Ojo”, se desarrolla: la descripción geológica y caracterización petrológica. Se reseñan los ensayos realizados en laboratorio como: caracterización de visu, caracterización petrográfica, estudio petrográfico por microcopia óptica de trasmisión, estudio petrográfico por microcopia electrónica de barrido, microscopia electrónica de barrido en modo electrones secundarios (SSE) y microscopia electrónica de barrido en modo electrones retrodispersados. También las propiedades escalares de los mampuestos y los siguientes valores: densidades, porosidades y resistencia mecánicas, entre otros. En el capítulo IV se analizan las características de los morteros aplicados en las viviendas, y la patología o lesiones que presentan. Se clasifican en tres tipos: mortero de junta o asiento, de enfoscado y revoco. Se documenta la realización de los ensayos físicos y químicos, resistencia mecánica y de granulometría; se explican sus componentes principales: conglomerante de cal, áridos y aditivos y la tecnología de fabricación, así como las características físicas, hídricas, químicas y granulométricas. El capítulo V, contiene las aplicaciones constructivas de los materiales de albañilería, Se describen otros elementos de la vivienda como; cimentaciones, muros mixtos, molduras, apliques y pinturas y finalmente pavimentos. Y en el capítulo VI se analizan las especies de madera más representativas usadas en las armaduras de las cubiertas, así como los elementos de cubrición. De igual forma se describe la carpintería de puertas y ventanas, así como sus dinteles o cargaderos de madera y se realiza la identificación anatómica, las propiedades físicas y mecánicas de las utilizadas. Entre los resultados y conclusiones se determinó que el 90% de los materiales utilizados en su construcción proceden de zonas cercanas a la construcción de la vivienda, como la formación El Milagro convertida en cantera de piedra y que el resto de los materiales provenían de la Isla de Toas y de la exportación de las islas del Caribe y de Europa como el cemento. El principal aporte de esta investigación es el análisis técnico constructivo y la caracterización física, mecánica y química de los materiales de la vivienda, con el fin de que dicha información sea usada para definir los materiales nuevos a utilizar en las restauraciones de las viviendas y en futuras líneas de investigación. ABSTRACT In this research paper submitted to opt to the degree of Doctor, the materials that make the “Piedra de Ojo” sandstone masonry houses of the historical center of Maracaibo, Venezuela, built in the XIX century, are analyzed and studied. There exists no technical-constructive descriptive literature of the constructive system, so this thesis complements the very limited existing stylistic description, where barely some construction materials are mentioned. With the historical context and the blocks of the area where the preselected houses to be studied being defined, 12 of these houses that were in a state of decay (deterioration) were selected and this condition allowed to collect samples more easily, in order to carry out the characterization and behavior of the different materials used: stone and mortars in the walls, wood trusses in roofs, ceilings and woodwork of doors and windows, walls and ceramic finishes, etc. To complement the foregoing, this thesis has been divided in six chapters: In Chapter I, the state of art at national and international levels of similar research is developed, which is a review of the evolution of housing in the city of Maracaibo. In Chapter II, the methodology used in the thesis is described, according to the research’s objectives, general and specific ones, which have covered several fronts: literature survey, planimetric survey, sampling, visu analysis, physical-chemical characterization and correlation of results. Chapter III presents the characterization of the “Piedra de Ojo” sandstone; geological description and petrologic characterization are developed. Essays performed in the laboratory are reviewed, such as: visu characterization, petrographic characaterization, petrographic study by optical microscopy of transmission, petrographic study by electronic scanning microscopy in secondary electron mode (SSE) and electron microscopy scaning by backscattered electron mode. Also scalar properties of the masonry and the following: density, porosity and mechanical resistance, among others. In Chapter IV, characteristics of the mortars used in the houses are analyzed and pathology or damages are presented. They are classified into three types: grout, cement render and plaster. Physical and chemical testing, mechanical strength and grain size (granulometric) is documented; its main components are explained: lime binder, aggregates and additives and manufacturing technology as well as the physical, water, chemical and granulometric characteristics. Chapter V contains the constructive applications of masonry materials. Other housing elements are described, such as; foundations, mixed walls, moldings, wall paintings and finally floorings (pavements). And in chapter VI the most representative species of wood used in the overhead fixtures and cover elements are analyzed. Likewise, woodwork of doors and windows and their wooden lintels or landings are described; anatomical identification and physical and mechanical properties of the ones used is made. The results and conclusions determined that 90% of the materials used in its construction came from areas near the construction of housing, such as El Milagro formation, converted into stone quarry and other materials came from the Toas Island and from the export of the Caribbean islands and Europe, such as cement. The main contribution of this research is the constructive technical analysis and physical, mechanical and chemical characterization of the materials of the houses, in order that such information is used to define the new materials to be used in the housing restoration and future research lines.
Resumo:
En este trabajo se ha estudiado la patología de la madera a través de los síntomas y signos que la caracterizan. La aproximación a la diagnosis en la madera se realiza a través de unos criterios y sistemas de actuación,utilizados en proyectos de intervención en edificaciones. En estos procesos de actuación se efectúa el estudio patológico de la madera, para ello,en primer lugar se realiza una toma de datos de reconocimiento de la edificación,posteriormente se elabora un análisis de estos datos y en base a ese análisis, se emite un diagnóstico de los daños y los procesos patológicos, mediante los cuales se obtiene un documento válido para hacer un dictamen, con las suficientes garantías sobre el estado patológico del edificio y sobre la manera de cómo acometer los proyectos de conservación, restauración o rehabilitación. Para la realización de este trabajo se ha contado con el apoyo y la observación práctica de una obra de rehabilitación de estructura de madera, localizada en la ciudad de Madrid. El objetivo de la intervención en una edificación es la conservación del bien inmueble,mediante su rehabilitación, para recuperar y mejorar su funcionalidad residencial. Atendiendo al objetivo de este trabajo de fin de grado, el estudio patológico se inicia con la detección de los daños existentes en el edificio y la evolución de ese daño, con el fin de entender la causa que lo originó, para posteriormente eliminar dicha causa y reparar el efecto. El seguimiento del caso práctico de la obra tuvo lugar durante el período comprendido entre el 10 de Marzo y el 12 de Mayo de 2015. Durante este periodo de tiempo, además de realizar una observación y análisis de las fases de restauración que han tenido lugar en la obra, he ampliado mi formación acerca del tema de la madera, gracias a las enseñanzas de D. Enrique Nuere y D. Francisco Cabezas, asesores en temas de la madera en dicha obra. En este trabajo, se expone, en primer lugar, una teoría general sobre la información previa al proyecto de intervención y la toma de datos, información que nos permite determinar los criterios de intervención y precisar las técnicas más adecuadas para realizar los trabajos que sean objeto del proyecto. Se parte de una inspección visual como la herramienta más elemental, para acometer el estudio del estado patológico del edificio, no excluyendo la necesidad de otra tipo de inspección técnica mediante análisis, pruebas y ensayos. Se finaliza el proceso de ejecución del estudio patológico con un informe que establece las necesidades de intervención en las zonas dañadas de la obra de rehabilitación. En esta resolución se especificará la manera de llevar a cabo las soluciones indispensables de rehabilitación, de acuerdo a criterios variables, según quien lo elabore, teniendo en cuenta el conocimiento que se tiene sobre el material y los recursos tanto económicos como materiales de los que se disponga.
Resumo:
El ámbito de aplicación del DB HR protección frente al ruido excluye las obras de ampliación, modificación, reforma o rehabilitación en los edificios existentes, salvo cuando se trate de rehabilitación integral, concepto definido en la parte I del CTE . Esto supone que en gran parte de las intervenciones realizadas en edificios existentes no es obligatorio llevar a cabo medidas correctoras que aumenten la calidad acústica de dichos edificios. Esto, sumado al hecho de que existen otros condicionantes (plazos de ejecución, otras normativas aplicables, presupuesto, etc.), hace que el estudio de las condiciones acústicas, en obras de rehabilitación, pase a un segundo plano. Sin embargo, cada obra de rehabilitación es una oportunidad de mejorar las deficientes condiciones acústicas de los edificios dentro de lo viable técnica y económicamente, a pesar de que puede que no se lleguen a alcanzar los niveles exigidos en el DB HR. El grado de intervención puede ser muy diverso: desde simples obras de conservación o reforma, a las ampliaciones, cambios de uso, redistribuciones, etc. Aquí se pretende mostrar una herramienta válida para el proyectista en las primeras fases del proyecto de rehabilitación que permita evaluar las distintas posibilidades de intervención en el edificio, siempre y cuando se disponga de información sobre las soluciones constructivas y sus uniones, pudiendo estimarse sus valores de aislamiento acústico en laboratorio, RA y Lnw.
Resumo:
En una jovencísima Gran Vía madrileña trascurría la vida social de los años 20. Han pasado 100 años desde que estos primeros edificios vieran la luz; sin embargo, su durabilidad es un hecho, han soportado con gran respetabilidad el paso del tiempo. Este trabajo propone analizar si el diseño de estos edificios ha sabido dar respuesta a las necesidades de una sociedad en constante evolución. Esquemas modulares de gran flexibilidad han hecho posible soportar cambios de uso y resultando sostenibles en el tiempo.
Resumo:
A día de hoy, a pesar de todos los avances médicos y tecnológicos, no existe una prueba capaz de diagnosticar el Síndrome de Apneas-Hipopneas durante el Sueño (SAHS) o Síndrome de Apnea del Sueño (SAS), con una prueba in-situ rápida y eficaz. La detección de este trastorno, se lleva a cabo con una prueba larga y costosa, en la que el paciente debe pasar una noche hospitalizado y monitorizado en todo momento. Con el fin de minimizar tiempo y costes de diagnóstico de esta patología, el Grupo de Aplicaciones de Procesado de Señales (GAPS) lleva años trabajando en el desarrollo de una herramienta de apoyo, basada en el análisis de la señal de voz, que proporcione una alternativa a los métodos de diagnóstico actuales. En definitiva, desarrollar una prueba in-situ capaz de diagnosticar esta enfermedad. El Síndrome de Apnea del Sueño (SAS) es un trastorno muy prevalente y con muy bajo índice de casos diagnosticados. Se define como un cuadro de somnolencia excesiva, trastornos cognitivos-conductuales, respiratorios, cardiacos, metabólicos o inflamatorios secundarios a episodios repetidos de obstrucción de la vía aérea superior (VAS) durante el sueño. Esta obstrucción se produce por el colapso de las partes blandas de la garganta, impidiendo una correcta respiración, y como consecuencia, interrupciones del sueño no consciente e hipoxia. En este contexto se ha desarrollado un Proyecto de Fin de Grado conjunto las Srtas. Laura Soria Simón y Bárbara Recarte Steegman. Se estructura en tres bloques: análisis perceptual conjunto, estudio de técnicas de clasificación (Laura) y estudio acústico (Bárbara). Los resultados y conclusiones correspondientes al estudio de las técnicas de clasificación de los descriptores perceptuales y global del proyecto, se recogen en el presente documento.
Resumo:
El incremento de la esperanza de vida en los países desarrollados (más de 80 años en 2013), está suponiendo un crecimiento considerable en la incidencia y prevalencia de enfermedades discapacitantes, que si bien pueden aparecer a edades tempranas, son más frecuentes en la tercera edad, o en sus inmediaciones. Enfermedades neuro-degenerativas que suponen un gran hándicap funcional, pues algunas de ellas están asociadas a movimientos involuntarios de determinadas partes del cuerpo, sobre todo de las extremidades. Tareas cotidianas como la ingesta de alimento, vestirse, escribir, interactuar con el ordenador, etc… pueden llegar a ser grandes retos para las personas que las padecen. El diagnóstico precoz y certero resulta fundamental para la prescripción de la terapia o tratamiento óptimo. Teniendo en cuenta incluso que en muchos casos, por desgracia la mayoría, sólo se puede actuar para mitigar los síntomas, y no para sanarlos, al menos de momento. Aun así, acertar de manera temprana en el diagnóstico supone proporcionar al enfermo una mayor calidad de vida durante mucho más tiempo, por lo cual el esfuerzo merece, y mucho, la pena. Los enfermos de Párkinson y de temblor esencial suponen un porcentaje importante de la casuística clínica en los trastornos del movimiento que impiden llevar una vida normal, que producen una discapacidad física y una no menos importante exclusión social. Las vías de tratamiento son dispares de ahí que sea crítico acertar en el diagnóstico lo antes posible. Hasta la actualidad, los profesionales y expertos en medicina, utilizan unas escalas cualitativas para diferenciar la patología y su grado de afectación. Dichas escalas también se utilizan para efectuar un seguimiento clínico y registrar la historia del paciente. En esta tesis se propone una serie de métodos de análisis y de identificación/clasificación de los tipos de temblor asociados a la enfermedad de Párkinson y el temblor esencial. Empleando técnicas de inteligencia artificial basadas en clasificadores inteligentes: redes neuronales (MLP y LVQ) y máquinas de soporte vectorial (SVM), a partir del desarrollo e implantación de un sistema para la medida y análisis objetiva del temblor: DIMETER. Dicho sistema además de ser una herramienta eficaz para la ayuda al diagnóstico, presenta también las capacidades necesarias para proporcionar un seguimiento riguroso y fiable de la evolución de cada paciente. ABSTRACT The increase in life expectancy in developed countries in more than 80 years (data belongs to 2013), is assuming considerable growth in the incidence and prevalence of disabling diseases. Although they may appear at an early age, they are more common in the elderly ages or in its vicinity. Nuero-degenerative diseases that are a major functional handicap, as some of them are associated with involuntary movements of certain body parts, especially of the limbs. Everyday tasks such as food intake, dressing, writing, interact with the computer, etc ... can become large debris for people who suffer. Early and accurate diagnosis is crucial for prescribing optimal therapy or treatment. Even taking into account that in many cases, unfortunately the majority, can only act to mitigate the symptoms, not to cure them, at least for now. Nevertheless, early diagnosis may provide the patient a better quality of life for much longer time, so the effort is worth, and much, grief. Sufferers of Parkinson's and essential tremor represent a significant percentage of clinical casuistry in movement disorders that prevent a normal life, leading to physical disability and not least social exclusion. There are various treatment methods, which makes it necessary the immediate diagnosis. Up to date, professionals and medical experts, use a qualitative scale to differentiate the disease and degree of involvement. Therefore, those scales are used in clinical follow-up. In this thesis, several methods of analysis and identification / classification of types of tremor associated with Parkinson's disease and essential tremor are proposed. Using artificial intelligence techniques based on intelligent classification: neural networks (MLP and LVQ) and support vector machines (SVM), starting from the development and implementation of a system for measuring and objective analysis of the tremor: DIMETER. This system besides being an effective tool to aid diagnosis, it also has the necessary capabilities to provide a rigorous and reliable monitoring of the evolution of each patient.
Resumo:
Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.
Resumo:
El baloncesto es una modalidad deportiva de gran exigencia física, por lo que supone un estrés muy elevado para el cuerpo del deportista, y a menudo conduce a lesiones relacionadas con el sobreuso o el contacto con el suelo u otro jugador. De promedio casi la mitad de los jugadores de un equipo de baloncesto tiene alguna lesión durante el transcurso de una temporada y en algunos casos múltiples. En cualquier temporada, la incidencia de lesiones puede ser el mayor condicionante en el número de victorias y derrotas. La tendinopatía rotuliana es una lesión por sobre uso muy común en el baloncesto, el tendón rotuliano es vulnerable a las caídas repetitivas y actividades que conllevan cambios de dirección constantes. El aumento exponencial del número de participantes y el nivel de intensidad en el baloncesto ha supuesto paralelamente un aumento del número de lesiones en todos los niveles, así como una mayor investigación en la prevención y recuperaciones de lesiones. La tendinopatía rotuliana es la segunda lesión más habitual en el baloncesto, únicamente por detrás de los esguinces de tobillo. Existen numerosos estudios científicos que hablan sobre distintos tratamientos y protocolos de recuperación, sin embargo no hay un consenso sobre cuál es el protocolo ideal para su recuperación. Con este trabajo trataré de determinar cuál o cuáles son los protocolos más adecuados para prevenir y tratar esta patología teniendo en cuento la tipología de esfuerzos característicos del baloncesto.
Resumo:
La valoración de las funciones ejecutivas tiene una especial dificultad cuando se intenta llevar a cabo mediante un enfoque tradicional de pruebas neuropsicológicas. Este aspecto es especialmente relevante en la evaluación de funciones ejecutivas en población pediátrica, lo que propició el desarrollo de cuestionarios de conducta como el Behavior Rating Inventory of Executive Function (BRIEF), con el fin de convertirse en una medida ecológica de las alteraciones de funciones ejecutivas. Resulta necesario realizar una adaptación completa de una prueba psicométrica para que ésta pueda ser utilizada en una población diferente para la cual fue diseñada. El BRIEF ha sido utilizado para la valoración de las alteraciones ejecutivas en numerosas patologías, pero destacan los estudios realizados en niños con Trastorno por Déficit de Atención - Hiperactividad (TDAH). El TDAH presenta alteraciones neuropsicológicas que implican especialmente a las funciones ejecutivas, lo que justifica el uso de la prueba en esta patología. Incluso, algunas de las teorías más importantes sobre TDAH apuntan a las alteraciones en inhibición como el síntoma nuclear del trastorno. La existencia de dos subtipos principales en el TDAH (subtipo predominantemente inatento y combinado) podría implicar un patrón diferente de alteraciones ejecutiva en cada tipo. OBJETIVOS: Se presentan dos objetivos principales: 1) Adaptación del BRIEF a población española, y 2) Estudio del perfil diferencial del BRIEF entre los subtipos inatento y combinado del TDAH...
Resumo:
Al abordar sociológicamente el problema del tiempo, Durkheim no hizo sino intervenir en un debate muy vivo en su época. Ese debate tuvo en H. Bergson uno de sus protagonistas fundamentales. Su crítica "temporalista" de la ciencia moderna fue rechazada por Durkheim, que la minusvaloró como simple patología "mística". Consecuente con ese rechazo, la sociología durkheimiana encontró dificultades para definir sus relaciones con la historia y construir una "sociología dinámica" que diera cuenta del cambio. histórico.
Resumo:
El objetivo de este estudio es analizar del afrontamiento al estrés, el afrontamiento del dolor y el apoyo social percibido, para establecer su relación con la incapacidad funcional y el dolor percibido, en pacientes diagnosticados de artritis reumatoide (AR), comparados con pacientes sin patología que limite su capacidad funcional (grupo comparación). Para ello, han sido evaluados un total de 230 pacientes, 110 pacientes con artritis reumatoide y 120 pacientes en el grupo de comparación, pertenecientes a hospitales de red de sanidad pública y privada de la Comunidad Autónoma de Madrid (España). El protocolo de evaluación ha consistido en el Cuestionario de afrontamiento al estrés COPE (Carver, Scheier y Weintraub, 1989), Cuestionario de afrontamiento al dolor CAD (Soriano y Monsalve, 2002), la Escala de apoyo social abreviada SSQ-6 (Sarason, Sarason, Shearin y Pierce, 1987), escala numérica de dolor (EN) y el Cuestionario de la evaluación de la salud de Stanford HAQ (Fries, Spitz, Kraines y Holman, 1980). También, se han recogido datos sociodemográficos y años de evolución de la enfermedad en el grupo de AR. El análisis estadístico se ha realizado mediante el programa SPSS v.22, y ha consistido en pruebas paramétricas, con contrastes de pruebas no paramétricas, de diferencias de medias, estudio de correlaciones y ecuaciones de regresión, tanto para las comparaciones entre ambos grupos, como para el estudio de los pacientes con AR...
Modelo organizativo y comunicacional de una ONL: estudio de caso sobre la Fundación Síndrome de West
Resumo:
Si para la sociedad en general la información sobre la salud es algo importante, para una pequeña parte de ella se convierte en algo imprescindible. Se trata de aquélla aquejada de una patología rara o poco frecuente que no sólo sufre la falta de información sobre su dolencia sino que, incluso, se ve lastrada a veces por la falta de conocimiento de los profesionales sanitarios a la hora de su tratamiento. El mundo de las Enfermedades Raras es complejo porque abarca un número muy grande de sintomatologías y no están suficientemente estudiadas ni atendidas, en su inmensa mayoría. Por si fuera poco, si partimos del hecho de que cualquier dolencia de este tipo (cuya incidencia sea, como mínimo, de un afectado cada 2.000 habitantes) tiene poca visibilidad en el tejido social, la situación se agrava en el momento en que planteamos el análisis de una que sufren los bebés. El Síndrome de West es una patología que corresponde a la Neuropediatría, una de las veintidós especialidades pediátricas no reconocidas oficialmente en nuestro país (cifra resultante tras la reciente incorporación de la neonatología como área de capacitación específica), se convierte, si cabe, en un caso extremo de falta de atención y conocimiento por el gran público. El Síndrome de West, pese a ser la más común de las epilepsias infantiles, sigue siendo un gran desconocido para el gran público. Hasta la última década, el espacio dedicado en los medios generalistas a esta enfermedad había venido siendo casi inexistente. Aparte del aspecto puramente médico y terapéutico, existe otro problema con el que se enfrentan los afectados y sus familias: el de la exclusión social y las trabas de todo tipo que se encuentran en el día a día a causa de sus limitaciones. La mayoría de los afectados sufren epilepsia y autismo y tienen un promedio de discapacidad de 70 %. Precisamente, para paliar esa situación, en 2004 se creó la Fundación Síndrome de West que tiene entre sus pilares básicos la divulgación de la enfermedad, el fomento de la investigación y la atención a las familias afectadas. Se entra también de esta manera en el complejo ámbito de las entidades solidarias y benéficas (ONL), agrupadas en una amalgama de siglas que la mayoría de las veces confunde más que ayuda, y que también tiene una clara influencia en la solución de los problemas planteados...
Resumo:
La leishmaniosis canina (Lcan) causada por Leishmania infantum es una zoonosis de distribución mundial endémica en la cuenca mediterránea. Es transmitida a humanos y animales mediante la picadura de las hembras de flebotomos, siendo el perro tanto un hospedador natural como el principal reservorio. Las manifestaciones clínicas de la infección por L. infantum en el perro son muy variables, desde una infección subclínica crónica hasta una enfermedad grave, que puede ser fatal. Debido a su compleja patogénesis y al importante papel que juega la respuesta inmunitaria, tanto el diagnóstico como el tratamiento y prevención de esta enfermedad son un reto desde el punto de vista veterinario y de Salud Pública. El objetivo fundamental de esta Tesis Doctoral ha sido encontrar nuevas alternativas tanto diagnósticas como terapéuticas en la Lcan. En cuanto al diagnóstico se ha evaluado el uso de muestras obtenidas de forma menos invasiva y dolorosa, y mejor aceptadas por los perros y por ende por sus propietarios. Y con respecto al tratamiento, se han evaluado dos nuevas moléculas buscando que sea más económico, eficaz, bien tolerado y de fácil administración. Para ello se han realizado tres ensayos clínicos: los dos primeros con un modelo experimental canino y el tercero en perros con infección natural por L. infantum. Para los dos primeros ensayos se empleó el mismo modelo experimental canino, que consistió en ocho perras de raza Beagle infectadas experimentalmente con L. infantum, a razón de 5x107 promastigotes/ml por vía intravenosa...
Resumo:
Las herramientas de genotipado en tuberculosis fueron desarrolladas inicialmente para la realización de estudios epidemiológicos. Sin embargo han permitido asimismo desvelar la complejidad clonal existente en las infecciones causadas por Mycobacterium tuberculosis (MTB) y Mycobacterium bovis (M. bovis), poniendo así en cuestión la asunción de que cada episodio de tuberculosis (TB) estuviera causado por una única cepa. De este modo se comenzaron a describir situaciones de coinfección por más de una cepa (infección mixta) o bien de presencia simultánea de variantes clonales (infección policlonal), pudiendo estas, además, ofrecer una distribución heterogénea de las mismas en los diferentes tejidos infectados (infección compartimentalizada). Sin embargo, son pocos los estudios existentes entorno a estos fenómenos, y los que se han realizado atienden a la mera descripción de casos anecdóticos o al estudio de estos eventos en poblaciones en donde la incidencia de TB es alta. Así, el primer objetivo de esta tesis se centró en dimensionar la complejidad clonal existente en las infecciones por MTB en una población no seleccionada, en un entorno de moderada incidencia, donde las expectativas de encontrar la citada complejidad eran escasas. Mediante el análisis por RFLP-IS6110 y MIRU-VNTR se detectaron infecciones complejas en 11 pacientes con TB pulmonar (1,6%) y en 10 pacientes con TB pulmonar y extrapulmonar (14,1%). De estos 21 casos, 9 correspondieron a infecciones mixtas y 12 a infecciones policlonales. Por último, en 9 casos (5 pacientes con infección mixta y 4 con infección policlonal) se documentó la compartimentalización de la infección. Tras la descripción sistemática de los casos de TB con infecciones complejas, nos centramos en el estudio de una de sus modalidades, la infección policlonal. En concreto decidimos abordar la evaluación del posible significado funcional que pudiera conllevar la adquisición de las sutiles reorganizaciones genéticas identificadas entre variantes clonales, que surgen como resultado de eventos de microevolución...
Resumo:
A pesar de todos los avances realizados en las últimas décadas en el conocimiento sobre numerosos aspectos del Síndrome Respiratorio Bovino (SRB), entre los que se encuentran los factores de riesgo, la etiopatogenia, las características de los agentes causales, el diagnóstico, la terapéutica o la profilaxis y sus efectos globales, el SRB continúa siendo la enfermedad de mayor impacto económico en el ganado vacuno de cebo. Además, parece que tanto su incidencia como las pérdidas que origina siguen estables en los cebaderos de todo el mundo desde hace varias décadas. Sus principales características indican que debemos considerar que es una enfermedad de difícil control dado su carácter multifactorial y con la que, por tanto, debemos acostumbrarnos a convivir aunque aspirando a minimizar tanto su incidencia, como la gravedad de sus consecuencias. Por otro lado, aunque existen muchas técnicas diagnósticas a nuestra disposición, aún no se puede decir que exista una técnica de referencia o “gold standard” para el diagnóstico del SRB, y mucho menos una técnica estandarizada para su diagnóstico precoz. Establecer y estandarizar protocolos para la detección de grupos de animales en riesgo y su monitorización más intensa en fases posteriores del cebo para reducir el consumo de antibióticos de uso preventivo o metafiláctico es de gran interés. Hasta ahora, este tipo de estrategias se han basado en la detección de evidencias de contacto con gérmenes patógenos pulmonares (principalmente análisis de serología). Sin embargo, no debemos olvidar que la identificación de un agente patógeno en ausencia de una lesión y/o signos clínicos atribuibles al mismo, tan sólo es indicativa de contacto previo (no de padecimiento de un proceso de enfermedad) y que, por otro lado, la mayoría de los agentes microbiológicos ligados al SRB son comensales habituales de las vías respiratorias altas. De modo que la identificación de un agente sólo prueba enfermedad si se diagnostica junto con los signos clínicos compatibles de enfermedad y la lesión...