1000 resultados para a-Si un-relaxed


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se presentan resultados preliminares del proyecto de investigación UBACYT (Programación 2010/12) 'Consumo de sustancias psicoactivas y expectativas hacia el alcohol en niños escolarizados entre 8 y 12 años', Director: Marcelo Grigoravicius. El objetivo de este proyecto es indagar el consumo de sustancias psicoactivas en niños y niñas entre 8 y 12 años de edad pertenecientes a una población clínica y una población no-clínica. Además se indagan y analizan las actitudes, valores y creencias que los niños poseen respecto del uso de dichas sustancias. Este proyecto continúa relevamientos anteriores, incluyendo a la vez, una franja etárea menor a las estudiadas tradicionalmente. En el presente trabajo se presentan los resultados preliminares de la primera etapa de relevamiento desarrollada durante 2010 con niños de la población clínica. Metodología: La muestra está; conformada por un total de 22 niños: 14 varones y 8 niñas que asisten a un Servicio de atención clínica de niños, dependiente de la Segunda Cátedra de Psicoanálisis: Escuela Inglesa de la Facultad de Psicología de la Universidad de Buenos Aires, ubicado en un partido del sur del conurbano bonaerense. Ninguno de estos niños cuenta con cobertura social, requisito para recibir asistencia en dicho Servicio. En todos los casos se recibió expresa autorización de sus padres o adultos responsables para la participación en la investigación. Se administró el CORIN: Conductas de Riesgo en Niños (Miguez, 1998) Fuente: CONICET/Programa de Epidemiología Psiquiátrica. Se trata de un instrumento conformado por 47 ítems de respuesta cerrada, que evalúa situaciones de riesgo de uso de sustancias psicoactivas en niños escolarizados. Indaga la existencia del consumo de sustancias psicoactivas (alguna vez en la vida, en el último año, en el último mes) y las actitudes, valores y creencias relacionadas con dicho consumo. Asimismo, indaga las percepciones del niño acerca de su ambiente familiar. También se administró un protocolo de datos sociodemográficos. Se trata de un instrumento con ítems para la recolección y sistematización de datos como sexo, edad, escolaridad, situación laboral, situación familiar, vivienda, antecedentes familiares de consumo de sustancias psicoactivas, relación con pares. Resultados y Conclusiones: Una amplia mayoría de niños, un 90(20 casos), considera que si un chico de su edad toma cerveza puede dañar su salud, y el mismo porcentaje manifiesta que 'si se sirve alcohol en una fiesta, eso puede ocasionar problemas', mientras que sólo el 9(2 casos) considera que en esa situación 'no pasa nada'. No obstante se ha registrado que un 36de la muestra (8 casos), afirma haber tomado alcohol en alguna oportunidad. Este porcentaje está compuesto por un 25de niños de entre 11 y 12 años y un 75comprendido entre los 8 y 10 años de edad. Resulta importante resaltar que todos los niños que afirman haber consumido alcohol alguna vez, son los mismos que opinan que la presencia de alcohol en una fiesta puede provocar problemas. Para concluir, se registra la existencia de consumo de alcohol en edades más tempranas que las estudiadas hasta el momento. Se observa una relación entre el consumo de alcohol y las situaciones del contexto familiar de los niños (padres separados, violencia familiar, pérdidas, problemas de alcohol o drogas en la familia). Asimismo, se observa una contradicción entre las actitudes, valores y creencias manifiestas de los niños y sus conductas efectivas de consumo. Interesa utilizar dichos resultados para la planificación de estrategias de prevención en salud mental en la niñez

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cualquier sistema está constituido por una serie de dispositivos interconectados de forma tal que sean capaces de realizar unas funciones concretas. Estos bloques funcionales pueden estar constituidos por una única componente o por complejos subsistemas, dependiendo del tipo de sistema y de las interconexiones en el mismo. El estado de las componentes y la estructura del sistema determinan si un sistema está funcionando o no. En definitiva, el cuantificar la fiabilidad de un sistema requiere, generalmente, considerar la estructura del sistema y la fiabilidad de sus componentes. La herramienta software EMSI está diseñada para realizar evaluación de la fiabilidad y el rendimiento de configuraciones en Sistemas Informáticos (SSII). En este trabajo analizamos la función de distribución empírica de los datos del tiempo hasta el fallo como variables aleatorias realizando los ajustes necesarios a un determinado modelo de probabilidad.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The aim of this work was to evaluate different management strategies to optimize rabbit production under chronic heat stress. To achieve it, three trials were conducted. In the first trial, to find the optimal cage density in tropical very dry forest condition, were measured growth performance, mortality rate, injured animals and carcass performance over an initial population of 300 cross-breed rabbits of New Zealand, California, Butterfly, Dutch and Satin, weaned at 30 days (535 ± 8 g, standard error). Treatments evaluated were: 6, 12, 18 and 24 rabbits/m2 (3, 6, 9 and 12 rabbits/cage, respectively, each cage of 0.5 m2). The maximal temperature-humidity index indicated a severe heat stress from weaning to 2.2 kg body weight (experimental time). At the end of experimental period 10, 20, 30 and 30 rabbits from the treatments of 6, 12, 18 and 24 rabbits/m2, respectively, were slaughtered and carcass performance recorded. Average daily gain and feed intake decreased by 0.31 ± 0.070 and 1.20 ± 0.25 g, respectively, per each unit that the density increased at the beginning of the experiment (P = 0.001). It increased the length of the fattening period by 0.91 ± 0.16 d (P = 0.001) per each unit of increment of density. However, rabbit production (kg/m2) increased linear and quadratically with the density (P < 0.008). Animals housed at the highest density compared to the lower one tended to show a higher incidence of ringworm (68.9 vs 39.4%; P = 0.075), injured animals (16.8 vs 3.03%; P = 0.12) and mortality (20.5 vs 9.63%; P = 0.043). The proportion of scapular fat (P = 0.042) increased linearly with increasing levels of density. Increasing density reduced linearly dorsal length (P = 0.001), and reduced linear and quadratically drip loss percentage (P = 0.097 and 0.018, respectively). In the second trial, 46 nulliparous rabbit does (23 clipped and 23 unclipped) with a BW of 3.67 ± 0.05 kg (s.e.) were used to evaluate heat stress and circadian rhythms comparing unclipped and clipped rabbit does, and to study if a more extensive breeding system increase litters performance at weaning without impairing rabbit doe performance,. Rectal temperature, feed and water 4 intake were recorded for 24 h. Rabbit does were mated 7 d after circadian measurements, and randomly assigned to two breeding systems. Control (C): mated at 14 d after parturition + litter weaned at 35 d of age. Extensive (E): mate at 21 after parturition + litter weaned at 42 d of age. The first three cycles were evaluated concerning to rabbit doe and litter performance. Two hundred twenty eight weaned rabbits, were divided into two cage sizes: 0.5 and 0.25 m2 with same density (16 rabbit/m2) and growing performance was recorded. Farm and rectal temperatures were minimal and feed and water intake maximal during the night (P < 0.001). Unclipped rabbit does showed higher rectal temperature (P = 0.045) and lower feed intake respect to clipped does (P = 0.019) which suggest a lower heat stress in the latter. Kits weaned per litter was reduced by 33% (P=0.038) in C group. This reduction was more important in the 2nd and 3rd cycles compared to the first (P ≤ 0.054). Rabbit doe feed efficiency tended to decrease in E respect C group (P = 0.093), whereas it was impaired from the first to the third cycle by 48% (P = 0.014). Growing rabbits from the E group were heavier at weaning (by 38%. P < 0.001), showed a higher feed intake (+7.4%) and lower feed efficiency (-8.4%) throughout the fattening period (P ≤ 0.056) respect to C group. Cage size had minor influence in growing performance. In the third trial, forty five non pregnant and non lactating rabbit does (21 nulliparous and 24 multiparous) were assigned randomly to farm water and to potable water to study if a water quality improvement can affect positively rabbit doe response to heat stress during pregnancy and lactation. A transponder was implanted in each animal to record subcutaneous temperature at 07:30 and 14:30 h. Experimental period extended from pregnancy (with no lactation) to the next lactation (until day 28). Body temperature and milk production were recorded daily, and body condition, feed and water intake weekly. Water quality did not affect any trait (P ≥ 0.15). Pregnant rabbit does were classified as does that weaned (W: 47%), not weaned (NW: 44%) or those pregnant that did not deliver (NB: 9%). Body temperature and feed intake decreased during pregnancy (P ≤ 0.031), but water intake remained constant. In this period body temperature decreased with metabolic weight (P ≤ 0.009). In W and NW does, 5 from mating to birth energy and protein balance impaired (P≤0.011). Body temperature of W does tended to be the lowest (P ≤ 0.090). Pregnancy length and total number of kits born tended to be longer and higher in NW than in W does (P = 0.10 and 0.053, respectively). Kit mortality at birth and from birth to 14 d of lactation was high, being worse for NW than for W does (97 vs. 40%; P<0.001). Body temperature during lactation was maximal at day 12, and milk production increased it (P ≤ 0.025). . In conclusion, in our heat stress conditions densities higher than 18 rabbits/m2 (34 kg/m2) at the end of fattening, are not recommended despite cage size, gestation and lactation productivity impaired not only when lactation is extended and along successive reproductive cycles but also due to a reduced embryo/kit survival and finally water quality improvement did not attenuate negative effect of heat stress. RESUMEN El propósito de éste trabajo fue evaluar diferentes estrategias de manejo para optimizar la producción de conejos bajo estrés térmico. Para lo cual se desarrollaron tres experimentos. En el primer experimento, para encontrar el número óptimo de gazapos por m2 de jaula durante el cebo en condiciones de bosque muy seco tropical, se estudiaron los rendimientos durante el cebo, mortalidad, animales lesionados y rendimiento de la canal sobre una población inicial de 300 conejos mestizos de Nueva Zelanda, California, Mariposa, Holandés y Satin, destetados a los 30 días de edad (535 ± 8g, error estándar). Los tratamientos evaluados fueron: 6, 12, 18 y 24 conejos/m2 (3, 6, 9 y 12 conejos/jaula, respectivamente, en jaulas de 0.5 m2). Durante el período experimental (destete a 2.2 kg de peso vivo), se observaron valores de THI correspondientes con un estrés térmico severo (THI max. De 31 a 35). Al final del período experimental, 10, 20, 30, y 30 conejos de los tratamientos con densidades de 6, 12, 18 y 24 conejos/m2, respectivamente, fueron sacrificados y su canal fue valorada. El promedio de la ganancia diaria y el consumo de alimento disminuyeron en 0.31 ± 0.070 y 1.20 ± 0.25 g, respectivamente, por cada unidad de incremento en la densidad al inicio del experimento (P=0.001). Esto alargó el período de engorde en 0.91 ± 0.16 d (P=0.001) por cada unidad de incremento de la densidad. Sin embargo, la producción de conejos (kg/m2) aumentó lineal y cuadráticamente con la densidad (P<0.008). Los animales alojados en las mayores densidades en comparación con el resto tendieron a mostrar una mayore incidencia de tiña (68.9 vs 39.4%; P=0.075), de cantidad de animales heridos (16.8 vs 3.03%; P=0.12), así como de mortalidad (20.5 vs 9.63%; P=0.043). El aumento en la densidad aumentó linealmente la proporción de grasa escapular (P=0.042) y redujo linealmente la longitud dorsal (P=0.001), y lineal y cuadráticamente el porcentaje de pérdida por goteo (P=0.018). En el segundo experimento, 46 conejas nulliparas (23 rasuradas y 23 no rasuradas) con un peso vivo de 3.67 ± 0.05 kg (e.e.) fueron usadas para evaluar el estrés 8 térmico y los ritmos circadianos comparando conejas rasuradas o no, y estudiar si un sistema de crianza más extensivo mejora el desempeño de la camada al destete sin perjudicar la productividad de la coneja. Durante 24 h se midió la temperatura rectal, consumo de alimento y de agua. Las conejas fueron montadas 7 días después, y distribuidas en dos sistemas de crianza. El control (C): monta a 14 días posparto y destete a 35 d de edad. El extensivo (E): monta a 21 días posparto y destete a 42 d de edad. Se controló la productividad de la coneja y la camada durante los tres primeros ciclos. Doscientos veintiocho gazapos fueron distribuidos en dos tamaños de jaulas (0.5 y 0.25 m2) con la misma densidad (16 conejos/m2) y se controlaron sus rendimientos productivos. Durante la noche se observaron los valores mínimos para la temperatura ambiental y rectal, y los máximos para consumo de alimento y agua (P< 0.001). Las conejas no rasuradas mostraron mayor temperatura rectal (P=0.045) y menores valores de consumo de alimento con respecto a las conejas rasuradas (P=0.019), lo que sugiere un menor estrés térmico en las últimas. El número de gazapos destetados por camada se redujo en 33% (P=0.038) en el grupo C. Este comportamiento se acentuó en el 2do y 3er ciclo en comparación con el primero (P≤0.054). La eficiencia alimenticia de las conejas tendió a disminuir en el grupo E con respecto al grupo C (P=0.093), dicha tendencia se acentúa del primer al tercer ciclo en un 48% (P=0.014). Los gazapos en fase de crecimiento provenientes del grupo E fueron más pesados al momento del destete (en 38% P<0.001), mostrando un mayor consumo de alimento (+7.4%) y menor eficiencia alimenticia (-8.4%) a lo largo del engorde (P≤0.056) con respecto al grupo C. El tamaño de la jaula tuvo una mínima influencia en el comportamiento durante el crecimiento de éstos gazapos. En el tercer experimento, cuarenta y cinco conejas no gestantes ni lactantes (21 nulíparas y 24 multíparas) se les asignó al azar agua dos tipos de agua: común de la granja y agua potable, con el fin de estudiar si una mejora en la calidad del agua puede afectar positivamente la respuesta de la coneja al estrés térmico durante la gestación y la lactancia. Se les implantó un transponder para registrar la temperatura subcutánea a las 7:30 y a las 14:30 h. El período experimental se extendió desde la gestación (sin 9 lactancia) hasta la lactanción consecutiva (hasta los 28 días). La temperatura corporal y la producción de leche se controlaron diariamente, y la condición corporal, consumo de agua y alimento, semanalmente. La calidad del agua no afectó a ninguna variable (P≥0.15). Las conejas preñadas fueron clasificadas como conejas que destetaron (W: 47%), que no destetaron (NW:44%) o aquellas que no parieron (NB: 9%). La temperatura corporal y consumo de alimento disminuyeron durante la gestación (P≤0.031), mientras que el consumo de agua se mantuvo constante. La temperatura corporal descendió con el peso metabólico durante la gestación (P≤0.009). El balance de energía y proteína disminuyó desde la monta al parto para las conejas W y NW (P≤0.011). Durante la gestación la temperatura corporal tendió a ser menor en las conejas W (P≤0.090). La longitud de la gestación y el número total de gazapos nacidos tendieron a ser mayores en conejas NW que en conejas W (P=0.10 y 0.053, respectivamente). La mortalidad de los gazapos al parto y del parto a los 14 días de lactancia fue alta, siendo peor para las conejas NW que para las W (97 vs 40%; P<0.001). Durante la lactancia la temperatura corporal alcanzó su valor máximo para el día 12, y la producción de leche indujo un incremento en la misma (P≤0.025). En conclusión, en nuestras condiciones de estrés térmico y sin importar el tamaño de la jaula, no se recomiendan densidades mayores a 18 conejos/m2 (34 kg/m2) al final del engorde. La productividad de la gestación y la lactancia disminuyen cuando la lactancia es mayor y se suceden varios ciclos reproductivos seguidos. Esto se debe al efecto negativo del estrés térmico sobre la vitalidad y supervivencia del embrión/gazapo. La mejora de la calidad del agua atenuó el efecto negativo del estrés térmico. Las conejas más productoras parece que son aquéllas que consiguen manejar mejor el estrés térmico.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nuestro cerebro contiene cerca de 1014 sinapsis neuronales. Esta enorme cantidad de conexiones proporciona un entorno ideal donde distintos grupos de neuronas se sincronizan transitoriamente para provocar la aparición de funciones cognitivas, como la percepción, el aprendizaje o el pensamiento. Comprender la organización de esta compleja red cerebral en base a datos neurofisiológicos, representa uno de los desafíos más importantes y emocionantes en el campo de la neurociencia. Se han propuesto recientemente varias medidas para evaluar cómo se comunican las diferentes partes del cerebro a diversas escalas (células individuales, columnas corticales, o áreas cerebrales). Podemos clasificarlos, según su simetría, en dos grupos: por una parte, la medidas simétricas, como la correlación, la coherencia o la sincronización de fase, que evalúan la conectividad funcional (FC); mientras que las medidas asimétricas, como la causalidad de Granger o transferencia de entropía, son capaces de detectar la dirección de la interacción, lo que denominamos conectividad efectiva (EC). En la neurociencia moderna ha aumentado el interés por el estudio de las redes funcionales cerebrales, en gran medida debido a la aparición de estos nuevos algoritmos que permiten analizar la interdependencia entre señales temporales, además de la emergente teoría de redes complejas y la introducción de técnicas novedosas, como la magnetoencefalografía (MEG), para registrar datos neurofisiológicos con gran resolución. Sin embargo, nos hallamos ante un campo novedoso que presenta aun varias cuestiones metodológicas sin resolver, algunas de las cuales trataran de abordarse en esta tesis. En primer lugar, el creciente número de aproximaciones para determinar la existencia de FC/EC entre dos o más señales temporales, junto con la complejidad matemática de las herramientas de análisis, hacen deseable organizarlas todas en un paquete software intuitivo y fácil de usar. Aquí presento HERMES (http://hermes.ctb.upm.es), una toolbox en MatlabR, diseñada precisamente con este fin. Creo que esta herramienta será de gran ayuda para todos aquellos investigadores que trabajen en el campo emergente del análisis de conectividad cerebral y supondrá un gran valor para la comunidad científica. La segunda cuestión practica que se aborda es el estudio de la sensibilidad a las fuentes cerebrales profundas a través de dos tipos de sensores MEG: gradiómetros planares y magnetómetros, esta aproximación además se combina con un enfoque metodológico, utilizando dos índices de sincronización de fase: phase locking value (PLV) y phase lag index (PLI), este ultimo menos sensible a efecto la conducción volumen. Por lo tanto, se compara su comportamiento al estudiar las redes cerebrales, obteniendo que magnetómetros y PLV presentan, respectivamente, redes más densamente conectadas que gradiómetros planares y PLI, por los valores artificiales que crea el problema de la conducción de volumen. Sin embargo, cuando se trata de caracterizar redes epilépticas, el PLV ofrece mejores resultados, debido a la gran dispersión de las redes obtenidas con PLI. El análisis de redes complejas ha proporcionado nuevos conceptos que mejoran caracterización de la interacción de sistemas dinámicos. Se considera que una red está compuesta por nodos, que simbolizan sistemas, cuyas interacciones se representan por enlaces, y su comportamiento y topología puede caracterizarse por un elevado número de medidas. Existe evidencia teórica y empírica de que muchas de ellas están fuertemente correlacionadas entre sí. Por lo tanto, se ha conseguido seleccionar un pequeño grupo que caracteriza eficazmente estas redes, y condensa la información redundante. Para el análisis de redes funcionales, la selección de un umbral adecuado para decidir si un determinado valor de conectividad de la matriz de FC es significativo y debe ser incluido para un análisis posterior, se convierte en un paso crucial. En esta tesis, se han obtenido resultados más precisos al utilizar un test de subrogadas, basado en los datos, para evaluar individualmente cada uno de los enlaces, que al establecer a priori un umbral fijo para la densidad de conexiones. Finalmente, todas estas cuestiones se han aplicado al estudio de la epilepsia, caso práctico en el que se analizan las redes funcionales MEG, en estado de reposo, de dos grupos de pacientes epilépticos (generalizada idiopática y focal frontal) en comparación con sujetos control sanos. La epilepsia es uno de los trastornos neurológicos más comunes, con más de 55 millones de afectados en el mundo. Esta enfermedad se caracteriza por la predisposición a generar ataques epilépticos de actividad neuronal anormal y excesiva o bien síncrona, y por tanto, es el escenario perfecto para este tipo de análisis al tiempo que presenta un gran interés tanto desde el punto de vista clínico como de investigación. Los resultados manifiestan alteraciones especificas en la conectividad y un cambio en la topología de las redes en cerebros epilépticos, desplazando la importancia del ‘foco’ a la ‘red’, enfoque que va adquiriendo relevancia en las investigaciones recientes sobre epilepsia. ABSTRACT There are about 1014 neuronal synapses in the human brain. This huge number of connections provides the substrate for neuronal ensembles to become transiently synchronized, producing the emergence of cognitive functions such as perception, learning or thinking. Understanding the complex brain network organization on the basis of neuroimaging data represents one of the most important and exciting challenges for systems neuroscience. Several measures have been recently proposed to evaluate at various scales (single cells, cortical columns, or brain areas) how the different parts of the brain communicate. We can classify them, according to their symmetry, into two groups: symmetric measures, such as correlation, coherence or phase synchronization indexes, evaluate functional connectivity (FC); and on the other hand, the asymmetric ones, such as Granger causality or transfer entropy, are able to detect effective connectivity (EC) revealing the direction of the interaction. In modern neurosciences, the interest in functional brain networks has increased strongly with the onset of new algorithms to study interdependence between time series, the advent of modern complex network theory and the introduction of powerful techniques to record neurophysiological data, such as magnetoencephalography (MEG). However, when analyzing neurophysiological data with this approach several questions arise. In this thesis, I intend to tackle some of the practical open problems in the field. First of all, the increase in the number of time series analysis algorithms to study brain FC/EC, along with their mathematical complexity, creates the necessity of arranging them into a single, unified toolbox that allow neuroscientists, neurophysiologists and researchers from related fields to easily access and make use of them. I developed such a toolbox for this aim, it is named HERMES (http://hermes.ctb.upm.es), and encompasses several of the most common indexes for the assessment of FC and EC running for MatlabR environment. I believe that this toolbox will be very helpful to all the researchers working in the emerging field of brain connectivity analysis and will entail a great value for the scientific community. The second important practical issue tackled in this thesis is the evaluation of the sensitivity to deep brain sources of two different MEG sensors: planar gradiometers and magnetometers, in combination with the related methodological approach, using two phase synchronization indexes: phase locking value (PLV) y phase lag index (PLI), the latter one being less sensitive to volume conduction effect. Thus, I compared their performance when studying brain networks, obtaining that magnetometer sensors and PLV presented higher artificial values as compared with planar gradiometers and PLI respectively. However, when it came to characterize epileptic networks it was the PLV which gives better results, as PLI FC networks where very sparse. Complex network analysis has provided new concepts which improved characterization of interacting dynamical systems. With this background, networks could be considered composed of nodes, symbolizing systems, whose interactions with each other are represented by edges. A growing number of network measures is been applied in network analysis. However, there is theoretical and empirical evidence that many of these indexes are strongly correlated with each other. Therefore, in this thesis I reduced them to a small set, which could more efficiently characterize networks. Within this framework, selecting an appropriate threshold to decide whether a certain connectivity value of the FC matrix is significant and should be included in the network analysis becomes a crucial step, in this thesis, I used the surrogate data tests to make an individual data-driven evaluation of each of the edges significance and confirmed more accurate results than when just setting to a fixed value the density of connections. All these methodologies were applied to the study of epilepsy, analysing resting state MEG functional networks, in two groups of epileptic patients (generalized and focal epilepsy) that were compared to matching control subjects. Epilepsy is one of the most common neurological disorders, with more than 55 million people affected worldwide, characterized by its predisposition to generate epileptic seizures of abnormal excessive or synchronous neuronal activity, and thus, this scenario and analysis, present a great interest from both the clinical and the research perspective. Results revealed specific disruptions in connectivity and network topology and evidenced that networks’ topology is changed in epileptic brains, supporting the shift from ‘focus’ to ‘networks’ which is gaining importance in modern epilepsy research.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este trabajo se ha evaluado la influencia del valor del tiempo de recombinación de portadores en el comportamiento de un dispositivo biestable. Queda patente el compromiso existente entre la velocidad de respuesta alcanzable y la cantidad de potencia necesitada para el funcionamiento de estos dispositivos. Una elección adecuada de este parámetro determinará si un dispositivo podrá ser utilizado en aplicaciones de alta velocidad, o bien en aplicaciones que requieran poca potencia y alto grado de procesamiento en paralelo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Durante décadas y aun en la actualidad muchas organizaciones, a nivel mundial, continúan afrontando pérdidas significativas debido a fracasos parciales y totales respecto a sus inversiones en sistemas de información (SI), planteando serios retos a los niveles gerenciales y los profesionales de SI. Estadísticas alarmantes y décadas de experiencia en la praxis en el área de SI en diversas organizaciones llevan al autor a poner el énfasis en los usuarios finales internos (UF) que son designados como representantes (UFR) de sus pares en los proyectos de desarrollo de SI (PDSI) por considerarlos como factores influyentes de manera significativa en el problema. Particularmente, con enfoque en ciertos factores de los UFR críticos para el éxito de los PDSI, con dimensiones analizadas de forma aislada o incompleta en otros estudios empíricos, a la fecha. No se encontraron estudios en Latinoamérica ni en otras latitudes que abordasen el fenómeno del éxito/fracaso de los SI desde el punto de vista adoptado en esta tesis. Por ello, esta investigación empírica ha evaluado en qué grado estos factores pudiesen influenciar los resultados durante el desarrollo e implementación de SI y su posible impacto en la satisfacción de los UF, siendo esta última aceptada por variados autores como la principal medida del éxito de los SI. Este estudio fue realizado en América Latina en las cuatro grandes empresas industriales que integran verticalmente el sector aluminio de Venezuela, sometidas a un macro PDSI para instalar el paquete, de tipo ERP, SAP/R3. Experimentados profesionales fueron encuestados o entrevistados, tales como altos ejecutivos, desarrolladores, líderes de proyecto y líderes de los UF. Un enfoque metodológico de triangulación permitió combinar un análisis cuantitativo con un análisis cualitativo interpretativo del tipo hermenéutico/dialéctico, hallándose resultados convergentes y complementarios. Un análisis estadístico, utilizando Partial Least Squares (PLS), seguido de un análisis hermenéutico/dialéctico. Los resultados confirmaron un hecho importante: en los casos problemáticos, paradójicamente, los orígenes de las razones de rechazo de esos SI argumentadas por los UF, en alto grado, apuntaron a los UFR o a ellos mismos. Los resultados también confirmaron la prevalencia de factores de orden cognitivo, conductual y político en estas organizaciones sobre los tecnológicos, al igual que el alto riesgo de dar por sentado la presencia y calidad de los factores requeridos de los UFR y de los otros factores estudiados. La validación estadística del modelo propuesto reveló al constructo conocimientos de los UFR como la principal variable latente, con los variables indicadoras que componen este constructo ejerciendo la mayor influencia sobre la calidad y el éxito de los SI. Un hallazgo contrario al de otros estudios, mostró que los conocimientos sobre las tecnologías de la información (TI) fueron los menos relevantes. Los SI de nómina y de administración de los RRHH fueron los más problemáticos, como suele ser el caso, por su complejidad en organizaciones grandes. Las conclusiones principales confirman el decisivo rol de los UF para el éxito de los PDSI y su relación con la creciente problemática planteada, la cual amerita más investigación y de las organizaciones una mayor atención y preparación. Descuidar los factores humanos y sociales así como una efectiva planificación y gestión de los mismos en preparación para estos proyectos origina serios riesgos. No obstante las limitaciones de este trabajo, la problemática analizada suele influir en los PDSI en diversas organizaciones, indistintamente de su tamaño o tipo de SI, estimándose, por tanto, que los resultados, conclusiones y recomendaciones de esta investigación tienen un alto grado de generalización. Una relación de indicadores claves es suministrada con fines preventivos. Finalmente, los factores evaluados pueden usarse para ampliar el modelo reconocido de DeLone y McLean (2003), conectándolos como variables latentes de sus variables independientes calidad de la información y calidad del SI. ABSTRACT For decades, many organizations worldwide have been enduring heavy losses due to partial and total failures regarding their investments in information systems (IS), posing serious challenges to all management levels and IS practitioners. Alarming statistics in this regard and decades of practice in the IS area lead the author to place an emphasis on the end users (EU) who are appointed in representation of their peers (EUR) to IS development projects (ISDP), considering them as highly influential factors on the problem. Especially, focusing on certain EUR success factors, and their dimensions, deemed critical to any IS development and implementation, omitted or not thoroughly analyzed neither in the theory nor in the empirical research on the subject, so far. No studies were found in Latin America or elsewhere addressing the phenomenon of IS success/failure from the perspective presented herein. Hence, this empirical research has assessed to what degree such factors can influence the outcomes of an ISDP and their feasible impact on the EU´s satisfaction, being the latter accepted by several authors as the main measure of IS success. This study was performed in Latin America embracing four major industrial enterprises, which vertically integrate the aluminum sector of Venezuela, subjected to a macro ISDP to install the ERP-type package SAP/R3. The field work included surveying and interviewing experienced professionals such as IS executives, IS developers, IS project leaders and end-user project leaders. A triangulation methodological approach allowed combining quantitative and interpretive analyses, obtaining convergent and complementing results. A statistical analysis, using Partial Least Squares (PLS), was carried out followed by a hermeneutical/dialectical analysis. Results confirmed a major finding: in problematic cases, paradoxically, the origins of IS rejection reasons argued by the EU, at a high degree, were usually traceable to the EUR and themselves. The results also confirmed the prevalence of cognitive, behavioral and political factors in these organizations as well as the high risk of taking for granted the presence and quality of those factors demanded from the EUR. The statistical validation of the proposed model revealed the construct EUR knowledge as the main latent variable, with its items exerting a major influence on IS quality and success. Another finding, in contradiction with that of other studies, proved knowledge of information technology (IT) aspects to be irrelevant. The payroll and the human resources administration IS were the most problematic, as is usually the case in large companies. The main conclusions confirm the EU´s decisive role for IS success and their relationship with the problem, which continues, demanding more research and, from organizations, more attention and preparation. Neglecting human and social factors in organizations as well as their effective planning and management in preparation for ISDP poses serious risks. Despite the limitations of this work, the analyzed problem tends to influence ISDP in a wide range of organizations; regardless of their size or type of IS, thus showing a high degree of generalization. Therefore it is believed that the results, conclusions and suggestions of this research have a high degree of generalization. A detailed checklist comprising key measures is provided for preventive actions. Finally, the factors evaluated can be used to expand the well-known model of DeLone & McLean (2003), by connecting them as latent variables of its independent variables information quality and IS quality.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La presente Tesis plantea una metodología de análisis estadístico de roturas de tubería en redes de distribución de agua, que analiza la relación entre las roturas y la presión de agua y que propone la implantación de una gestión de presiones que reduzca el número de roturas que se producen en dichas redes. Las redes de distribución de agua se deterioran y una de sus graves consecuencias es la aparición de roturas frecuentes en sus tuberías. Las roturas llevan asociados elevados costes sociales, económicos y medioambientales y es por ello por lo que las compañías gestoras del agua tratan de reducirlas en la medida de lo posible. Las redes de distribución de agua se pueden dividir en zonas o sectores que facilitan su control y que pueden ser independientes o aislarse mediante válvulas, como ocurre en las redes de países más desarrollados, o pueden estar intercomunicados hidráulicamente. La implantación de una gestión de presiones suele llevarse a cabo a través de las válvulas reductoras de presión (VPR), que se instalan en las cabeceras de estos sectores y que controlan la presión aguas abajo de la misma, aunque varíe su caudal de entrada. Los métodos más conocidos de la gestión de presiones son la reducción de presiones, que es el control más habitual, el mantenimiento de la presión, la prevención y/o alivio de los aumentos repentinos de presión y el establecimiento de un control por alturas. A partir del año 2005 se empezó a reconocer el efecto de la gestión de presiones sobre la disminución de las roturas. En esta Tesis, se sugiere una gestión de presiones que controle los rangos de los indicadores de la presión de cabecera que más influyan en la probabilidad de roturas de tubería. Así, la presión del agua se caracteriza a través de indicadores obtenidos de la presión registrada en la cabecera de los sectores, debido a que se asume que esta presión es representativa de la presión de operación de todas las tuberías porque las pérdidas de carga son relativamente bajas y las diferencias topográficas se tienen en cuenta en el diseño de los sectores. Y los indicadores de presión, que se pueden definir como el estadístico calculado a partir de las series de la presión de cabecera sobre una ventana de tiempo, pueden proveer la información necesaria para ayudar a la toma de decisiones a los gestores del agua con el fin de reducir las roturas de tubería en las redes de distribución de agua. La primera parte de la metodología que se propone en esta Tesis trata de encontrar los indicadores de presión que influyen más en la probabilidad de roturas de tuberías. Para conocer si un indicador es influyente en la probabilidad de las roturas se comparan las estimaciones de las funciones de distribución acumulada (FDAs) de los indicadores de presiones, considerando dos situaciones: cuando se condicionan a la ocurrencia de una rotura (suceso raro) y cuando se calculan en la situación normal de operación (normal operación). Por lo general, las compañías gestoras cuentan con registros de roturas de los años más recientes y al encontrarse las tuberías enterradas se complica el acceso a la información. Por ello, se propone el uso de funciones de probabilidad que permiten reducir la incertidumbre asociada a los datos registrados. De esta forma, se determinan las funciones de distribución acumuladas (FDAs) de los valores del indicador de la serie de presión (situación normal de operación) y las FDAs de los valores del indicador en el momento de ocurrencia de las roturas (condicionado a las roturas). Si las funciones de distribución provienen de la misma población, no se puede deducir que el indicador claramente influya en la probabilidad de roturas. Sin embargo, si se prueba estadísticamente que las funciones proceden de la misma población, se puede concluir que existe una relación entre el indicador analizado y la ocurrencia de las roturas. Debido a que el número de valores del indicador de la FDA condicionada a las roturas es mucho menor que el número de valores del indicador de la FDA incondicional a las roturas, se generan series aleatorias a partir de los valores de los indicadores con el mismo número de valores que roturas registradas hay. De esta forma, se comparan las FDAs de series aleatorias del indicador con la FDA condicionada a las roturas del mismo indicador y se deduce si el indicador es influyente en la probabilidad de las roturas. Los indicadores de presión pueden depender de unos parámetros. A través de un análisis de sensibilidad y aplicando un test estadístico robusto se determina la situación en la que estos parámetros dan lugar a que el indicador sea más influyente en la probabilidad de las roturas. Al mismo tiempo, los indicadores se pueden calcular en función de dos parámetros de cálculo que se denominan el tiempo de anticipación y el ancho de ventana. El tiempo de anticipación es el tiempo (en horas) entre el final del periodo de computación del indicador de presión y la rotura, y el ancho de ventana es el número de valores de presión que se requieren para calcular el indicador de presión y que es múltiplo de 24 horas debido al comportamiento cíclico diario de la presión. Un análisis de sensibilidad de los parámetros de cálculo explica cuándo los indicadores de presión influyen más en la probabilidad de roturas. En la segunda parte de la metodología se presenta un modelo de diagnóstico bayesiano. Este tipo de modelo forma parte de los modelos estadísticos de prevención de roturas, parten de los datos registrados para establecer patrones de fallo y utilizan el teorema de Bayes para determinar la probabilidad de fallo cuando se condiciona la red a unas determinadas características. Así, a través del teorema de Bayes se comparan la FDA genérica del indicador con la FDA condicionada a las roturas y se determina cuándo la probabilidad de roturas aumenta para ciertos rangos del indicador que se ha inferido como influyente en las roturas. Se determina un ratio de probabilidad (RP) que cuando es superior a la unidad permite distinguir cuándo la probabilidad de roturas incrementa para determinados intervalos del indicador. La primera parte de la metodología se aplica a la red de distribución de la Comunidad de Madrid (España) y a la red de distribución de Ciudad de Panamá (Panamá). Tras el filtrado de datos se deduce que se puede aplicar la metodología en 15 sectores en la Comunidad de Madrid y en dos sectores, llamados corregimientos, en Ciudad de Panamá. Los resultados demuestran que en las dos redes los indicadores más influyentes en la probabilidad de las roturas son el rango de la presión, que supone la diferencia entre la presión máxima y la presión mínima, y la variabilidad de la presión, que considera la propiedad estadística de la desviación típica. Se trata, por tanto, de indicadores que hacen referencia a la dispersión de los datos, a la persistencia de la variación de la presión y que se puede asimilar en resistencia de materiales a la fatiga. La segunda parte de la metodología se ha aplicado a los indicadores influyentes en la probabilidad de las roturas de la Comunidad de Madrid y se ha deducido que la probabilidad de roturas aumenta para valores extremos del indicador del rango de la presión y del indicador de la variabilidad de la presión. Finalmente, se recomienda una gestión de presiones que limite los intervalos de los indicadores influyentes en la probabilidad de roturas que incrementen dicha probabilidad. La metodología propuesta puede aplicarse a otras redes de distribución y puede ayudar a las compañías gestoras a reducir el número de fallos en el sistema a través de la gestión de presiones. This Thesis presents a methodology for the statistical analysis of pipe breaks in water distribution networks. The methodology studies the relationship between pipe breaks and water pressure, and proposes a pressure management procedure to reduce the number of breaks that occur in such networks. One of the manifestations of the deterioration of water supply systems is frequent pipe breaks. System failures are one of the major challenges faced by water utilities, due to their associated social, economic and environmental costs. For all these reasons, water utilities aim at reducing the problem of break occurrence to as great an extent as possible. Water distribution networks can be divided into areas or sectors, which facilitates the control of the network. These areas may be independent or isolated by valves, as it usually happens in developing countries. Alternatively, they can be hydraulically interconnected. The implementation of pressure management strategies is usually carried out through pressure-reducing valves (PRV). These valves are installed at the head of the sectors and, although the inflow may vary significantly, they control the downstream pressure. The most popular methods of pressure management consist of pressure reduction, which is the common form of control, pressure sustaining, prevention and/or alleviation of pressure surges or large variations in pressure, and level/altitude control. From 2005 onwards, the effects of pressure management on burst frequencies have become more widely recognized in the technical literature. This thesis suggests a pressure management that controls the pressure indicator ranges most influential on the probability of pipe breaks. Operating pressure in a sector is characterized by means of a pressure indicator at the head of the DMA, as head losses are relatively small and topographical differences were accounted for at the design stage. The pressure indicator, which may be defined as the calculated statistic from the time series of pressure head over a specific time window, may provide necessary information to help water utilities to make decisions to reduce pipe breaks in water distribution networks. The first part of the methodology presented in this Thesis provides the pressure indicators which have the greatest impact on the probability of pipe breaks to be determined. In order to know whether a pressure indicator influences the probability of pipe breaks, the proposed methodology compares estimates of cumulative distribution functions (CDFs) of a pressure indicator through consideration of two situations: when they are conditioned to the occurrence of a pipe break (a rare event), and when they are not (a normal operation). Water utilities usually have a history of failures limited to recent periods of time, and it is difficult to have access to precise information in an underground network. Therefore, the use of distribution functions to address such imprecision of recorded data is proposed. Cumulative distribution functions (CDFs) derived from the time series of pressure indicators (normal operation) and CDFs of indicator values at times coincident with a reported pipe break (conditioned to breaks) are compared. If all estimated CDFs are drawn from the same population, there is no reason to infer that the studied indicator clearly influences the probability of the rare event. However, when it is statistically proven that the estimated CDFs do not come from the same population, the analysed indicator may have an influence on the occurrence of pipe breaks. Due to the fact that the number of indicator values used to estimate the CDF conditioned to breaks is much lower in comparison with the number of indicator values to estimate the CDF of the unconditional pressure series, and that the obtained results depend on the size of the compared samples, CDFs from random sets of the same size sampled from the unconditional indicator values are estimated. Therefore, the comparison between the estimated CDFs of random sets of the indicator and the estimated CDF conditioned to breaks allows knowledge of if the indicator is influential on the probability of pipe breaks. Pressure indicators depend on various parameters. Sensitivity analysis and a robust statistical test allow determining the indicator for which these parameters result most influential on the probability of pipe breaks. At the same time, indicators can be calculated according to two model parameters, named as the anticipation time and the window width. The anticipation time refers to the time (hours) between the end of the period for the computation of the pressure indicator and the break. The window width is the number of instantaneous pressure values required to calculate the pressure indicator and is multiple of 24 hours, as water pressure has a cyclical behaviour which lasts one day. A sensitivity analysis of the model parameters explains when the pressure indicator is more influential on the probability of pipe breaks. The second part of the methodology presents a Bayesian diagnostic model. This kind of model belongs to the class of statistical predictive models, which are based on historical data, represent break behavior and patterns in water mains, and use the Bayes’ theorem to condition the probability of failure to specific system characteristics. The Bayes’ theorem allows comparing the break-conditioned FDA and the unconditional FDA of the indicators and determining when the probability of pipe breaks increases for certain pressure indicator ranges. A defined probability ratio provides a measure to establish whether the probability of breaks increases for certain ranges of the pressure indicator. The first part of the methodology is applied to the water distribution network of Madrid (Spain) and to the water distribution network of Panama City (Panama). The data filtering method suggests that the methodology can be applied to 15 sectors in Madrid and to two areas in Panama City. The results show that, in both systems, the most influential indicators on the probability of pipe breaks are the pressure range, which is the difference between the maximum pressure and the minimum pressure, and pressure variability, referred to the statistical property of the standard deviation. Therefore, they represent the dispersion of the data, the persistence of the variation in pressure and may be related to the fatigue in material resistance. The second part of the methodology has been applied to the influential indicators on the probability of pipe breaks in the water distribution network of Madrid. The main conclusion is that the probability of pipe breaks increases for the extreme values of the pressure range indicator and of the pressure variability indicator. Finally, a pressure management which limits the ranges of the pressure indicators influential on the probability of pipe breaks that increase such probability is recommended. The methodology presented here is general, may be applied to other water distribution networks, and could help water utilities reduce the number of system failures through pressure management.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Vivimos en una sociedad en la que la información ha adquirido una vital importancia. El uso de Internet y el desarrollo de nuevos sistemas de la información han generado un ferviente interés tanto de empresas como de instituciones en la búsqueda de nuevos patrones que les proporcione la clave del éxito. La Analítica de Negocio reúne un conjunto de herramientas, estrategias y técnicas orientadas a la explotación de la información con el objetivo de crear conocimiento útil dentro de un marco de trabajo y facilitar la optimización de los recursos tanto de empresas como de instituciones. El presente proyecto se enmarca en lo que se conoce como Gestión Educativa. Se aplicará una arquitectura y modelo de trabajo similar a lo que se ha venido haciendo en los últimos años en el entorno empresarial con la Inteligencia de Negocio. Con esta variante, se pretende mejorar la calidad de la enseñanza, agilizar las decisiones dentro de la institución académica, fortalecer las capacidades del cuerpo docente y en definitiva favorecer el aprendizaje del alumnado. Para lograr el objetivo se ha decidido seguir las etapas del Knowledge Discovery in Databases (KDD), una de las metodologías más conocidas dentro de la Inteligencia de Negocio, que describe el procedimiento que va desde la selección de la información y su carga en sistemas de almacenamiento, hasta la aplicación de técnicas de minería de datos para la obtención nuevo conocimiento. Los estudios se realizan a partir de la información de la activad de los usuarios dentro la plataforma de Tele-Enseñanza de la Universidad Politécnica de Madrid (Moodle). Se desarrollan trabajos de extracción y preprocesado de la base de datos en crudo y se aplican técnicas de minería de datos. En la aplicación de técnicas de minería de datos, uno de los factores más importantes a tener en cuenta es el tipo de información que se va a tratar. Por este motivo, se trabaja con la Minería de Datos Educativa, en inglés, Educational Data Mining (EDM) que consiste en la aplicación de técnicas de minería optimizadas para la información que se genera en entornos educativos. Dentro de las posibilidades que ofrece el EDM, se ha decidido centrar los estudios en lo que se conoce como analítica predictiva. El objetivo fundamental es conocer la influencia que tienen las interacciones alumno-plataforma en las calificaciones finales y descubrir nuevas reglas que describan comportamientos que faciliten al profesorado discriminar si un estudiante va a aprobar o suspender la asignatura, de tal forma que se puedan tomar medidas que mejoren su rendimiento. Toda la información tratada en el presente proyecto ha sido previamente anonimizada para evitar cualquier tipo de intromisión que atente contra la privacidad de los elementos participantes en el estudio. ABSTRACT. We live in a society dominated by data. The use of the Internet accompanied by developments in information systems has generated a sustained interest among companies and institutions to discover new patterns to succeed in their business ventures. Business Analytics (BA) combines tools, strategies and techniques focused on exploiting the available information, to optimize resources and create useful insight. The current project is framed under Educational Management. A Business Intelligence (BI) architecture and business models taught up to date will be applied with the aim to accelerate the decision-making in academic institutions, strengthen teacher´s skills and ultimately improve the quality of teaching and learning. The best way to achieve this is to follow the Knowledge Discovery in Databases (KDD), one of the best-known methodologies in B.I. This process describes data preparation, selection, and cleansing through to the application of purely Data Mining Techniques in order to incorporate prior knowledge on data sets and interpret accurate solutions from the observed results. The studies will be performed using the information extracted from the Universidad Politécnica de Madrid Learning Management System (LMS), Moodle. The stored data is based on the user-platform interaction. The raw data will be extracted and pre-processed and afterwards, Data Mining Techniques will be applied. One of the crucial factors in the application of Data Mining Techniques is the kind of information that will be processed. For this reason, a new Data Mining perspective will be taken, called Educational Data Mining (EDM). EDM consists of the application of Data Mining Techniques but optimized for the raw data generated by the educational environment. Within EDM, we have decided to drive our research on what is called Predictive Analysis. The main purpose is to understand the influence of the user-platform interactions in the final grades of students and discover new patterns that explain their behaviours. This could allow teachers to intervene ahead of a student passing or failing, in such a way an action could be taken to improve the student performance. All the information processed has been previously anonymized to avoid the invasion of privacy.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En los últimos años han surgido nuevos campos de las tecnologías de la información que exploran el tratamiento de la gran cantidad de datos digitales existentes y cómo transformarlos en conocimiento explícito. Las técnicas de Procesamiento del Lenguaje Natural (NLP) son capaces de extraer información de los textos digitales presentados en forma narrativa. Además, las técnicas de machine learning clasifican instancias o ejemplos en función de sus atributos, en distintas categorías, aprendiendo de otros previamente clasificados. Los textos clínicos son una gran fuente de información no estructurada; en consecuencia, información no explotada en su totalidad. Algunos términos usados en textos clínicos se encuentran en una situación de afirmación, negación, hipótesis o histórica. La detección de esta situación es necesaria para la estructuración de información, pero a su vez tiene una gran complejidad. Extrayendo características lingüísticas de los elementos, o tokens, de los textos mediante NLP; transformando estos tokens en instancias y las características en atributos, podemos mediante técnicas de machine learning clasificarlos con el objetivo de detectar si se encuentran afirmados, negados, hipotéticos o históricos. La selección de los atributos que cada token debe tener para su clasificación, así como la selección del algoritmo de machine learning utilizado son elementos cruciales para la clasificación. Son, de hecho, los elementos que componen el modelo de clasificación. Consecuentemente, este trabajo aborda el proceso de extracción de características, selección de atributos y selección del algoritmo de machine learning para la detección de la negación en textos clínicos en español. Se expone un modelo para la clasificación que, mediante el algoritmo J48 y 35 atributos obtenidos de características lingüísticas (morfológicas y sintácticas) y disparadores de negación, detecta si un token está negado en 465 frases provenientes de textos clínicos con un F-Score del 73%, una exhaustividad del 66% y una precisión del 81% con una validación cruzada de 10 iteraciones. ---ABSTRACT--- New information technologies have emerged in the recent years which explore the processing of the huge amount of existing digital data and its transformation into knowledge. Natural Language Processing (NLP) techniques are able to extract certain features from digital texts. Additionally, through machine learning techniques it is feasible to classify instances according to different categories, learning from others previously classified. Clinical texts contain great amount of unstructured data, therefore information not fully exploited. Some terms (tokens) in clinical texts appear in different situations such as affirmed, negated, hypothetic or historic. Detecting this situation is necessary for the structuring of this data, however not simple. It is possible to detect whether if a token is negated, affirmed, hypothetic or historic by extracting its linguistic features by NLP; transforming these tokens into instances, the features into attributes, and classifying these instances through machine learning techniques. Selecting the attributes each instance must have, and choosing the machine learning algorithm are crucial issues for the classification. In fact, these elements set the classification model. Consequently, this work approaches the features retrieval as well as the attributes and algorithm selection process used by machine learning techniques for the detection of negation in clinical texts in Spanish. We present a classification model which, through J48 algorithm and 35 attributes from linguistic features (morphologic and syntactic) and negation triggers, detects whether if a token is negated in 465 sentences from historical records, with a result of 73% FScore, 66% recall and 81% precision using a 10-fold cross-validation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La migración es una respuesta a cambios estacionales del clima generando desplazamientos periódicos entre hábitats de cría y de invernada, permitiendo así el uso temporal de los recursos disponibles. La migración implica unos costes energéticos muy elevados, un aumento de la depredación potencial, variaciones ambientales y una disponibilidad de alimento impredecible a lo largo de la ruta migratoria; por lo que es una de las actividades más desafiantes de su ciclo vital. A pesar de ello, los beneficios de la migración compensan sus costes. La migración está programada genéticamente, siendo relativamente constante en su momento, distancia y dirección. Por otro lado, ambiente juega un papel predominante en algunas poblaciones, pudiendo modificar el comportamiento migratorio de una estrategia parcial o facultativa a un modo de vida sedentario. Con el fin de describir el origen y evolución del comportamiento migratorio en aves, se ha propuesto un “modelo de umbral” genético para determinar si un ave es migrante o sedentaria. Dentro de una variable continua (p.ej. la concentración de proteínas u hormonas), este modelo asume que existe una actividad migratoria subyacente implicada en su expresión génica. Este umbral divide cada variable en categorías dicotómicas que definen el fenotipo de un individuo. Los ejemplares sin actividad migratoria muestran valores por debajo de este umbral, siendo clasificados como sedentarios, mientras que los ejemplares migrantes muestran valores por encima del umbral definido. Los cambios de estrategia vital no dependen únicamente de la posición del umbral determinado genéticamente sino también de las variables ambientales, por lo que dichas variaciones deben ser añadidas al modelo. Este modelo de umbral ambiental predice que el carácter migratorio de los individuos situados en los extremos de distribución no se encuentra afectado por los factores ambientales, mientras que aquellos más próximos al umbral pueden más fácilmente cambiar su estrategia migratoria...

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cellard (1979 : 19) avançait de façon quelque peu impressionniste que ‘le passé simple se rencontrait beaucoup plus souvent dans les comptes rendus de rencontres sportives de notre journal que dans toute autre catégorie de textes’. Même si un tel passé perfectif serait le vecteur idéal du rapport d’un exploit sportif au déroulement chronologique, la réalité des textes nous offre un panorama nettement diversifié. Une compétition acharnée se joue avec d’autres tiroirs verbaux (passé composé, imparfait, présent) qui, chacun, offre une présentation différente des procès. Après une brève présentation théorique de chaque tiroir, nous entamerons une étude de corpus basée sur des textes de presse francophone. Nous conclurons que le panorama temporel du compte rendu sportif contemporain pourrait résulter de contraintes extra-linguistiques comme le type de publication et l’évolution des médias.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Hoy en día vivimos en una sociedad en la que las tecnologías son accesibles para gran parte de la población y las cuales tienen como finalidad, entre otras cosas, facilitar la vida de las personas en la medida de lo posible. Este proyecto busca hacer uso de esas tecnologías para facilitar la accesibilidad a textos para cualquiera que pueda tener dificultades con ellos, en mayor o menor medida. La finalidad de nuestro proyecto no es crear la aplicación para el uso directo de las personas sino desarrollar los servicios, y el acceso a los mismos, que faciliten la implementación de estas aplicaciones. Aún así en este proyecto se crea una aplicación de ejemplo para Android, en la cual se hace uso de los servicios como muestra de un posible uso de los mismos. Para facilitar el acceso a estos servicios y la comprensión de los mismos, en este proyecto se crea también una API web en la cual quedan todos ellos explicados, como acceder a ellos, su descripción, ejemplos de llamadas y de resultados de las llamadas, en definitiva, todo lo que pueda ayudar a un desarrollador interesado en ellos a utilizarlos sin mayor problema. Las aplicaciones posibles de estos servicios son de lo mas extensas. Así, por ejemplo, en un dispositivo móvil, si un usuario está leyendo un libro y no entiende una palabra o le resulta bastante complicada, tan solo tendría que sacar el móvil, introducir la palabra en una aplicación que llamara a uno de nuestros servicios y obtener el resultado requerido de esa palabra, de forma rápida y cómoda. El proyecto queda dividido en tres partes: el desarrollo de los servicios de accesibilidad, la web de la API explicando cada uno de estos servicios y una aplicación Android de ejemplo de utilización.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les ribozymes sont des ARN catalytiques fréquemment exploités pour le développement d’outils biochimiques et d’agents thérapeutiques. Ils sont particulièrement intéressants pour effectuer l’inactivation de gènes, en permettant la dégradation d’ARNm ou d’ARN viraux associés à des maladies. Les ribozymes les plus utilisés en ce moment pour le développement d’agents thérapeutiques sont les ribozymes hammerhead et hairpin, qui permettent la reconnaissance spécifique d’ARN simple brin par la formation de structures secondaires stables. In vivo, la majorité des ARN adoptent des structures secondaires et tertiaires complexes et les régions simples brins sont parfois difficiles d’accès. Il serait intéressant de pouvoir cibler des ARN repliés et un motif d’ARN intéressant à cibler est la tige-boucle d’ARN qui peut être importante dans le repliement global des ARN et pour accomplir des fonctions biologiques. Le ribozyme VS de Neurospora fait la reconnaissance de son substrat replié en tigeboucle de façon spécifique par une interaction kissing-loop, mais il n’a jamais été exploité pour faire la reconnaissance d’un ARN cible très différent de son substrat naturel. Le but des travaux présentés dans cette thèse est de déterminer si le ribozyme VS possède l’adaptabilité nécessaire pour l’ingénierie de ribozymes qui clivent des ARN cibles différents du substrat naturel. Dans le cadre de cette thèse, le ribozyme VS a été modifié pour l’adapter à différents substrats et des études de cinétiques ont été réalisées pour évaluer l’impact de ces modifications sur l’activité de clivage du ribozyme. Dans un premier temps, le ribozyme a été modifié pour faire la reconnaissance et le clivage de substrats possédant différentes longueurs de tiges Ib. Le ribozyme a été adapté avec succès à ces substrats de différentes longueurs de tige Ib, avec une activité qui est similaire à celle du ribozyme avec un substrat sans modification. Dans un deuxième temps, c’est l’interaction kissing-loop I/V du ribozyme qui a été substituée de façon rationnelle, dans le but de savoir si un ribozyme VS mutant peut reconnaitre et cliver un substrat ayant une boucle différente de celle de son substrat naturel. L’interaction kissing-loop I/V a été substituée pour les interactions kissing-loop TAR/TAR* de l’ARN du VIH-1 et L22/L88 de l’ARN 23S de Deinococcus radiodurans. La réaction de iii clivage des ribozymes comportant ces nouvelles interactions kissing-loop est toujours observée, mais avec une activité diminuée. Finalement, la sélection in vitro (SELEX) de ribozymes a été effectuée pour permettre un clivage plus efficace d’un substrat mutant avec une nouvelle boucle. Le SELEX a permis la sélection d’un ribozyme qui clive un substrat avec une boucle terminale mutée pour celle de l’ARN TAR du VIH-1 et cela avec une activité de clivage très efficace. L’ensemble de ces études démontre que le ribozyme VS peut être modifié de diverses façons pour la reconnaissance spécifique de différents substrats, tout en conservant une bonne activité de clivage. Ces résultats montrent le grand potentiel d’ingénierie du ribozyme VS et sont prometteurs pour la poursuite d’études d’ingénierie du ribozyme VS, en vue du clivage d’ARN cibles repliés en tige-boucle complètement différents du substrat naturel du ribozyme VS.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les déficits cognitifs sont centraux à la psychose et sont observables plusieurs années avant le premier épisode psychotique. L’atteinte de la mémoire épisodique est fréquemment identifiée comme une des plus sévères, tant chez les patients qu’avant l’apparition de la pathologie chez des populations à risque. Chez les patients psychotiques, l’étude neuropsychologique des processus mnésiques a permis de mieux comprendre l’origine de cette atteinte. Une altération des processus de mémoire de source qui permettent d’associer un souvenir à son origine a ainsi été identifiée et a été associée aux symptômes positifs de psychose, principalement aux hallucinations. La mémoire de source de même que la présence de symptômes sous-cliniques n’ont pourtant jamais été investiguées avant l’apparition de la maladie chez une population à haut risque génétique de psychose (HRG). Or, leur étude permettrait de voir si les déficits en mémoire de source de même que le vécu d’expériences hallucinatoires sont associés à l’apparition de la psychose ou s’ils en précèdent l’émergence, constituant alors des indicateurs précoces de pathologie. Afin d’étudier cette question, trois principaux objectifs ont été poursuivis par la présente thèse : 1) caractériser le fonctionnement de la mémoire de source chez une population HRG afin d’observer si une atteinte de ce processus précède l’apparition de la maladie, 2) évaluer si des manifestations sous-cliniques de symptômes psychotiques, soit les expériences hallucinatoires, sont identifiables chez une population à risque et 3) investiguer si un lien est présent entre le fonctionnement en mémoire de source et la symptomatologie sous-clinique chez une population à risque, à l’instar de ce qui est documenté chez les patients. Les résultats de la thèse ont permis de démontrer que les HRG présentent une atteinte de la mémoire de source ciblée à l’attribution du contexte temporel des souvenirs, ainsi que des distorsions mnésiques qui se manifestent par une fragmentation des souvenirs et par une défaillance de la métacognition en mémoire. Il a également été observé que les expériences hallucinatoires sous-cliniques étaient plus fréquentes chez les HRG. Des associations ont été documentées entre certaines distorsions en mémoire et la propension à halluciner. Ces résultats permettent d’identifier de nouveaux indicateurs cliniques et cognitifs du risque de développer une psychose et permettent de soulever des hypothèses liant l’attribution de la source interne-externe de l’information et le développement de la maladie. Les implications empiriques, théoriques, méthodologiques et cliniques de la thèse sont discutées.