29 resultados para Inferir

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El título de esta tesis, utiliza primero una expresión periodística muy conocida sobre esta obra, que expresa muy bien su característica contradictoria, paradójica, siempre entre opuestos, frecuentemente utilizadas por los textos que sobre esta obra se han escrito. La segunda expresión define a esta tesis, incluida en el grupo de investigación sobre el objetivo común de la Crítica Arquitectónica. La casa Malaparte, olvidada durante largo tiempo y venerada en otros momentos, fue elegida por referéndum en 1979 por la revista “Modo (Cien proyectos para recordar)” como la obra más representativa de la arquitectura italiana del siglo XX. Un icono de modernidad en 1979 y paradójicamente no en su momento, ya que difícilmente se podría encuadrar en las tipologías de vivienda moderna de los años treinta. El objetivo de esta tesis es la racionalización del valor de esta obra, admitida de alguna manera en los “manuales de arquitectura moderna”, proponiendo para ello el reconocimiento de sus singularidades y regularidades como elementos de investigación del valor sustantivo de la arquitectura, el polinomio indisociable: contexto, forma, función, construcción. Tenemos datos, textos, hermenéutica. Nuestro método no puede ser otro que la crítica de los datos y texto y la crítica poética. Nuestra tesis, se inserta en este conjunto de crítica arquitectónica, vinculada al método llamado por el Catedrático Dr. Antonio Miranda Regojo “Mírregan-Todorov” que emplearemos como referencia y método para mostrar lo que más nos interesa, la calidad de la arquitectura, su ser, que paradójicamente, difiere de su descripción, de su momento histórico, en fin de todo aquello que en realidad solo la describe, la analiza y la interpreta. Nuestra variación propuesta al modelo de referencia, consta del siguiente desarrollo: 1. Crítica de “La Crítica”. 2. Crítica poética. 3. Conclusiones El primer capítulo, propone “La Crítica”, entendida como ese valor colectivo depositado por los textos escritos sobre la obra contrastado con nuestras observaciones personales respecto de cada uno de ellos. Las críticas seleccionadas muestran una nube de alternativas relativas a la descripción, análisis e interpretación que sobre la obra se han producido. Este capítulo, constituye una compilación de textos ordenada cronológicamente, que introduce al conocimiento de la obra. Recoge las primeras referencias, los artículos, los libros, las películas y anuncios así como alguno de los textos académicos que se han escrito sobre esta obra. 15 Los artículos seleccionados son los siguientes: Aldo Morbelli 1942. A. Alieri M.Clerici F.Palpacelli y G.Vaccaro 1966. Francesco Venezia con G.Petrusch 1973 Vieri Quilici.1977/1981 G.K.Koenig, 1979 John Hejduk 1980 Audrey Batey 1980. Manfredo Tafuri 1981. Francesco Venezia 1983. Joe Bostik 1989. Vittorio Savi, 1989. Marida Talamona 1989. W. Arets, W. Van der Bergh. 1989. Franco Purinni 1991. Marida Talamona 1997. Bruce Chatwin 1997. Los libros seleccionados han sido: Marida Talamona. Casa Malaparte, Milano 1990. Sergio Attanasio. Curzio Malaparte “Casa come me” Punta del Massullo, tel. 160 Capri. Nápoles 1990 Gianni Petenna. CasaMalaparte, Capri, 1999 Michael McDonough. A house like me. Edit.Clarkson Potter,New York 1999 Mario Ferrari. Adalberto Libera “Casa Malaparte en Capri1938-1942” 2008 Las películas seleccionadas: Il Cristo proibito, 1956 Le Mèpris, 1963 La Pelle, 1981 Anuncio de Hugo Boss 2010 16 Los textos académicos recogidos son: Angela delGaudio. Casa Malaparte. Interventi e restauri. 2003 Nicoletta Setola. Casa Malaparte. Il cantiere le tecnologie i materiali. 2004 Gloria Paz Saravia Ortiz. La casa Malaparte de A.libera. 2007 En el capítulo segundo “Crítica poética” se circunscribe, según la definición utilizada, a lo que en particular tiene como nivel de verdad, por la idoneidad de su construcción, tipología e iconología en relación al lugar (entidad propia, identidad auténtica). Existen algunos estudios que proponen a la casa Malaparte comprendida en la poética común de la obra de su arquitecto, Adalberto Libera. Nuestra posición nada tiene que ver con “la manera de hacer de un autor” se inclina a investigar obras enlazadas por estructuras comunes, reflejo y consecuencia especialmente de la propia arquitectura, nos interesa la poética de la arquitectura, no la de un autor. Realizamos tres ensayos, el primero trata de investigar el “Lugar” contexto de la obra, proponiendo el reconocimiento de un sistema lugar-arquitectura, (Conjunto de reglas o principios sobre una materia racionalmente enlazados entre sí) del que formulamos una serie de definiciones como características de esta relación: la analogía, la simpatía, la emulación, la signatura, la nematología y la sinexión. Concluyendo que la relación encontrada en la Malaparte podría explicarse de esta manera: ninguna mimesis, admite cierta analogía, un camuflaje solo geométrico, sin emulación de “tipismo” alguno, con emulación del modelo continuo de la “caja” desde el ataúd a la humilde vivienda , con “simpatía” como una obra contemporánea, con una fuerte signatura sobre el lugar, en correspondencia a lugar señalado por la historia y a la indeterminación iconológica que propone su arquitectura, (fetiche, simulacro) con una relación “nematológica” a través de su implantación y con una vinculación especial de “sinexión” entre la superficie del lugar y el acomodo de esta arquitectura. Continuamos con la relación propia de la obra y el lugar, concluyendo como la casa Malaparte propone el espacio sobre su cubierta, a modo de patio, de recinto. La obra demuestra que no es únicamente la sustancia material quien protagoniza la acción de “recintar”. El vértigo constituye la materia infranqueable del perímetro. En la Malaparte es el plano arquitectónico, (elevado) el recinto descubierto, el plano que posibilita la máxima relación con el exterior en esta arquitectura. En su interior el paisaje deja de ser fondo y el habitante se incorpora al escenario, se incorpora al paisaje. Te encuentras midiendo, relacionando distancias desde las espículas de pino, rocas, acantilados, barcos, islas, mar hasta la costa de Amalfi. Esta posición sobre el paisaje, es comparada con la casa Kaufman de F.L.Wrigth. El segundo ensayo investiga el proyecto de la obra. Distinguimos entre proyecto-forma, proyecto-origen, proyecto programa, proyecto-acción y proyectos-signo. Encontramos que no existe proyecto-forma que explique la casa Malaparte, tenemos proyectoorigen, proyecto-programa y proyectos-signo suficientes para racionalizar esta obra. Nos encontramos con un proyecto-acción, en permanente discusión, debatido hasta la saciedad, con la finalidad de habitar aquella roca, cuyas proposiciones se contrastan en la obra, ampliando el proceso de proyecto a la propia acción de construir, proyecto y construcción no estan disociados. Los proyectos “signo” de esta obra, nos permiten relacionar la permanencia de un programa, una organización, una comunicación y distribución que entendemos continua y conducida por Malaparte. Lo realmente importante previsto y controlable por aquel: programa y distribución. Nos permitimos afirmar que lo significante continuo es un proyecto–programa limitado a una forma necesaria iniciada por Libera, como una semilla. Su forma es el resultado de un procedimiento, arraigado y condicionado a un terreno. Un proceso que consiste en establecer unas alturas tipo sobre un programa distribuido en planta, y limitado con una construcción racional, tipológica sobre muros de carga, capaz de soportar cualquier programa habitacional, que proporciona inevitablemente un resultado seguro. El tercer ensayo propone una “novela” sobre la manera de construcción de la obra, que nos permite explicar la gran escalera de la Malaparte. Encontramos que la construcción de la Malaparte, también forma parte de un sistema. Este sistema es capaz de generar forma, sin recurrir a las mascaras fijadas por la tradición o las modas, manteniendo su libertad de expresión sin concesiones. Consideramos que en el camino de acceso a la obra que hubo que ejecutarse para tal fin están las claves para la comprensión de su escalera. La escalera de la Malaparte la comprendemos desde la propia accesibilidad a la obra. Su trazado abocinado, su forma “strombata”, es consecuencia para nosotros de sus límites físicos, su elevación, resultado de las cotas que responden a los niveles de los planos de trabajo, incluida la terraza –patio. Su expresión geométrica sería visible desde la ejecución de las obras; no es posterior al paralelepípedo inicial, sino previa. Su función de acceso a la terraza no es la principal, excluida desde el proyecto administrativo de Libera, al texto escrito de Malaparte sobre su casa (ninguna escalera exterior). Sus funciones principales subyacentes que quedan envueltas son primeramente abastecer la obra, en segundo lugar como cubierta de la escalera interior que tuvo que salir de su posición centrada en el paralelepípedo inicial, al extremo exterior de este. La solución a estas necesidades acuciantes, mostrarían su función paradigmática en un tercer lugar, su solución como cubierta peldañeada, como fachada remontable, que se produce desde nuestra visión del exterior, la gran escalera de acceso al lugar principal y el hecho único y genial de la Malaparte. Las conclusiones finales de esta tesis están referidas en primer lugar al Texto escrito sobre la obra y en segundo lugar a la obra misma: La Casa es entendida en los textos analizados, como objeto que soporta simultáneamente la idea romántica de emoción-inspiración y la contemporánea de invitación a su conocimiento. Producto de su singular abstracción explicamos su transformación en lo que constatamos dos vías extremas: una como artefacto, trasto inútil y pretencioso que explica las críticas extremas de Koening y Durante. Habría que demoler la Malaparte, y por la otra se produce su transformación en “objeto artístico” (inspiraciónemoción– conocimiento) que hay que venerar. Este trinomio deviene en interpretación y de aquí su provocación hacia la literatura, el cine y la imagen sobre la obra. Ambos extremos podrían originarse por no comprender, por no llegar a explicar cómo este objeto es también casa, casa con patio, habitación, refugio, arquitectura con toda su contingencia que con coherencia, razón y libertad de expresión produce aquel objeto, con la única intencionalidad acuciante de ser construido y habitado. El gran valor “literario-artístico” de la Malaparte recogido en sus textos, debemos admitir pues que tiene su origen en la interpretación de lo arquitectónico, que no es evidente, que entendemos no puede deducirse de su mera imagen, del mismo modo que la escultura asociada a un capitel corintio, que algunos pretenden disociar del apoyo constructivo de un pie derecho, como la solución del tímpano- escultura de una portada barroca, que pretendemos separar de la eficacia del dintel, como la cúpula solución a la cubierta del Panteón de Agripa, que estudiamos aparte como un problema de ingeniería, estos aspectos múltiples, complejos y no evidentes producen la fragmentación de lo arquitectónico, y permiten sus interpretaciones independientes, desguazando la arquitectura en trozos muy visibles que algunos llamaron “arte” y sistemas mas ocultos que otros llamaron “ingeniería y técnica”. Contemplar lo humano con fantasía es también nuestra conclusión deductiva de lo que nos permite la Malaparte, su identidad propia y peculiar deducida del Texto. Una arquitectura que permite examinar lo humano con fantasía, también un gran valor común, literario y arquitectónico que no queremos disociar. Si nos afirmamos en la autonomía de la arquitectura, sin renunciar al Texto, su identidad no es más que materialidad, ni menos que la metáfora del habitar diverso del hombre en la tierra. Ambos discursos permanecerán siempre abiertos para poetas y arquitectos. La Malaparte puede explicarse desde el lugar, de su proyecto y su construcción. Podríamos limitarnos aun más, solamente de su realidad congelada actual lograríamos inferir su valor como arquitectura que ha resuelto el problema; cubriendo, superponiendo con rigurosa limpieza, orden y geometría, al caos de accidentalidad y esfuerzo, un resultado despejado, de la materialidad y la técnica, esto es en definitiva el poder de lo arquitectónico, realizado no como máscara superpuesta, sino como resultado coherente, piel viva sobre huesos y músculos necesarios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La escalera mecánica lleva más de un siglo entre nosotros, sin apenas variar su diseño de forma notoria. La simulación mecánica de este sistema multicuerpo, asignatura pendiente en la actualidad, ahorrará tiempo y dinero frente a los experimentos tradicionales. En esta línea, CITEF está desarrollando una serie herramientas de mejora del diseño basadas en modelos estáticos, cinemáticos y dinámicos para la simulación del comportamiento de la escalera mecánica convencional así como para el desarrollo y análisis de nuevos diseños. Estas herramientas permitirán el estudio de variables como son la velocidad y la aceleración del peldaño, así como los valores de tensión de la cadena y de reacción de los rodillos. Con los resultados obtenidos se podrán inferir mejoras que supongan una disminución del coste del conjunto de la escalera y del coste de mantenimiento, así como un aumento del confort del usuario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN La dispersión del amoniaco (NH3) emitido por fuentes agrícolas en medias distancias, y su posterior deposición en el suelo y la vegetación, pueden llevar a la degradación de ecosistemas vulnerables y a la acidificación de los suelos. La deposición de NH3 suele ser mayor junto a la fuente emisora, por lo que los impactos negativos de dichas emisiones son generalmente mayores en esas zonas. Bajo la legislación comunitaria, varios estados miembros emplean modelos de dispersión inversa para estimar los impactos de las emisiones en las proximidades de las zonas naturales de especial conservación. Una revisión reciente de métodos para evaluar impactos de NH3 en distancias medias recomendaba la comparación de diferentes modelos para identificar diferencias importantes entre los métodos empleados por los distintos países de la UE. En base a esta recomendación, esta tesis doctoral compara y evalúa las predicciones de las concentraciones atmosféricas de NH3 de varios modelos bajo condiciones, tanto reales como hipotéticas, que plantean un potencial impacto sobre ecosistemas (incluidos aquellos bajo condiciones de clima Mediterráneo). En este sentido, se procedió además a la comparación y evaluación de varias técnicas de modelización inversa para inferir emisiones de NH3. Finalmente, se ha desarrollado un modelo matemático simple para calcular las concentraciones de NH3 y la velocidad de deposición de NH3 en ecosistemas vulnerables cercanos a una fuente emisora. La comparativa de modelos supuso la evaluación de cuatro modelos de dispersión (ADMS 4.1; AERMOD v07026; OPS-st v3.0.3 y LADD v2010) en un amplio rango de casos hipotéticos (dispersión de NH3 procedente de distintos tipos de fuentes agrícolas de emisión). La menor diferencia entre las concentraciones medias estimadas por los distintos modelos se obtuvo para escenarios simples. La convergencia entre las predicciones de los modelos fue mínima para el escenario relativo a la dispersión de NH3 procedente de un establo ventilado mecánicamente. En este caso, el modelo ADMS predijo concentraciones significativamente menores que los otros modelos. Una explicación de estas diferencias podríamos encontrarla en la interacción de diferentes “penachos” y “capas límite” durante el proceso de parametrización. Los cuatro modelos de dispersión fueron empleados para dos casos reales de dispersión de NH3: una granja de cerdos en Falster (Dinamarca) y otra en Carolina del Norte (EEUU). Las concentraciones medias anuales estimadas por los modelos fueron similares para el caso americano (emisión de granjas ventiladas de forma natural y balsa de purines). La comparación de las predicciones de los modelos con concentraciones medias anuales medidas in situ, así como la aplicación de los criterios establecidos para la aceptación estadística de los modelos, permitió concluir que los cuatro modelos se comportaron aceptablemente para este escenario. No ocurrió lo mismo en el caso danés (nave ventilada mecánicamente), en donde el modelo LADD no dio buenos resultados debido a la ausencia de procesos de “sobreelevacion de penacho” (plume-rise). Los modelos de dispersión dan a menudo pobres resultados en condiciones de baja velocidad de viento debido a que la teoría de dispersión en la que se basan no es aplicable en estas condiciones. En situaciones de frecuente descenso en la velocidad del viento, la actual guía de modelización propone usar un modelo que sea eficaz bajo dichas condiciones, máxime cuando se realice una valoración que tenga como objeto establecer una política de regularización. Esto puede no ser siempre posible debido a datos meteorológicos insuficientes, en cuyo caso la única opción sería utilizar un modelo más común, como la versión avanzada de los modelos Gausianos ADMS o AERMOD. Con el objetivo de evaluar la idoneidad de estos modelos para condiciones de bajas velocidades de viento, ambos modelos fueron utilizados en un caso con condiciones Mediterráneas. Lo que supone sucesivos periodos de baja velocidad del viento. El estudio se centró en la dispersión de NH3 procedente de una granja de cerdos en Segovia (España central). Para ello la concentración de NH3 media mensual fue medida en 21 localizaciones en torno a la granja. Se realizaron también medidas de concentración de alta resolución en una única localización durante una campaña de una semana. En este caso, se evaluaron dos estrategias para mejorar la respuesta del modelo ante bajas velocidades del viento. La primera se basó en “no zero wind” (NZW), que sustituyó periodos de calma con el mínimo límite de velocidad del viento y “accumulated calm emissions” (ACE), que forzaban al modelo a calcular las emisiones totales en un periodo de calma y la siguiente hora de no-calma. Debido a las importantes incertidumbres en los datos de entrada del modelo (inputs) (tasa de emisión de NH3, velocidad de salida de la fuente, parámetros de la capa límite, etc.), se utilizó el mismo caso para evaluar la incertidumbre en la predicción del modelo y valorar como dicha incertidumbre puede ser considerada en evaluaciones del modelo. Un modelo dinámico de emisión, modificado para el caso de clima Mediterráneo, fue empleado para estimar la variabilidad temporal en las emisiones de NH3. Así mismo, se realizó una comparativa utilizando las emisiones dinámicas y la tasa constante de emisión. La incertidumbre predicha asociada a la incertidumbre de los inputs fue de 67-98% del valor medio para el modelo ADMS y entre 53-83% del valor medio para AERMOD. La mayoría de esta incertidumbre se debió a la incertidumbre del ratio de emisión en la fuente (50%), seguida por la de las condiciones meteorológicas (10-20%) y aquella asociada a las velocidades de salida (5-10%). El modelo AERMOD predijo mayores concentraciones que ADMS y existieron más simulaciones que alcanzaron los criterios de aceptabilidad cuando se compararon las predicciones con las concentraciones medias anuales medidas. Sin embargo, las predicciones del modelo ADMS se correlacionaron espacialmente mejor con las mediciones. El uso de valores dinámicos de emisión estimados mejoró el comportamiento de ADMS, haciendo empeorar el de AERMOD. La aplicación de estrategias destinadas a mejorar el comportamiento de este último tuvo efectos contradictorios similares. Con el objeto de comparar distintas técnicas de modelización inversa, varios modelos (ADMS, LADD y WindTrax) fueron empleados para un caso no agrícola, una colonia de pingüinos en la Antártida. Este caso fue empleado para el estudio debido a que suponía la oportunidad de obtener el primer factor de emisión experimental para una colonia de pingüinos antárticos. Además las condiciones eran propicias desde el punto de vista de la casi total ausencia de concentraciones ambiente (background). Tras el trabajo de modelización existió una concordancia suficiente entre las estimaciones obtenidas por los tres modelos. De este modo se pudo definir un factor de emisión de para la colonia de 1.23 g NH3 por pareja criadora por día (con un rango de incertidumbre de 0.8-2.54 g NH3 por pareja criadora por día). Posteriores aplicaciones de técnicas de modelización inversa para casos agrícolas mostraron también un buen compromiso estadístico entre las emisiones estimadas por los distintos modelos. Con todo ello, es posible concluir que la modelización inversa es una técnica robusta para estimar tasas de emisión de NH3. Modelos de selección (screening) permiten obtener una rápida y aproximada estimación de los impactos medioambientales, siendo una herramienta útil para evaluaciones de impactos en tanto que permite eliminar casos que presentan un riesgo potencial de daño bajo. De esta forma, lo recursos del modelo pueden Resumen (Castellano) destinarse a casos en donde la posibilidad de daño es mayor. El modelo de Cálculo Simple de los Límites de Impacto de Amoniaco (SCAIL) se desarrolló para obtener una estimación de la concentración media de NH3 y de la tasa de deposición seca asociadas a una fuente agrícola. Está técnica de selección, basada en el modelo LADD, fue evaluada y calibrada con diferentes bases de datos y, finalmente, validada utilizando medidas independientes de concentraciones realizadas cerca de las fuentes. En general SCAIL dio buenos resultados de acuerdo a los criterios estadísticos establecidos. Este trabajo ha permitido definir situaciones en las que las concentraciones predichas por modelos de dispersión son similares, frente a otras en las que las predicciones difieren notablemente entre modelos. Algunos modelos nos están diseñados para simular determinados escenarios en tanto que no incluyen procesos relevantes o están más allá de los límites de su aplicabilidad. Un ejemplo es el modelo LADD que no es aplicable en fuentes con velocidad de salida significativa debido a que no incluye una parametrización de sobreelevacion del penacho. La evaluación de un esquema simple combinando la sobreelevacion del penacho y una turbulencia aumentada en la fuente mejoró el comportamiento del modelo. Sin embargo más pruebas son necesarias para avanzar en este sentido. Incluso modelos que son aplicables y que incluyen los procesos relevantes no siempre dan similares predicciones. Siendo las razones de esto aún desconocidas. Por ejemplo, AERMOD predice mayores concentraciones que ADMS para dispersión de NH3 procedente de naves de ganado ventiladas mecánicamente. Existe evidencia que sugiere que el modelo ADMS infraestima concentraciones en estas situaciones debido a un elevado límite de velocidad de viento. Por el contrario, existen evidencias de que AERMOD sobreestima concentraciones debido a sobreestimaciones a bajas Resumen (Castellano) velocidades de viento. Sin embrago, una modificación simple del pre-procesador meteorológico parece mejorar notablemente el comportamiento del modelo. Es de gran importancia que estas diferencias entre las predicciones de los modelos sean consideradas en los procesos de evaluación regulada por los organismos competentes. Esto puede ser realizado mediante la aplicación del modelo más útil para cada caso o, mejor aún, mediante modelos múltiples o híbridos. ABSTRACT Short-range atmospheric dispersion of ammonia (NH3) emitted by agricultural sources and its subsequent deposition to soil and vegetation can lead to the degradation of sensitive ecosystems and acidification of the soil. Atmospheric concentrations and dry deposition rates of NH3 are generally highest near the emission source and so environmental impacts to sensitive ecosystems are often largest at these locations. Under European legislation, several member states use short-range atmospheric dispersion models to estimate the impact of ammonia emissions on nearby designated nature conservation sites. A recent review of assessment methods for short-range impacts of NH3 recommended an intercomparison of the different models to identify whether there are notable differences to the assessment approaches used in different European countries. Based on this recommendation, this thesis compares and evaluates the atmospheric concentration predictions of several models used in these impact assessments for various real and hypothetical scenarios, including Mediterranean meteorological conditions. In addition, various inverse dispersion modelling techniques for the estimation of NH3 emissions rates are also compared and evaluated and a simple screening model to calculate the NH3 concentration and dry deposition rate at a sensitive ecosystem located close to an NH3 source was developed. The model intercomparison evaluated four atmospheric dispersion models (ADMS 4.1; AERMOD v07026; OPS-st v3.0.3 and LADD v2010) for a range of hypothetical case studies representing the atmospheric dispersion from several agricultural NH3 source types. The best agreement between the mean annual concentration predictions of the models was found for simple scenarios with area and volume sources. The agreement between the predictions of the models was worst for the scenario representing the dispersion from a mechanically ventilated livestock house, for which ADMS predicted significantly smaller concentrations than the other models. The reason for these differences appears to be due to the interaction of different plume-rise and boundary layer parameterisations. All four dispersion models were applied to two real case studies of dispersion of NH3 from pig farms in Falster (Denmark) and North Carolina (USA). The mean annual concentration predictions of the models were similar for the USA case study (emissions from naturally ventilated pig houses and a slurry lagoon). The comparison of model predictions with mean annual measured concentrations and the application of established statistical model acceptability criteria concluded that all four models performed acceptably for this case study. This was not the case for the Danish case study (mechanically ventilated pig house) for which the LADD model did not perform acceptably due to the lack of plume-rise processes in the model. Regulatory dispersion models often perform poorly in low wind speed conditions due to the model dispersion theory being inapplicable at low wind speeds. For situations with frequent low wind speed periods, current modelling guidance for regulatory assessments is to use a model that can handle these conditions in an acceptable way. This may not always be possible due to insufficient meteorological data and so the only option may be to carry out the assessment using a more common regulatory model, such as the advanced Gaussian models ADMS or AERMOD. In order to assess the suitability of these models for low wind conditions, they were applied to a Mediterranean case study that included many periods of low wind speed. The case study was the dispersion of NH3 emitted by a pig farm in Segovia, Central Spain, for which mean monthly atmospheric NH3 concentration measurements were made at 21 locations surrounding the farm as well as high-temporal-resolution concentration measurements at one location during a one-week campaign. Two strategies to improve the model performance for low wind speed conditions were tested. These were ‘no zero wind’ (NZW), which replaced calm periods with the minimum threshold wind speed of the model and ‘accumulated calm emissions’ (ACE), which forced the model to emit the total emissions during a calm period during the first subsequent non-calm hour. Due to large uncertainties in the model input data (NH3 emission rates, source exit velocities, boundary layer parameters), the case study was also used to assess model prediction uncertainty and assess how this uncertainty can be taken into account in model evaluations. A dynamic emission model modified for the Mediterranean climate was used to estimate the temporal variability in NH3 emission rates and a comparison was made between the simulations using the dynamic emissions and a constant emission rate. Prediction uncertainty due to model input uncertainty was 67-98% of the mean value for ADMS and between 53-83% of the mean value for AERMOD. Most of this uncertainty was due to source emission rate uncertainty (~50%), followed by uncertainty in the meteorological conditions (~10-20%) and uncertainty in exit velocities (~5-10%). AERMOD predicted higher concentrations than ADMS and more of the simulations met the model acceptability criteria when compared with the annual mean measured concentrations. However, the ADMS predictions were better correlated spatially with the measurements. The use of dynamic emission estimates improved the performance of ADMS but worsened the performance of AERMOD and the application of strategies to improved model performance had similar contradictory effects. In order to compare different inverse modelling techniques, several models (ADMS, LADD and WindTrax) were applied to a non-agricultural case study of a penguin colony in Antarctica. This case study was used since it gave the opportunity to provide the first experimentally-derived emission factor for an Antarctic penguin colony and also had the advantage of negligible background concentrations. There was sufficient agreement between the emission estimates obtained from the three models to define an emission factor for the penguin colony (1.23 g NH3 per breeding pair per day with an uncertainty range of 0.8-2.54 g NH3 per breeding pair per day). This emission estimate compared favourably to the value obtained using a simple micrometeorological technique (aerodynamic gradient) of 0.98 g ammonia per breeding pair per day (95% confidence interval: 0.2-2.4 g ammonia per breeding pair per day). Further application of the inverse modelling techniques for a range of agricultural case studies also demonstrated good agreement between the emission estimates. It is concluded, therefore, that inverse dispersion modelling is a robust technique for estimating NH3 emission rates. Screening models that can provide a quick and approximate estimate of environmental impacts are a useful tool for impact assessments because they can be used to filter out cases that potentially have a minimal environmental impact allowing resources to be focussed on more potentially damaging cases. The Simple Calculation of Ammonia Impact Limits (SCAIL) model was developed as a screening model to provide an estimate of the mean NH3 concentration and dry deposition rate downwind of an agricultural source. This screening tool, based on the LADD model, was evaluated and calibrated with several experimental datasets and then validated using independent concentration measurements made near sources. Overall SCAIL performed acceptably according to established statistical criteria. This work has identified situations where the concentration predictions of dispersion models are similar and other situations where the predictions are significantly different. Some models are simply not designed to simulate certain scenarios since they do not include the relevant processes or are beyond the limits of their applicability. An example is the LADD model that is not applicable to sources with significant exit velocity since the model does not include a plume-rise parameterisation. The testing of a simple scheme combining a momentum-driven plume rise and increased turbulence at the source improved model performance, but more testing is required. Even models that are applicable and include the relevant process do not always give similar predictions and the reasons for this need to be investigated. AERMOD for example predicts higher concentrations than ADMS for dispersion from mechanically ventilated livestock housing. There is evidence to suggest that ADMS underestimates concentrations in these situations due to a high wind speed threshold. Conversely, there is also evidence that AERMOD overestimates concentrations in these situations due to overestimation at low wind speeds. However, a simple modification to the meteorological pre-processor appears to improve the performance of the model. It is important that these differences between the predictions of these models are taken into account in regulatory assessments. This can be done by applying the most suitable model for the assessment in question or, better still, using multiple or hybrid models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Colegio de Nuestra Señora de la Antigua de Monforte de Lemos (1593-1619) constituye el principal ejemplo del clasicismo herreriano de Galicia. Esta tesis analiza los aspectos técnicos de la construcción de sus bóvedas de cantería, en el marco disciplinar de la Historia de la Construcción. El Colegio contiene varios tipos de bóvedas entre las que destacan su cúpula trasdosada y su escalera monumental. Además, se conservan los documentos notariales históricos que describen las obras y una de las monteas más importantes de Galicia. Las bóvedas han sufrido movimientos y algunas presentan importantes deformaciones, que han suscitado preocupación sobre su estabilidad. El estudio se organiza en tres epígrafes: geometría, construcción y mecánica, tres aspectos estrechamente interrelacionados en este tipo de estructuras. La parte de estudio geométrico parte de un levantamiento en el que se emplea una estación total sin reflectante, una técnica que permite una medición muy precisa de la forma real de las bóvedas. Como complemento se ha recurrido a técnicas de escáner fotográfico. Con los datos de las mediciones se han elaborado los dibujos de las bóvedas, y analizado sus medidas e irregularidades. Se ha incluido un análisis metrológico por métodos inductivos, que ha puesto de manifiesto la unidad utilizada en la construcción. El estudio se completa con la recopilación de las reglas de dimensionamiento que figuran en los tratados, que se comparan con las dimensiones de las bóvedas analizadas. En el estudio constructivo se registran los despieces y la configuración constructiva y se contrastan, por un lado, con las soluciones que aparecen en los principales tratados de los siglos XVI, XVII y XVIII, y por otro, con las descripciones que se encuentran en los documentos históricos del Colegio. Se ha prestado especial atención al estudio de estos documentos, que han permitido conocer algunos aspectos originales del proceso de construcción de estas bóvedas. En una de las paredes del claustro se ha identificado una montea inédita cuyo levantamiento y análisis se incorpora en esta parte. En el estudio mecánico se analiza la estabilidad dentro del marco teórico del Moderno Análisis Límite de Estructuras de Fábricas. La comprensión del comportamiento estructural, unida a la precisión de los levantamientos, ha permitido explicar los movimientos de las fábricas e inferir la geometría original de algunas de las bóvedas, no siempre evidente en los casos de fuertes deformaciones. Los estudios realizados hasta ahora en bóvedas de los siglos XVI y XVII permiten vislumbrar un panorama de soluciones constructivas más rico que el que recogen los tratados históricos. Las nuevas técnicas de medición sin contacto abren nuevas posibilidades para analizar estas estructuras. Los casos estudiados todavía son escasos y se necesita un conjunto más amplio para poder realizar un análisis general. Esta tesis aporta el estudio de uno de esos casos con el fin de contribuir al mejor conocimiento de la construcción en España en los siglos XVI y XVII. ABSTRACT The Colegio de Nuestra Señora de la Antigua (1593-1619), in Monforte de Lemos, Spain, is the best example in Galicia of the classicism influenced by the Monastery of El Escorial and his architect, Juan de Herrera. This thesis analyzes the technical aspects of the construction of its masonry vaults within the discipline of Construction History. The Colegio exhibits various types of vaults, among which the extradosed ashlar dome and the grand staircase are particularly worth mentioning. In addition, the legal documents containing thorough specifications of the work, as well as one of the construction drawings at actual size —one of the best examples in Galicia—, have both been preserved to this date. Some of the vaults have undergone important deformations that have raised concerns about their stability. The study is organized in three sections: geometry, construction, and mechanics, the three clearly interrelated in this type of structures. The geometrical study starts out with a metric survey using a reflectorless total station, a technique that allows a very precise measurement of the actual shape of the vault. This technique was complemented with the use of a photo-based 3D scanner. The resulting measurements were used to draw the vaults, and analyze their dimensions and irregularities. An inductive metrological analysis, which was able to reveal the exact metric unit utilized during the construction, is included in this section. The section is completed with the gathering of the dimensional rules appearing in the various historical treatises, which are compared with the dimensions of the actual vaults. The construction study deals with the quartering of the structure, whose results are compared, on the one hand, with the approaches appearing in the main treatises of the 16th- 18th centuries, and on the other, with the descriptions in the historical documents of the Colegio itself. Special attention has been paid to the study of these documents, which have revealed some original aspects in the construction process of the vaults. In one of the cloister’s walls, a hitherto unheard-of construction drawing at actual size was found. Its survey and analysis is included in this section. The mechanical study analyzes the Colegio's vaults stability within the theoretical frame of the Modern Limit Analysis of Masonry Structures. The interpretation of the structural behavior, coupled with the precision of the surveys, has allowed a deep understanding of the masonry’s movements and the original geometry of some of the vaults —not always evident in the case of strong deformations— has been inferred. The studies dealing with XVI and XVII century vaults conducted up to this date show a landscape of constructive solutions far richer than the one suggested in the historical treatises. The new contactless measuring techniques offer exciting possibilities for the analysis of these structures. The cases studied are still few and more would be needed before a general analysis can be attempted. This thesis constitutes one such additional case and its goal is to improve our understanding of Spanish construction in the 16th-17th centuries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Análisis de Consumo de Recursos o Análisis de Coste trata de aproximar el coste de ejecutar un programa como una función dependiente de sus datos de entrada. A pesar de que existen trabajos previos a esta tesis doctoral que desarrollan potentes marcos para el análisis de coste de programas orientados a objetos, algunos aspectos avanzados, como la eficiencia, la precisión y la fiabilidad de los resultados, todavía deben ser estudiados en profundidad. Esta tesis aborda estos aspectos desde cuatro perspectivas diferentes: (1) Las estructuras de datos compartidas en la memoria del programa son una pesadilla para el análisis estático de programas. Trabajos recientes proponen una serie de condiciones de localidad para poder mantener de forma consistente información sobre los atributos de los objetos almacenados en memoria compartida, reemplazando éstos por variables locales no almacenadas en la memoria compartida. En esta tesis presentamos dos extensiones a estos trabajos: la primera es considerar, no sólo los accesos a los atributos, sino también los accesos a los elementos almacenados en arrays; la segunda se centra en los casos en los que las condiciones de localidad no se cumplen de forma incondicional, para lo cual, proponemos una técnica para encontrar las precondiciones necesarias para garantizar la consistencia de la información acerca de los datos almacenados en memoria. (2) El objetivo del análisis incremental es, dado un programa, los resultados de su análisis y una serie de cambios sobre el programa, obtener los nuevos resultados del análisis de la forma más eficiente posible, evitando reanalizar aquellos fragmentos de código que no se hayan visto afectados por los cambios. Los analizadores actuales todavía leen y analizan el programa completo de forma no incremental. Esta tesis presenta un análisis de coste incremental, que, dado un cambio en el programa, reconstruye la información sobre el coste del programa de todos los métodos afectados por el cambio de forma incremental. Para esto, proponemos (i) un algoritmo multi-dominio y de punto fijo que puede ser utilizado en todos los análisis globales necesarios para inferir el coste, y (ii) una novedosa forma de almacenar las expresiones de coste que nos permite reconstruir de forma incremental únicamente las funciones de coste de aquellos componentes afectados por el cambio. (3) Las garantías de coste obtenidas de forma automática por herramientas de análisis estático no son consideradas totalmente fiables salvo que la implementación de la herramienta o los resultados obtenidos sean verificados formalmente. Llevar a cabo el análisis de estas herramientas es una tarea titánica, ya que se trata de herramientas de gran tamaño y complejidad. En esta tesis nos centramos en el desarrollo de un marco formal para la verificación de las garantías de coste obtenidas por los analizadores en lugar de analizar las herramientas. Hemos implementado esta idea mediante la herramienta COSTA, un analizador de coste para programas Java y KeY, una herramienta de verificación de programas Java. De esta forma, COSTA genera las garantías de coste, mientras que KeY prueba la validez formal de los resultados obtenidos, generando de esta forma garantías de coste verificadas. (4) Hoy en día la concurrencia y los programas distribuidos son clave en el desarrollo de software. Los objetos concurrentes son un modelo de concurrencia asentado para el desarrollo de sistemas concurrentes. En este modelo, los objetos son las unidades de concurrencia y se comunican entre ellos mediante llamadas asíncronas a sus métodos. La distribución de las tareas sugiere que el análisis de coste debe inferir el coste de los diferentes componentes distribuidos por separado. En esta tesis proponemos un análisis de coste sensible a objetos que, utilizando los resultados obtenidos mediante un análisis de apunta-a, mantiene el coste de los diferentes componentes de forma independiente. Abstract Resource Analysis (a.k.a. Cost Analysis) tries to approximate the cost of executing programs as functions on their input data sizes and without actually having to execute the programs. While a powerful resource analysis framework on object-oriented programs existed before this thesis, advanced aspects to improve the efficiency, the accuracy and the reliability of the results of the analysis still need to be further investigated. This thesis tackles this need from the following four different perspectives. (1) Shared mutable data structures are the bane of formal reasoning and static analysis. Analyses which keep track of heap-allocated data are referred to as heap-sensitive. Recent work proposes locality conditions for soundly tracking field accesses by means of ghost non-heap allocated variables. In this thesis we present two extensions to this approach: the first extension is to consider arrays accesses (in addition to object fields), while the second extension focuses on handling cases for which the locality conditions cannot be proven unconditionally by finding aliasing preconditions under which tracking such heap locations is feasible. (2) The aim of incremental analysis is, given a program, its analysis results and a series of changes to the program, to obtain the new analysis results as efficiently as possible and, ideally, without having to (re-)analyze fragments of code that are not affected by the changes. During software development, programs are permanently modified but most analyzers still read and analyze the entire program at once in a non-incremental way. This thesis presents an incremental resource usage analysis which, after a change in the program is made, is able to reconstruct the upper-bounds of all affected methods in an incremental way. To this purpose, we propose (i) a multi-domain incremental fixed-point algorithm which can be used by all global analyses required to infer the cost, and (ii) a novel form of cost summaries that allows us to incrementally reconstruct only those components of cost functions affected by the change. (3) Resource guarantees that are automatically inferred by static analysis tools are generally not considered completely trustworthy, unless the tool implementation or the results are formally verified. Performing full-blown verification of such tools is a daunting task, since they are large and complex. In this thesis we focus on the development of a formal framework for the verification of the resource guarantees obtained by the analyzers, instead of verifying the tools. We have implemented this idea using COSTA, a state-of-the-art cost analyzer for Java programs and KeY, a state-of-the-art verification tool for Java source code. COSTA is able to derive upper-bounds of Java programs while KeY proves the validity of these bounds and provides a certificate. The main contribution of our work is to show that the proposed tools cooperation can be used for automatically producing verified resource guarantees. (4) Distribution and concurrency are today mainstream. Concurrent objects form a well established model for distributed concurrent systems. In this model, objects are the concurrency units that communicate via asynchronous method calls. Distribution suggests that analysis must infer the cost of the diverse distributed components separately. In this thesis we propose a novel object-sensitive cost analysis which, by using the results gathered by a points-to analysis, can keep the cost of the diverse distributed components separate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This doctoral thesis focuses on the modeling of multimedia systems to create personalized recommendation services based on the analysis of users’ audiovisual consumption. Research is focused on the characterization of both users’ audiovisual consumption and content, specifically images and video. This double characterization converges into a hybrid recommendation algorithm, adapted to different application scenarios covering different specificities and constraints. Hybrid recommendation systems use both content and user information as input data, applying the knowledge from the analysis of these data as the initial step to feed the algorithms in order to generate personalized recommendations. Regarding the user information, this doctoral thesis focuses on the analysis of audiovisual consumption to infer implicitly acquired preferences. The inference process is based on a new probabilistic model proposed in the text. This model takes into account qualitative and quantitative consumption factors on the one hand, and external factors such as zapping factor or company factor on the other. As for content information, this research focuses on the modeling of descriptors and aesthetic characteristics, which influence the user and are thus useful for the recommendation system. Similarly, the automatic extraction of these descriptors from the audiovisual piece without excessive computational cost has been considered a priority, in order to ensure applicability to different real scenarios. Finally, a new content-based recommendation algorithm has been created from the previously acquired information, i.e. user preferences and content descriptors. This algorithm has been hybridized with a collaborative filtering algorithm obtained from the current state of the art, so as to compare the efficiency of this hybrid recommender with the individual techniques of recommendation (different hybridization techniques of the state of the art have been studied for suitability). The content-based recommendation focuses on the influence of the aesthetic characteristics on the users. The heterogeneity of the possible users of these kinds of systems calls for the use of different criteria and attributes to create effective recommendations. Therefore, the proposed algorithm is adaptable to different perceptions producing a dynamic representation of preferences to obtain personalized recommendations for each user of the system. The hypotheses of this doctoral thesis have been validated by conducting a set of tests with real users, or by querying a database containing user preferences - available to the scientific community. This thesis is structured based on the different research and validation methodologies of the techniques involved. In the three central chapters the state of the art is studied and the developed algorithms and models are validated via self-designed tests. It should be noted that some of these tests are incremental and confirm the validation of previously discussed techniques. Resumen Esta tesis doctoral se centra en el modelado de sistemas multimedia para la creación de servicios personalizados de recomendación a partir del análisis de la actividad de consumo audiovisual de los usuarios. La investigación se focaliza en la caracterización tanto del consumo audiovisual del usuario como de la naturaleza de los contenidos, concretamente imágenes y vídeos. Esta doble caracterización de usuarios y contenidos confluye en un algoritmo de recomendación híbrido que se adapta a distintos escenarios de aplicación, cada uno de ellos con distintas peculiaridades y restricciones. Todo sistema de recomendación híbrido toma como datos de partida tanto información del usuario como del contenido, y utiliza este conocimiento como entrada para algoritmos que permiten generar recomendaciones personalizadas. Por la parte de la información del usuario, la tesis se centra en el análisis del consumo audiovisual para inferir preferencias que, por lo tanto, se adquieren de manera implícita. Para ello, se ha propuesto un nuevo modelo probabilístico que tiene en cuenta factores de consumo tanto cuantitativos como cualitativos, así como otros factores de contorno, como el factor de zapping o el factor de compañía, que condicionan la incertidumbre de la inferencia. En cuanto a la información del contenido, la investigación se ha centrado en la definición de descriptores de carácter estético y morfológico que resultan influyentes en el usuario y que, por lo tanto, son útiles para la recomendación. Del mismo modo, se ha considerado una prioridad que estos descriptores se puedan extraer automáticamente de un contenido sin exigir grandes requisitos computacionales y, de tal forma que se garantice la posibilidad de aplicación a escenarios reales de diverso tipo. Por último, explotando la información de preferencias del usuario y de descripción de los contenidos ya obtenida, se ha creado un nuevo algoritmo de recomendación basado en contenido. Este algoritmo se cruza con un algoritmo de filtrado colaborativo de referencia en el estado del arte, de tal manera que se compara la eficiencia de este recomendador híbrido (donde se ha investigado la idoneidad de las diferentes técnicas de hibridación del estado del arte) con cada una de las técnicas individuales de recomendación. El algoritmo de recomendación basado en contenido que se ha creado se centra en las posibilidades de la influencia de factores estéticos en los usuarios, teniendo en cuenta que la heterogeneidad del conjunto de usuarios provoca que los criterios y atributos que condicionan las preferencias de cada individuo sean diferentes. Por lo tanto, el algoritmo se adapta a las diferentes percepciones y articula una metodología dinámica de representación de las preferencias que permite obtener recomendaciones personalizadas, únicas para cada usuario del sistema. Todas las hipótesis de la tesis han sido debidamente validadas mediante la realización de pruebas con usuarios reales o con bases de datos de preferencias de usuarios que están a disposición de la comunidad científica. La diferente metodología de investigación y validación de cada una de las técnicas abordadas condiciona la estructura de la tesis, de tal manera que los tres capítulos centrales se estructuran sobre su propio estudio del estado del arte y los algoritmos y modelos desarrollados se validan mediante pruebas autónomas, sin impedir que, en algún caso, las pruebas sean incrementales y ratifiquen la validación de técnicas expuestas anteriormente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El sector ganadero está siendo gradualmente dominado por sistemas intensivos y especializados en los que los factores de producción están controlados y en los que los caracteres productivos son los criterios principales para la selección de especies y razas. Entretanto, muchos de los bienes y servicios que tradicionalmente suministraba el ganado, tales como los fertilizantes, la tracción animal o materias primas para la elaboración vestimenta y calzado están siendo reemplazados por productos industriales. Como consecuencia de ambos cambios, las razas seleccionadas intensivamente, las cuales están estrechamente ligadas a sistemas agrícolas de alta producción y altos insumos, han desplazado a muchas razas autóctonas, en las que la selección prácticamente ha cesado o es muy poco intensa. Actualmente existe una mayor conciencia social sobre la situación de las razas autóctonas y muchas funciones del ganado que previamente habían sido ignoradas están siendo reconocidas. Desde hace algunas décadas, se ha aceptado internacionalmente que las razas de ganado cumplen funciones económicas, socio-culturales, medioambientales y de seguridad alimentaria. Por ello, diferentes organismos internacionales han reconocido que la disminución de los recursos genéticos de animales domésticos (RGADs) es un problema grave y han recomendado su conservación. Aun así, la conservación de RGADs es un tema controvertido por la dificultad de valorar las funciones del ganado. Esta valoración es compleja debido que los RGADs tiene una doble naturaleza privada - pública. Como algunos economistas han subrayado, el ganado es un bien privado, sin embargo debido a algunas de sus funciones, también es un bien público. De esta forma, el aumento del conocimiento sobre valor de cada una de sus funciones facilitaría la toma de decisiones en relación a su conservación y desarrollo. Sin embargo, esta valoración es controvertida puesto que la importancia relativa de las funciones del ganado varía en función del momento, del lugar, de las especies y de las razas. El sector ganadero, debido a sus múltiples funciones, está influenciado por factores técnicos, medioambientales, sociales, culturales y políticos que están interrelacionados y que engloban a una enorme variedad de actores y procesos. Al igual que las funciones del ganado, los factores que afectan a su conservación y desarrollo están fuertemente condicionados por localización geográfica. Asimismo, estos factores pueden ser muy heterogéneos incluso dentro de una misma raza. Por otro lado, es razonable pensar que el ganadero es el actor principal de la conservación de razas locales. Actualmente, las razas locales están siendo Integration of socioeconomic and genetic aspects involved in the conservation of animal genetic resources 5 explotadas por ganaderos muy diversos bajo sistemas de producción también muy diferentes. Por todo ello, es de vital importancia comprender y evaluar el impacto que tienen las motivaciones, y el proceso de toma de decisiones de los ganaderos en la estructura genética de las razas. En esta tesis doctoral exploramos diferentes aspectos sociales, económicos y genéticos involucrados en la conservación de razas locales de ganado vacuno en Europa, como ejemplo de RGADs, esperando contribuir al entendimiento científico de este complejo tema. Nuestro objetivo es conseguir una visión global de los procesos subyacentes en la conservación y desarrollo de estas razas. Pretendemos ilustrar como se pueden utilizar métodos cuantitativos en el diseño y establecimiento de estrategias de conservación y desarrollo de RGADs objetivas y adecuadas. En primer lugar, exploramos el valor económico total (VET) del ganado analizando sus componentes públicos fuera de mercado usando como caso de estudio la raza vacuna Alistana-Sanabresa (AS). El VET de cualquier bien está formado por componentes de uso y de no-uso. Estos últimos incluyen el valor de opción, el valor de herencia y el valor de existencia. En el caso del ganado local, el valor de uso directo proviene de sus productos. Los valores de uso indirecto están relacionados con el papel que cumple las razas en el mantenimiento de los paisajes y cultura rural. El valor de opción se refiere a su futuro uso potencial y el valor de herencia al uso potencial de las generaciones venideras. Finalmente, el valor de existencia está relacionado con el bienestar que produce a la gente saber que existe un recurso específico. Nuestro objetivo fue determinar la importancia relativa que tienen los componentes fuera de mercado sobre el VET de la raza AS. Para ello evaluamos la voluntad de la gente a pagar por la conservación de la AS mediante experimentos de elección (EEs) a través de encuestas. Estos experimentos permiten valorar individualmente los distintos componentes del VET de cualquier bien. Los resultados los analizamos mediante de uso de modelos aleatorios logit. Encontramos que las funciones públicas de la raza AS tienen un valor significativo. Sus valores más importantes son el valor de uso indirecto como elemento cultural Zamorano y el valor de existencia (ambos representaron el 80% de VET). Además observamos que el valor que gente da a las funciones públicas de la razas de ganado dependen de sus características socioeconómicas. Los factores que condicionaron la voluntad a pagar para la conservación de la raza AS fueron el lugar de residencia (ciudad o pueblo), el haber visto animales de la raza o haber consumido sus productos y la actitud de los encuestados ante los conflictos entre el desarrollo económico y el medioambiente. Por otro lado, encontramos que no todo el mundo tiene una visión completa e integrada de todas las funciones públicas de la raza AS. Por este motivo, los programas o actividades de concienciación sobre su estado deberían hacer hincapié en este aspecto. La existencia de valores públicos de la raza AS implica que los ganaderos deberían recibir compensaciones económicas como pago por las funciones públicas que cumple su raza local. Las compensaciones asegurarían un tamaño de población que permitiría que la raza AS siga realizando estas funciones. Un mecanismo para ello podría ser el desarrollo del turismo rural relacionado con la raza. Esto aumentaría el valor de uso privado mientras que supondría un elemento añadido a las estrategias de conservación y desarrollo. No obstante, los ganaderos deben analizar cómo aprovechar los nichos de mercado existentes, así como mejorar la calidad de los productos de la raza prestando especial atención al etiquetado de los mismos. Una vez evaluada la importancia de las funciones públicas de las razas locales de ganado, analizamos la diversidad de factores técnicos, económicos y sociales de la producción de razas locales de ganado vacuno existente en Europa. Con este fin analizamos el caso de quince razas locales de ocho países en el contexto de un proyecto de colaboración internacional. Investigamos las diferencias entre los países para determinar los factores comunes clave que afectan a la viabilidad de las razas locales. Para ello entrevistamos mediante cuestionarios a un total de 355 ganaderos en las quince razas. Como indicador de viabilidad usamos los planes de los ganaderos de variación del tamaño de las ganaderías. Los cuestionarios incluían diferentes aspectos económicos, técnicos y sociales con potencial influencia en las dinámicas demográficas de las razas locales. Los datos recogidos los analizamos mediante distintas técnicas estadísticas multivariantes como el análisis discriminante y la regresión logística. Encontramos que los factores que afectan a la viabilidad de las razas locales en Europa son muy heterogéneos. Un resultado reseñable fue que los ganaderos de algunos países no consideran que la explotación de su raza tenga un alto valor social. Este hecho vuelve a poner de manifiesto la importancia de desarrollar programas Europeos de concienciación sobre la importancia de las funciones que cumplen las razas locales. Además los países analizados presentaron una alta variabilidad en cuanto a la importancia de los mercados locales en la distribución de los productos y en cuanto al porcentaje en propiedad del total de los pastos usados en las explotaciones. Este estudio reflejó la variabilidad de los sistemas y medios de producción (en el sentido socioeconómico, técnico y ecológico) que existe en Europa. Por ello hay que ser cautos en la implementación de las políticas comunes en los diferentes países. También encontramos que la variabilidad dentro de los países puede ser elevada debido a las diferencias entre razas, lo que implica que las políticas nacionales deber ser suficientemente flexibles para adaptarse a las peculiaridades de cada una de las razas. Por otro lado, encontramos una serie de factores comunes a la viabilidad de las razas en los distintos países; la edad de los ganaderos, la colaboración entre ellos y la apreciación social de las funciones culturales, medioambientales y sociales del ganado local. El envejecimiento de los ganaderos de razas locales no es solo un problema de falta de transferencia generacional, sino que también puede suponer una actitud más negativa hacia la inversión en las actividades ganaderas y en una menor capacidad de adaptación a los cambios del sector. La capacidad de adaptación de los ganaderos es un factor crucial en la viabilidad de las razas locales. Las estrategias y políticas de conservación comunes deben incluir las variables comunes a la viabilidad de las razas manteniendo flexibilidad suficiente para adaptarse a las especificidades nacionales. Estas estrategias y políticas deberían ir más allá de compensación económica a los ganaderos de razas locales por la menor productividad de sus razas. Las herramientas para la toma de decisiones ayudan a generar una visión amplia de la conservación y desarrollo de las razas locales. Estas herramientas abordan el diseño de estrategias de conservación y desarrollo de forma sistemática y estructurada. En la tercera parte de la tesis usamos una de estas herramientas, el análisis DAFO (Debilidades, Amenazas, Fortalezas y Oportunidades), con este propósito, reconociendo que la conservación de RGADs depende de los ganaderos. Desarrollamos un análisis DAFO cuantitativo y lo aplicamos a trece razas locales de ganado vacuno de seis países europeos en el contexto del proyecto de colaboración mencionado anteriormente. El método tiene cuatro pasos: 1) la definición del sistema; 2) la identificación y agrupación de los factores influyentes; 3) la cuantificación de la importancia de dichos factores y 4) la identificación y priorización de estrategias. Identificamos los factores utilizando multitud de agentes (multi-stakeholder appproach). Una vez determinados los factores se agruparon en una estructura de tres niveles. La importancia relativa de los cada uno de los factores para cada raza fue determinada por grupos de expertos en RGADs de los países integrados en el citado proyecto. Finalmente, desarrollamos un proceso de cuantificación para identificar y priorizar estrategias. La estructura de agrupación de factores permitió analizar el problema de la conservación desde el nivel general hasta el concreto. La unión de análisis específicos de cada una de las razas en un análisis DAFO común permitió evaluar la adecuación de las estrategias a cada caso concreto. Identificamos un total de 99 factores. El análisis reveló que mientras los factores menos importantes son muy consistentes entre razas, los factores y estrategias más relevantes son muy heterogéneos. La idoneidad de las estrategias fue mayor a medida que estas se hacían más generales. A pesar de dicha heterogeneidad, los factores influyentes y estrategias más importantes estaban ligados a aspectos positivos (fortalezas y oportunidades) lo que implica que el futuro de estas razas es prometedor. Los resultados de nuestro análisis también confirmaron la gran relevancia del valor cultural de estas razas. Las factores internos (fortalezas y debilidades) más importantes estaban relacionadas con los sistemas de producción y los ganaderos. Las oportunidades más relevantes estaban relacionadas con el desarrollo y marketing de nuevos productos mientras que las amenazas más importantes se encontraron a la hora de vender los productos actuales. Este resultado implica que sería fructífero trabajar en la motivación y colaboración entre ganaderos así como, en la mejora de sus capacidades. Concluimos que las políticas comunes europeas deberían centrarse en aspectos generales y ser los suficientemente flexibles para adaptarse a las singularidades de los países y las razas. Como ya se ha mencionado, los ganaderos juegan un papel esencial en la conservación y desarrollo de las razas autóctonas. Por ello es relevante entender que implicación puede tener la heterogeneidad de los mismos en la viabilidad de una raza. En la cuarta parte de la tesis hemos identificado tipos de ganaderos con el fin de entender cómo la relación entre la variabilidad de sus características socioeconómicas, los perfiles de las ganaderías y las dinámicas de las mismas. El análisis se ha realizado en un contexto sociológico, aplicando los conceptos de capital cultural y económico. Las tipologías se han determinado en función de factores socioeconómicos y culturales indicadores del capital cultural y capital económico de un individuo. Nuestro objetivo era estudiar si la tipología socioeconómica de los ganaderos afecta al perfil de su ganadería y a las decisiones que toman. Entrevistamos a 85 ganaderos de la raza Avileña-Negra Ibérica (ANI) y utilizamos los resultados de dichas entrevistas para ilustrar y testar el proceso. Definimos los tipos de ganaderos utilizando un análisis de clúster jerarquizado con un grupo de variables canónicas que se obtuvieron en función de cinco factores socioeconómicos: el nivel de educación del ganadero, el año en que empezó a ser ganadero de ANI, el porcentaje de los ingresos familiares que aporta la ganadería, el porcentaje de propiedad de la tierra de la explotación y la edad del ganadero. La tipología de los ganaderos de ANI resultó ser más compleja que en el pasado. Los resultados indicaron que los tipos de ganaderos variaban en muchos aspectos socioeconómicos y en los perfiles de sus Integration of socioeconomic and genetic aspects involved in the conservation of animal genetic resources 9 ganaderías. Los tipos de ganaderos determinados toman diferentes decisiones en relación a la modificación del tamaño de su ganadería y a sus objetivos de selección. Por otro lado, reaccionaron de forma diferente ante un hipotético escenario de reducción de las compensaciones económicas que les planteamos. En este estudio hemos visto que el capital cultural y el económico interactúan y hemos explicado como lo hacen en los distintos tipos de ganaderos. Por ejemplo, los ganaderos que poseían un mayor capital económico, capital cultural formal y capital cultural adquirido sobre la raza, eran los ganaderos cuyos animales tenían una mayor demanda por parte de otros ganaderos, lo cual podría responder a su mayor prestigio social dentro de la raza. Uno de los elementos claves para el futuro de la raza es si este prestigio responde a una superioridad genética de las animales. Esto ocurriría si los ganaderos utilizaran las herramientas que tienen a su disposición a la hora de seleccionar animales. Los tipos de ganaderos identificados mostraron también claras diferencias en sus formas de colaboración y en su reacción a una hipotética variación de las compensaciones económicas. Aunque algunos tipos de ganaderos mostraron un bajo nivel de dependencia a estas compensaciones, la mayoría se manifestaron altamente dependientes. Por ello cualquier cambio drástico en la política de ayudas puede comprometer el desarrollo de las razas autóctonas. La adaptación las políticas de compensaciones económicas a la heterogeneidad de los ganaderos podría aumentar la eficacia de las mismas por lo que sería interesante explorar posibilidades a este respecto. Concluimos destacando la necesidad de desarrollar políticas que tengan en cuenta la heterogeneidad de los ganaderos. Finalmente abordamos el estudio de la estructura genética de poblaciones ganaderas. Las decisiones de los ganaderos en relación a la selección de sementales y su número de descendientes configuran la estructura demográfica y genética de las razas. En la actualidad existe un interés renovado por estudiar las estructuras poblacionales debido a la influencia potencial de su estratificación sobre la predicción de valores genómicos y/o los análisis de asociación a genoma completo. Utilizamos dos métodos distintos, un algoritmo de clústeres basados en teoría de grafos (GCA) y un algoritmo de clustering bayesiano (STRUCTURE) para estudiar la estructura genética de la raza ANI. Prestamos especial atención al efecto de la presencia de parientes cercanos en la población y de la diferenciación genética entre subpoblaciones sobre el análisis de la estructura de la población. En primer lugar evaluamos el comportamiento de los dos algoritmos en poblaciones simuladas para posteriormente analizar los genotipos para 17 microsatélites de 13343 animales de 57 ganaderías distintas de raza ANI. La ANI es un ejemplo de raza con relaciones complejas. Por otro lado, utilizamos el archivo de pedigrí de la raza para estudiar el flujo de genes, calculando, entre otras cosas, la contribución de cada ganadería a la constitución genética de la raza. En el caso de las poblaciones simuladas, cuando el FST entre subpoblaciones fue suficientemente alto, ambos algoritmos, GCA y STRUCTURE, identificaron la misma estructura genética independientemente de que existieran o no relaciones familiares. Por el contrario, cuando el grado de diferenciación entre poblaciones fue bajo, el STRUCTURE identificó la estructura familiar mientras que GCA no permitió obtener ningún resultado concluyente. El GCA resultó ser un algoritmo más rápido y eficiente para de inferir la estructura genética en poblaciones con relaciones complejas. Este algoritmo también puede ser usado para reducir el número de clústeres a testar con el STRUTURE. En cuanto al análisis de la población de ANI, ambos algoritmos describieron la misma estructura, lo cual sugiere que los resultados son robustos. Se identificaron tres subpoblaciones diferenciadas que pudieran corresponderse con tres linajes distintos. Estos linajes estarían directamente relacionados con las ganaderías que han tenido una mayor contribución a la constitución genética de la raza. Por otro lado, hay un conjunto muy numeroso de individuos con una mezcla de orígenes. La información molecular describe una estructura estratificada de la población que se corresponde con la evolución demográfica de la raza. Es esencial analizar en mayor profundidad la composición de este último grupo de animales para determinar cómo afecta a la variabilidad genética de la población de ANI. SUMMARY Summary Livestock sector is gradually dominated by intensive and specialized systems where the production environment is controlled and the production traits are the main criteria for the selection of species and breeds. In the meantime, the traditional use of domestic animals for draught work, clothes and manure has been replaced by industrial products. As a consequence of both these changes, the intensively selected breeds closely linked with high-input highoutput production systems have displaced many native breeds where the selection has practically ceased or been very mild. People are now more aware of the state of endangerment among the native breeds and the previously ignored values of livestock are gaining recognition. For some decades now, the economic, socio-cultural, environmental and food security function of livestock breeds have been accepted worldwide and their loss has been recognized as a major problem. Therefore, the conservation of farm animal genetic resources (FAnGR) has been recommended. The conservation of FAnGR is controversial due to the complexity of the evaluation of its functions. This evaluation is difficult due to the nature of FAnGR both as private and public good. As some economists have highlighted, livestock animals are private goods, however, they are also public goods by their functions. Therefore, there is a need to increase the knowledge about the value of all livestock functions since to support the decision-making for the sustainable conservation and breeding of livestock. This is not straightforward since the relative importance of livestock functions depends on time, place, species and breed. Since livestock play a variety of roles, their production is driven by interrelated and everchanging economic, technical, environmental, social, cultural and political elements involving an enormous range of stakeholders. Not only FAnGR functions but also the importance of factors affecting the development and conservation of FAnGR can be very different across geographical areas. Furthermore, heterogeneity can be found even within breeds. Local breeds are nowadays raised by highly diverse farmers in equally diverse farms. It is quite reasonable to think that farmer is the major actor in the in situ conservation of livestock breeds. Thus, there is a need to understand the farmers’ motivations, decision making processes and the impact of their decisions on the genetic structure of breeds. In this PhD thesis we explore different social, economic and genetic aspects involved in the conservation of local cattle breeds, i.e. FAnGR, in Europe seeking to contribute to the scientific understanding of this complex issue. We aim to achieve a comprehensive view of the processes involved in the conservation and development of local cattle breeds and have made special efforts in discussing the implications of the research results in this respect. The final outcome of the thesis is to illustrate how quantitative methods can be exploited in designing and establishing sound strategies and programmes for the conservation and development of local livestock breeds. Firstly we explored the public non-market attributes of the total economic value (TEV) of livestock, using the Spanish Alistana-Sanabresa (AS) cattle breed as a case study. Total economic value of any good comprises both use and non-use components, where the latter include option, bequest and existence values. For livestock, the direct use values are mainly stemming from production outputs. Indirect use values relate to the role of livestock as a maintainer of rural culture and landscape. The option value is related to the potential use of livestock, the bequest values relate to the value associated with the inheritance of the resources to future generation and the existence values relate to the utility perceived by people from knowing that specific resources exist. We aimed to determine the relative importance of the non-market components of the TEV of the AS breed, the socio-economic variables that influence how people value the different components of TEV and to assess the implications of the Spanish national conservation strategy for the AS breed. To do so, we used a choice experiment (CE) approach and applied the technique to assess people’s willingness to pay (WTP) for the conservation of AS breed. The use of CE allows the valuation of the individual components of TEV for a given good. We analysed the choice data using a random parameter logit (RPL) model. AS breed was found to have a significant public good value. Its most important values were related to the indirect use value due to the maintenance of Zamorian culture and the existence value (both represent over 80% of its TEV). There were several socioeconomic variables influencing people’s valuation of the public service of the breed. In the case of AS breed, the place of living (city or rural area), having seen animals of the breed, having eaten breed products and the respondents’ attitude towards economic development – environment conflicts do influence people’s WTP for AS conservation. We also found that people do not have a complete picture of all the functions and roles that AS breed as AnGR. Therefore, the actions for increasing awareness of AS should go to that direction. The farmers will need incentives to exploit some of the public goods values and maintain the breed population size at socially desirable levels. One such mechanism could be related to the development of agritourism, which would enhance the private good value and provide an important addition to the conservation and utilisation strategy. However, the farmers need a serious evaluation on how to invest in niche product development or how to improve product quality and brand recognition. Using the understanding on the importance of the public function of local cattle we tried to depict the current diversity regarding technical, economic and social factors found in local cattle farming across Europe. To do so we focused in an international collaborative project on the case of fifteen local cattle breeds in eight European countries. We investigated the variation among the countries to detect the common key elements, which affect the viability of local breeds. We surveyed with interviews a total of 355 farms across the fifteen breeds. We used the planned herd size changes by the farmer as an indicator of breed viability. The questionnaire included several economic, technical and social aspects with potential influence on breeds’ demographic trends. We analysed the data using multivariate statistical techniques, such as discriminat analysis and logistic regression. The factors affecting a local breed’s viability were highly heterogeneous across Europe. In some countries, farmers did not recognise any high social value attached to keeping a local cattle breed. Hence there is a need to develop communication programmes across EU countries making people aware about the diversity and importance of values associated to raising local breeds. The countries were also very variable regarding the importance of local markets and the percentage of farm land owned by the farmers. Despite the country specificities, there were also common factors affecting the breed viability across Europe. The factors were from different grounds, from social, such as the age of the farmer and the social appreciation of their work, to technicalorganizational, such as the farmers’ attitude to collaborating with each other. The heterogeneity found reflects the variation in breeding systems and production environment (in the socioeconomic, technical and ecological sense) present in Europe. Therefore, caution should be taken in implementing common policies at the country level. Variability could also be rather high within countries due to breed specificities. Therefore, the national policies should be flexible to adapt to the specificities. The variables significantly associated with breed viability should be positively incorporated in the conservation strategies, and considered in developing common and/or national policies. The strategy preparation and policy planning should go beyond the provision of a general economic support to compensate farmers for the lower profitability of local breeds. Of particular interest is the observation that the opportunity for farmer collaboration and the appreciation by the society of the cultural, environmental and social role of local cattle farming were positively associated with the breed survival. In addition, farmer's high age is not only a problem of poor generation transfer but it is also a problem because it might lead to a lower attitude to investing in farming activities and to a lower ability to adapt to environment changes. The farmers’ adaptation capability may be a key point for the viability of local breeds. Decision making tools can help to get a comprehensive view on the conservation and development of local breeds. It allows us to use a systematic and structured approach for identifying and prioritizing conservation and development strategies. We used SWOT (Strengths, Weaknesses Opportunities and Threats) analysis for this purpose and recognized that many conservation and development projects rely on farmers. We developed a quantified SWOT method and applied it in the aforementioned collaborative research to a set of thirteen cattle breeds in six European countries. The method has four steps: definition of the system, identification and grouping of the driving factors, quantification of the importance of driving factors and identification and prioritization of the strategies. The factors were determined following a multi-stakeholder approach and grouped with a three level structure. FAnGR expert groups ranked the factors and a quantification process was implemented to identify and prioritize strategies. The structure of the SWOT analysis allowed analyzing the conservation problem from general down to specific perspectives. Joining breed specific analyses into a common SWOT analysis permitted comparison of breed cases across countries. We identified 99 driving factors across breeds. The across breed analysis revealed that irrelevant factors were consistent. There was high heterogeneity among the most relevant factors and strategies. The strategies increased eligibility as they lost specificity. Although the situation was very heterogeneous, the most promising factors and strategies were linked to the positive aspects (Strengths and Opportunities). Therefore, the future of the studied local breed is promising. The results of our analysis also confirmed the high relevance of the cultural value of the breeds. The most important internal factors (strengths and weaknesses) were related farmers and production systems. The most important opportunities were found in developing and marketing new products, while the most relevant threats were found in selling the current conventional products. In this regard, it should be fruitful to work on farmers’ motivation, collaboration, and capacity building. We conclude that European policies should focus on general aspects and be flexible enough to be adapted to the country and breed specificities. As mentioned, farmers have a key role in the conservation and development of a local cattle breed. Therefore, it is very relevant to understand the implications of farmer heterogeneity within a breed for its viability. In the fourth part of the thesis, we developed a general farmer typology to help analyzing the relations between farmer features and farm profiles, herd dynamics and farmers’ decision making. In the analysis we applied and used the sociological framework of economic and cultural capital and studied how the determined farmer types were linked to farm profiles and breeding decisions, among others. The typology was based on measurable socioeconomic factors indicating the economic and cultural capital of farmers. A group of 85 farmers raising the Spanish Avileña-Negra Ibérica (ANI) local cattle breed was used to illustrate and test the procedure. The farmer types were defined by a hierarchical cluster analysis with a set of canonical variables derived from the following five the socioeconomic factors: the formal educational level of the farmer, the year the farmer started keeping the ANI breed, the percentage of the total family income covered by the farm, the percentage of the total farm land owned by the farmer and the farmer’s age. The present ANI farmer types were much more complex than what they were in the past. We found that the farmer types differed in many socioeconomic aspects and in the farms profile. Furthermore, the types also differentiate farmers with respect to decisions about changing the farm size, breeding aims and stated reactions towards hypothetical subsidy variation. We have verified that economic and cultural capitals are not independent and further showed how they are interacting in the different farmer types. The farmers related to the types with high economic, institutionalized and embodied cultural capitals had a higher demand of breeding animals from others farmers of the breed, which may be related to the higher social prestige within the breed. One of the key implications of this finding for the future of the breed is whether or not the prestige of farmers is related to genetic superiority of their animals, what is to say, that it is related with a sound use of tools that farmers have available to make selection decisions. The farmer types differed in the form of collaboration and in the reactions to the hypothetical variation in subsidies. There were farmers with low dependency on subsidies, while most of them are highly dependent on subsidies. Therefore, any drastic change in the subsidy programme might have influence on the development of local breeds. The adaptation of these programme to the farmers’ heterogeneity might increase its efficacy, thus it would be interesting to explore ways of doing it. We conclude highlighting the need to have a variety of policies, which take into account the heterogeneity among the farmers. To finish we dealt with the genetic structure of livestock populations. Farmers’ decisions on the breeding animals and their progeny numbers shape the demographic and genetic structure of the breeds. Nowadays there is a renovated interest in studying the population structure since it can bias the prediction of genomic breeding values and genome wide association studies. We determined the genetic structure of ANI breed using two different methods, a graphical clustering algorithm (GCA) and a Bayesian clustering algorithm (STRUCTURE) were used. We paid particular attention to the influence that the presence of closely related individuals and the genetic differentiation of subpopulations may have on the inferences about the population structure. We first evaluated the performance of the algorithms in simulated populations. Then we inferred the genetic structure of the Spanish cattle breed ANI analysing a data set of 13343 animals (genotyped for 17 microsatellites) from 57 herds. ANI breed is an example of a population with complex relationships. We used the herdbook to study the gene flow, estimation among other things, the contribution of different herds to the genetic composition of the ANI breed. For the simulated scenarios, when FST among subpopulations was sufficiently high, both algorithms consistently inferred the correct structure regardless of the presence of related individuals. However, when the genetic differentiation among subpopulations was low, STRUCTURE identified the family based structure while GCA did not provide any consistent picture. The GCA was a fast and efficient method to infer genetic structure to determine the hidden core structure of a population with complex history and relationships. GCA could also be used to narrow down the number of clusters to be tested by STRUCTURE. Both, STRUCTURE and GCA describe a similar structure for the ANI breed suggesting that the results are robust. ANI population was found to have three genetically differentiated clusters that could correspond to three genetic lineages. These are directly related to the herds with a major contribution to the breed. In addition, ANI breed has also a large pool made of individuals with an admixture of origins. The genetic structure of ANI, assessed by molecular information, shows a stratification that corresponds to the demographic evolution of the breed. It will be of great importance to learn more about the composition of the pool and study how it is related to the existing genetic variability of the breed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is easy to get frustrated at spoken conversational agents (SCAs), perhaps because they seem to be callous. By and large, the quality of human-computer interaction is affected due to the inability of the SCAs to recognise and adapt to user emotional state. Now with the mass appeal of artificially-mediated communication, there has been an increasing need for SCAs to be socially and emotionally intelligent, that is, to infer and adapt to their human interlocutors’ emotions on the fly, in order to ascertain an affective, empathetic and naturalistic interaction. An enhanced quality of interaction would reduce users’ frustrations and consequently increase their satisfactions. These reasons have motivated the development of SCAs towards including socio-emotional elements, turning them into affective and socially-sensitive interfaces. One barrier to the creation of such interfaces has been the lack of methods for modelling emotions in a task-independent environment. Most emotion models for spoken dialog systems are task-dependent and thus cannot be used “as-is” in different applications. This Thesis focuses on improving this, in which it concerns computational modeling of emotion, personality and their interrelationship for task-independent autonomous SCAs. The generation of emotion is driven by needs, inspired by human’s motivational systems. The work in this Thesis is organised in three stages, each one with its own contribution. The first stage involved defining, integrating and quantifying the psychological-based motivational and emotional models sourced from. Later these were transformed into a computational model by implementing them into software entities. The computational model was then incorporated and put to test with an existing SCA host, a HiFi-control agent. The second stage concerned automatic prediction of affect, which has been the main challenge towards the greater aim of infusing social intelligence into the HiFi agent. In recent years, studies on affect detection from voice have moved on to using realistic, non-acted data, which is subtler. However, it is more challenging to perceive subtler emotions and this is demonstrated in tasks such as labelling and machine prediction. In this stage, we attempted to address part of this challenge by considering the roles of user satisfaction ratings and conversational/dialog features as the respective target and predictors in discriminating contentment and frustration, two types of emotions that are known to be prevalent within spoken human-computer interaction. The final stage concerned the evaluation of the emotional model through the HiFi agent. A series of user studies with 70 subjects were conducted in a real-time environment, each in a different phase and with its own conditions. All the studies involved the comparisons between the baseline non-modified and the modified agent. The findings have gone some way towards enhancing our understanding of the utility of emotion in spoken dialog systems in several ways; first, an SCA should not express its emotions blindly, albeit positive. Rather, it should adapt its emotions to user states. Second, low performance in an SCA may be compensated by the exploitation of emotion. Third, the expression of emotion through the exploitation of prosody could better improve users’ perceptions of an SCA compared to exploiting emotions through just lexical contents. Taken together, these findings not only support the success of the emotional model, but also provide substantial evidences with respect to the benefits of adding emotion in an SCA, especially in mitigating users’ frustrations and ultimately improving their satisfactions. Resumen Es relativamente fácil experimentar cierta frustración al interaccionar con agentes conversacionales (Spoken Conversational Agents, SCA), a menudo porque parecen ser un poco insensibles. En general, la calidad de la interacción persona-agente se ve en cierto modo afectada por la incapacidad de los SCAs para identificar y adaptarse al estado emocional de sus usuarios. Actualmente, y debido al creciente atractivo e interés de dichos agentes, surge la necesidad de hacer de los SCAs unos seres cada vez más sociales y emocionalmente inteligentes, es decir, con capacidad para inferir y adaptarse a las emociones de sus interlocutores humanos sobre la marcha, de modo que la interacción resulte más afectiva, empática y, en definitiva, natural. Una interacción mejorada en este sentido permitiría reducir la posible frustración de los usuarios y, en consecuencia, mejorar el nivel de satisfacción alcanzado por los mismos. Estos argumentos justifican y motivan el desarrollo de nuevos SCAs con capacidades socio-emocionales, dotados de interfaces afectivas y socialmente sensibles. Una de las barreras para la creación de tales interfaces ha sido la falta de métodos de modelado de emociones en entornos independientes de tarea. La mayoría de los modelos emocionales empleados por los sistemas de diálogo hablado actuales son dependientes de tarea y, por tanto, no pueden utilizarse "tal cual" en diferentes dominios o aplicaciones. Esta tesis se centra precisamente en la mejora de este aspecto, la definición de modelos computacionales de las emociones, la personalidad y su interrelación para SCAs autónomos e independientes de tarea. Inspirada en los sistemas motivacionales humanos en el ámbito de la psicología, la tesis propone un modelo de generación/producción de la emoción basado en necesidades. El trabajo realizado en la presente tesis está organizado en tres etapas diferenciadas, cada una con su propia contribución. La primera etapa incluyó la definición, integración y cuantificación de los modelos motivacionales de partida y de los modelos emocionales derivados a partir de éstos. Posteriormente, dichos modelos emocionales fueron plasmados en un modelo computacional mediante su implementación software. Este modelo computacional fue incorporado y probado en un SCA anfitrión ya existente, un agente con capacidad para controlar un equipo HiFi, de alta fidelidad. La segunda etapa se orientó hacia el reconocimiento automático de la emoción, aspecto que ha constituido el principal desafío en relación al objetivo mayor de infundir inteligencia social en el agente HiFi. En los últimos años, los estudios sobre reconocimiento de emociones a partir de la voz han pasado de emplear datos actuados a usar datos reales en los que la presencia u observación de emociones se produce de una manera mucho más sutil. El reconocimiento de emociones bajo estas condiciones resulta mucho más complicado y esta dificultad se pone de manifiesto en tareas tales como el etiquetado y el aprendizaje automático. En esta etapa, se abordó el problema del reconocimiento de las emociones del usuario a partir de características o métricas derivadas del propio diálogo usuario-agente. Gracias a dichas métricas, empleadas como predictores o indicadores del grado o nivel de satisfacción alcanzado por el usuario, fue posible discriminar entre satisfacción y frustración, las dos emociones prevalentes durante la interacción usuario-agente. La etapa final corresponde fundamentalmente a la evaluación del modelo emocional por medio del agente Hifi. Con ese propósito se llevó a cabo una serie de estudios con usuarios reales, 70 sujetos, interaccionando con diferentes versiones del agente Hifi en tiempo real, cada uno en una fase diferente y con sus propias características o capacidades emocionales. En particular, todos los estudios realizados han profundizado en la comparación entre una versión de referencia del agente no dotada de ningún comportamiento o característica emocional, y una versión del agente modificada convenientemente con el modelo emocional propuesto. Los resultados obtenidos nos han permitido comprender y valorar mejor la utilidad de las emociones en los sistemas de diálogo hablado. Dicha utilidad depende de varios aspectos. En primer lugar, un SCA no debe expresar sus emociones a ciegas o arbitrariamente, incluso aunque éstas sean positivas. Más bien, debe adaptar sus emociones a los diferentes estados de los usuarios. En segundo lugar, un funcionamiento relativamente pobre por parte de un SCA podría compensarse, en cierto modo, dotando al SCA de comportamiento y capacidades emocionales. En tercer lugar, aprovechar la prosodia como vehículo para expresar las emociones, de manera complementaria al empleo de mensajes con un contenido emocional específico tanto desde el punto de vista léxico como semántico, ayuda a mejorar la percepción por parte de los usuarios de un SCA. Tomados en conjunto, los resultados alcanzados no sólo confirman el éxito del modelo emocional, sino xv que constituyen además una evidencia decisiva con respecto a los beneficios de incorporar emociones en un SCA, especialmente en cuanto a reducir el nivel de frustración de los usuarios y, en última instancia, mejorar su satisfacción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A día de hoy, XML (Extensible Markup Language) es uno de los formatos más utilizados para el intercambio y almacenamiento de información estructurada en la World Wide Web. Es habitual que las aplicaciones que utilizan archivos XML presupongan en ellos una estructura determinada, pudiendo producirse errores si se intentase emplear documentos que no la cumplan. A fin de poder expresar este tipo de limitaciones y poder verificar que un documento las cumple, se definió en el mismo estándar XML el DTD, si bien pronto se mostró bastante limitado en cuanto a su capacidad expresiva. Es por este motivo que se decidió crear el XML Schema, un lenguaje XML para definir qué estructura deben tener otros documentos XML. Contar con un esquema tiene múltiples ventajas, siendo la principal de ellas el poder validar documentos contra él para comprobar si su estructura es correcta u otras como la generación automática de código. Sin embargo, definir una estructura común a varios documentos XML de una manera óptima puede convertirse en una tarea ardua si se hace de manera manual. Este problema puede salvarse contando con una herramienta que automatice el proceso de creación de dichos XSDs. En este proyecto, desarrollaremos una herramienta en Java que, a partir de una serie de documentos XML de entrada, inferirá automáticamente un esquema contra el que validen todos ellos, expresando su estructura de manera completa y concisa. Dicha herramienta permitirá elegir varios parámetros de inferencia, a fin de que el esquema generado se adapte lo más posible a los propósitos del usuario. Esta herramienta generará también una serie de estadísticas adicionales, que permitirán conocer más información sobre los ficheros de entrada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Proyecto Fin de Grado tiene como objetivo fundamental el perfeccionamiento y puesta en explotación de un sistema de ayuda a la decisión que evalúa el desarrollo del lenguaje en niños de 0 a 6 años de edad. Este sistema está formado fundamentalmente por una aplicación diseñada y construida mediante una arquitectura de componentes de software modular y reutilizable. La aplicación será usada por los pediatras para realizar evaluaciones del desarrollo del lenguaje infantil y además por los neuropediatras, logopedas y miembros de equipos de Atención Temprana para consultar las evaluaciones y validar las decisiones propuestas por el sistema. El sistema es accesible vía web y almacena toda la información que maneja en una base de datos. Asimismo, el sistema se apoya en un modelo conceptual u ontología desarrollado previamente para inferir las decisiones adecuadas para las evaluaciones del lenguaje. El sistema incorpora las funciones de gestión de los usuarios del mismo. ABSTRACT This Grade End Project has as fundamental objective the improvement and deployment of a decision support system for evaluating children language development from 0 to 6 years of age. This system is mainly formed by an application designed and built using a modular and reusable software component architecture. The application will be used by pediatricians for evaluating children´s speech development and also by neuro-pediatricians, speech therapists and early childhood intervention team members, for consulting previous evaluations and for validating system´s proposed decision. The system is web based and stores its information in a database. Likewise, the system is supported by a conceptual model or ontology previously developed to infer the appropriate decision for language evaluation. The system also includes user management functions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis estudia la monitorización y gestión de la Calidad de Experiencia (QoE) en los servicios de distribución de vídeo sobre IP. Aborda el problema de cómo prevenir, detectar, medir y reaccionar a las degradaciones de la QoE desde la perspectiva de un proveedor de servicios: la solución debe ser escalable para una red IP extensa que entregue flujos individuales a miles de usuarios simultáneamente. La solución de monitorización propuesta se ha denominado QuEM(Qualitative Experience Monitoring, o Monitorización Cualitativa de la Experiencia). Se basa en la detección de las degradaciones de la calidad de servicio de red (pérdidas de paquetes, disminuciones abruptas del ancho de banda...) e inferir de cada una una descripción cualitativa de su efecto en la Calidad de Experiencia percibida (silencios, defectos en el vídeo...). Este análisis se apoya en la información de transporte y de la capa de abstracción de red de los flujos codificados, y permite caracterizar los defectos más relevantes que se observan en este tipo de servicios: congelaciones, efecto de “cuadros”, silencios, pérdida de calidad del vídeo, retardos e interrupciones en el servicio. Los resultados se han validado mediante pruebas de calidad subjetiva. La metodología usada en esas pruebas se ha desarrollado a su vez para imitar lo más posible las condiciones de visualización de un usuario de este tipo de servicios: los defectos que se evalúan se introducen de forma aleatoria en medio de una secuencia de vídeo continua. Se han propuesto también algunas aplicaciones basadas en la solución de monitorización: un sistema de protección desigual frente a errores que ofrece más protección a las partes del vídeo más sensibles a pérdidas, una solución para minimizar el impacto de la interrupción de la descarga de segmentos de Streaming Adaptativo sobre HTTP, y un sistema de cifrado selectivo que encripta únicamente las partes del vídeo más sensibles. También se ha presentado una solución de cambio rápido de canal, así como el análisis de la aplicabilidad de los resultados anteriores a un escenario de vídeo en 3D. ABSTRACT This thesis proposes a comprehensive approach to the monitoring and management of Quality of Experience (QoE) in multimedia delivery services over IP. It addresses the problem of preventing, detecting, measuring, and reacting to QoE degradations, under the constraints of a service provider: the solution must scale for a wide IP network delivering individual media streams to thousands of users. The solution proposed for the monitoring is called QuEM (Qualitative Experience Monitoring). It is based on the detection of degradations in the network Quality of Service (packet losses, bandwidth drops...) and the mapping of each degradation event to a qualitative description of its effect in the perceived Quality of Experience (audio mutes, video artifacts...). This mapping is based on the analysis of the transport and Network Abstraction Layer information of the coded stream, and allows a good characterization of the most relevant defects that exist in this kind of services: screen freezing, macroblocking, audio mutes, video quality drops, delay issues, and service outages. The results have been validated by subjective quality assessment tests. The methodology used for those test has also been designed to mimic as much as possible the conditions of a real user of those services: the impairments to evaluate are introduced randomly in the middle of a continuous video stream. Based on the monitoring solution, several applications have been proposed as well: an unequal error protection system which provides higher protection to the parts of the stream which are more critical for the QoE, a solution which applies the same principles to minimize the impact of incomplete segment downloads in HTTP Adaptive Streaming, and a selective scrambling algorithm which ciphers only the most sensitive parts of the media stream. A fast channel change application is also presented, as well as a discussion about how to apply the previous results and concepts in a 3D video scenario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas de seguimiento mono-cámara han demostrado su notable capacidad para el análisis de trajectorias de objectos móviles y para monitorización de escenas de interés; sin embargo, tanto su robustez como sus posibilidades en cuanto a comprensión semántica de la escena están fuertemente limitadas por su naturaleza local y monocular, lo que los hace insuficientes para aplicaciones realistas de videovigilancia. El objetivo de esta tesis es la extensión de las posibilidades de los sistemas de seguimiento de objetos móviles para lograr un mayor grado de robustez y comprensión de la escena. La extensión propuesta se divide en dos direcciones separadas. La primera puede considerarse local, ya que está orientada a la mejora y enriquecimiento de las posiciones estimadas para los objetos móviles observados directamente por las cámaras del sistema; dicha extensión se logra mediante el desarrollo de un sistema multi-cámara de seguimiento 3D, capaz de proporcionar consistentemente las posiciones 3D de múltiples objetos a partir de las observaciones capturadas por un conjunto de sensores calibrados y con campos de visión solapados. La segunda extensión puede considerarse global, dado que su objetivo consiste en proporcionar un contexto global para relacionar las observaciones locales realizadas por una cámara con una escena de mucho mayor tamaño; para ello se propone un sistema automático de localización de cámaras basado en las trayectorias observadas de varios objetos móviles y en un mapa esquemático de la escena global monitorizada. Ambas líneas de investigación se tratan utilizando, como marco común, técnicas de estimación bayesiana: esta elección está justificada por la versatilidad y flexibilidad proporcionada por dicho marco estadístico, que permite la combinación natural de múltiples fuentes de información sobre los parámetros a estimar, así como un tratamiento riguroso de la incertidumbre asociada a las mismas mediante la inclusión de modelos de observación específicamente diseñados. Además, el marco seleccionado abre grandes posibilidades operacionales, puesto que permite la creación de diferentes métodos numéricos adaptados a las necesidades y características específicas de distintos problemas tratados. El sistema de seguimiento 3D con múltiples cámaras propuesto está específicamente diseñado para permitir descripciones esquemáticas de las medidas realizadas individualmente por cada una de las cámaras del sistema: esta elección de diseño, por tanto, no asume ningún algoritmo específico de detección o seguimiento 2D en ninguno de los sensores de la red, y hace que el sistema propuesto sea aplicable a redes reales de vigilancia con capacidades limitadas tanto en términos de procesamiento como de transmision. La combinación robusta de las observaciones capturadas individualmente por las cámaras, ruidosas, incompletas y probablemente contaminadas por falsas detecciones, se basa en un metodo de asociación bayesiana basado en geometría y color: los resultados de dicha asociación permiten el seguimiento 3D de los objetos de la escena mediante el uso de un filtro de partículas. El sistema de fusión de observaciones propuesto tiene, como principales características, una gran precisión en términos de localización 3D de objetos, y una destacable capacidad de recuperación tras eventuales errores debidos a un número insuficiente de datos de entrada. El sistema automático de localización de cámaras se basa en la observación de múltiples objetos móviles y un mapa esquemático de las áreas transitables del entorno monitorizado para inferir la posición absoluta de dicho sensor. Para este propósito, se propone un novedoso marco bayesiano que combina modelos dinámicos inducidos por el mapa en los objetos móviles presentes en la escena con las trayectorias observadas por la cámara, lo que representa un enfoque nunca utilizado en la literatura existente. El sistema de localización se divide en dos sub-tareas diferenciadas, debido a que cada una de estas tareas requiere del diseño de algoritmos específicos de muestreo para explotar en profundidad las características del marco desarrollado: por un lado, análisis de la ambigüedad del caso específicamente tratado y estimación aproximada de la localización de la cámara, y por otro, refinado de la localización de la cámara. El sistema completo, diseñado y probado para el caso específico de localización de cámaras en entornos de tráfico urbano, podría tener aplicación también en otros entornos y sensores de diferentes modalidades tras ciertas adaptaciones. ABSTRACT Mono-camera tracking systems have proved their capabilities for moving object trajectory analysis and scene monitoring, but their robustness and semantic possibilities are strongly limited by their local and monocular nature and are often insufficient for realistic surveillance applications. This thesis is aimed at extending the possibilities of moving object tracking systems to a higher level of scene understanding. The proposed extension comprises two separate directions. The first one is local, since is aimed at enriching the inferred positions of the moving objects within the area of the monitored scene directly covered by the cameras of the system; this task is achieved through the development of a multi-camera system for robust 3D tracking, able to provide 3D tracking information of multiple simultaneous moving objects from the observations reported by a set of calibrated cameras with semi-overlapping fields of view. The second extension is global, as is aimed at providing local observations performed within the field of view of one camera with a global context relating them to a much larger scene; to this end, an automatic camera positioning system relying only on observed object trajectories and a scene map is designed. The two lines of research in this thesis are addressed using Bayesian estimation as a general unifying framework. Its suitability for these two applications is justified by the flexibility and versatility of that stochastic framework, which allows the combination of multiple sources of information about the parameters to estimate in a natural and elegant way, addressing at the same time the uncertainty associated to those sources through the inclusion of models designed to this end. In addition, it opens multiple possibilities for the creation of different numerical methods for achieving satisfactory and efficient practical solutions to each addressed application. The proposed multi-camera 3D tracking method is specifically designed to work on schematic descriptions of the observations performed by each camera of the system: this choice allows the use of unspecific off-the-shelf 2D detection and/or tracking subsystems running independently at each sensor, and makes the proposal suitable for real surveillance networks with moderate computational and transmission capabilities. The robust combination of such noisy, incomplete and possibly unreliable schematic descriptors relies on a Bayesian association method, based on geometry and color, whose results allow the tracking of the targets in the scene with a particle filter. The main features exhibited by the proposal are, first, a remarkable accuracy in terms of target 3D positioning, and second, a great recovery ability after tracking losses due to insufficient input data. The proposed system for visual-based camera self-positioning uses the observations of moving objects and a schematic map of the passable areas of the environment to infer the absolute sensor position. To this end, a new Bayesian framework combining trajectory observations and map-induced dynamic models for moving objects is designed, which represents an approach to camera positioning never addressed before in the literature. This task is divided into two different sub-tasks, setting ambiguity analysis and approximate position estimation, on the one hand, and position refining, on the other, since they require the design of specific sampling algorithms to correctly exploit the discriminative features of the developed framework. This system, designed for camera positioning and demonstrated in urban traffic environments, can also be applied to different environments and sensors of other modalities after certain required adaptations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

España cuenta con un vasto catálogo de patrimonio edificado en obra de fábrica, tanto en el ámbito religioso como en el civil, que recorre un largo camino histórico desde épocas grecorromanas hasta principios del siglo XX. A lo largo de todos estos siglos, la introducción de nuevos materiales como el hormigón o el acero desplazaron el uso del ladrillo y de la piedra en estructuras a situaciones muy puntuales, lo que llevó durante mucho tiempo al olvido de las técnicas propias de estos materiales y a la ausencia de desarrollo de ensayos y estudios sobre ellos. De hecho, no se trata de una situación únicamente española, sino generalizada a nivel internacional. Todo esto, unido a la dificultad de caracterizar convenientemente los materiales componentes y la interfaz, a la gran variedad de patologías que pueden afectar a las fábricas y a la actuación de cargas de largo periodo de retorno, ha provocado que los arquitectos e ingenieros actuales carezcan de herramientas y de un marco normativo adecuados a la hora de aproximarse a este tipo de edificios. La consecuencia directa ha sido la profusión de ejemplos de intervenciones erróneas en los edificios históricos, tanto desde el punto de vista estructural como estético. Se hace, pues, perentorio desarrollar métodos de cálculo y de investigación que proporcionen las herramientas necesarias para ello y devuelvan el interés profesional y académico hacia la obra de fábrica entendida como material estructural. A raíz de lo expuesto anteriormente, el objeto de este trabajo es el de analizar el comportamiento estático de un edificio histórico desde varios puntos de vista: - La caracterización de los materiales. - El comportamiento de los elementos estructurales aislados. - El comportamiento del sistema estructural, tanto en su configuración actual como en su evolución a lo largo de las diversas reformas sufridas. - Las patologías observadas y la adecuación de los cálculos realizados a las mismas. La intención es la de establecer pautas de estudio y herramientas aplicables a otros edificios y situaciones, pero sin propósito de generalización. La metodología utilizada es la del Cálculo Límite o Rígido-plástico, de tipo I, basado en hallar la línea de acción de los empujes en el interior de la fábrica, y que será definido más adelante. Se ha escogido este método porque aúna la economía de medios y la necesidad de pocos datos, fundamentalmente geométricos, con el aporte de información muy valiosa sobre el nivel de cargas y el modo en que responde la estructura. Se renuncia desde el principio a realizar análisis de tipo II y tipo III, por considerar que resultan excesivamente laboriosos en comparación con la información que se busca. Además, de las propias líneas de empuje obtenidas se pueden inferir, que no determinar, tensiones y deformaciones en el edificio, especialmente a través del procedimiento de cálculo utilizado en la asignatura Conservación y Rehabilitación de Estructuras Históricas, de este máster, impartida por el profesor D. Javier León González, por el que se obtiene, no una trayectoria de empujes, sino todas las posibles a través de una serie de valores límites. Para este trabajo se ha elegido la Iglesia Parroquial de Nuestra Señora de la Oliva, de Lebrija, provincia de Sevilla, por varios motivos. De un lado, se trata de un edificio encuadrado en un momento histórico, el de la conquista castellana de los territorios de Al-Ándalus, en el que se construyen numerosos edificios religiosos y civiles con los que comparte muchas de sus características. Por otro lado, y dentro del mismo contexto, sus particularidades lo convierten en un ejemplo claramente diferenciado y catálogo de soluciones constructivas y estructurales. Por último, se trata de una construcción que ha ido evolucionando en el tiempo, aportando lenguajes y técnicas diferentes, pero que conviven en gran armonía, sin que haya perdido su unicidad en ningún momento (salvo por pequeños elementos en mi opinión disonantes) desde el núcleo original de tipo mudéjar alfonsí (s. XIII) hasta la construcción de su torre campanario en el s. XVIII, pasando por ampliaciones y modificaciones en los siglos XIV a XVII. El ámbito de este trabajo se limita al núcleo mudéjar original junto con la ampliación renacentista del salón principal. Se excluyen por tanto la sacristía y dependencias anexas, la torre campanario y los patios, por ser elementos independientes del resto del conjunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se hace un análisis en profundidad de las técnicas de ataque a las redes de ordenadores conocidas como APTs (Advanced Persistent Threats), viendo cuál es el impacto que pueden llegar a tener en los equipos de una empresa y el posible robo de información y pérdida monetaria que puede llevar asociada. Para hacer esta introspección veremos qué técnicas utilizan los atacantes para introducir el malware en la red y también cómo dicho malware escala privilegios, obtiene información privilegiada y se mantiene oculto. Además, y cómo parte experimental de este proyecto se ha desarrollado una plataforma para la detección de malware de una red en base a las webs, URLs e IPs que visitan los nodos que la componen. Obtendremos esta visión gracias a la extracción de los logs y registros de DNS de consulta de la compañía, sobre los que realizaremos un análisis exhaustivo. Para poder inferir correctamente qué equipos están infectados o no se ha utilizado un algoritmo de desarrollo propio inspirado en la técnica Belief Propagation (“Propagación basada en creencia”) que ya ha sido usada antes por desarrolladores cómo los de los Álamos en Nuevo México (Estados Unidos) para fines similares a los que aquí se muestran. Además, para mejorar la velocidad de inferencia y el rendimiento del sistema se propone un algoritmo adaptado a la plataforma Hadoop de Apache, por lo que se modifica el paradigma de programación habitual y se busca un nuevo paradigma conocido como MapReduce que consiste en la división de la información en conceptos clave-valor. Por una parte, los algoritmos que existen basados en Belief Propagation para el descubrimiento de malware son propietarios y no han sido publicados completamente hasta la fecha, por otra parte, estos algoritmos aún no han sido adaptados a Hadoop ni a ningún modelo de programación distribuida aspecto que se abordará en este proyecto. No es propósito de este proyecto desarrollar una plataforma comercial o funcionalmente completa, sino estudiar el problema de las APTs y una implementación que demuestre que la plataforma mencionada es factible de implementar. Este proyecto abre, a su vez, un horizonte nuevo de investigación en el campo de la adaptación al modelo MapReduce de algoritmos del tipo Belief Propagation basados en la detección del malware mediante registros DNS. ABSTRACT. This project makes an in-depth investigation about problems related to APT in computer networks nowadays, seeing how much damage could they inflict on the hosts of a Company and how much monetary and information loss may they cause. In our investigation we will find what techniques are generally applied by attackers to inject malware into networks and how this malware escalates its privileges, extracts privileged information and stays hidden. As the main part of this Project, this paper shows how to develop and configure a platform that could detect malware from URLs and IPs visited by the hosts of the network. This information can be extracted from the logs and DNS query records of the Company, on which we will make an analysis in depth. A self-developed algorithm inspired on Belief Propagation technique has been used to infer which hosts are infected and which are not. This technique has been used before by developers of Los Alamos Lab (New Mexico, USA) for similar purposes. Moreover, this project proposes an algorithm adapted to Apache Hadoop Platform in order to improve the inference speed and system performance. This platform replaces the traditional coding paradigm by a new paradigm called MapReduce which splits and shares information among hosts and uses key-value tokens. On the one hand, existing algorithms based on Belief Propagation are part of owner software and they have not been published yet because they have been patented due to the huge economic benefits they could give. On the other hand these algorithms have neither been adapted to Hadoop nor to other distributed coding paradigms. This situation turn the challenge into a complicated problem and could lead to a dramatic increase of its installation difficulty on a client corporation. The purpose of this Project is to develop a complete and 100% functional brand platform. Herein, show a short summary of the APT problem will be presented and make an effort will be made to demonstrate the viability of an APT discovering platform. At the same time, this project opens up new horizons of investigation about adapting Belief Propagation algorithms to the MapReduce model and about malware detection with DNS records.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.