948 resultados para Muestreo de densidad de probabilidad
Resumo:
Plantearemos el concepto de zona de densidad como eje de lectura de las novelas El laberinto griego (1991) de Manuel Vázquez Montalbán, y La bestia de las diagonales (1999) de Néstor Ponce. Dicho concepto podría pensarse como una suerte de fuerza centrípeta que atrae elementos ficcionales y del mundo referencial hacia un puntual momento narrativo; es la confluencia de elementos de diverso nivel, estructural, procedimental, temático, en una zona densa de sentidos donde todo lo anterior se sobrescribe y resignifica. Ambas novelas, policiales, focalizan en la urbe tradiciones genéricas, arquitectónicas, políticas, que vienen a encontrarse en zonas densas de sentido que se despliegan a la mirada. Tal es el caso de la idea de laberinto que está presente en ambas ciudades, Barcelona y La Plata como consecuencia los desarrollos arquitectónicos urbanos que son muestras de proyectos políticos más amplios
Resumo:
Fil: Anzoátegui, Micaela. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación. Instituto de Investigaciones en Humanidades y Ciencias Sociales (UNLP-CONICET); Argentina.
Resumo:
El presente artículo indaga acerca del proceso de creación de Leónidas Lamborghini a partir del concepto de margen, entendido como diferencia, valor agregado y lugar de la apropiación. A lo largo del trabajo se muestra la existencia en el proceso escritural 'a partir de textos ajenos y propios' de un espacio de creación en el que Lamborghini distorsiona, subvierte, produce plusvalor (en la apropiación) que vuelca en su propia narrativa. Asimismo y a partir de la consulta, el relevamiento y la descripción de los pre-textos de Trento se muestra cómo una parte fundamental de la génesis de la escritura de Lamborghini se encuentra en esas glosas de los márgenes de sus manuscritos
Resumo:
El carácter de la heterogeneidad social, económica y productiva de la agriculturización se evidencia en los diversos tipos de productores existentes en la pampa húmeda. La agriculturización se asocia a modificaciones en la calidad de las tierras, en la estructura socio-productiva, en las estrategias productivas aplicadas y en las formas de uso del suelo. Suele plantearse sin embargo que las problemáticas edáficas asociadas a dicha agriculturización, son consecuencia de la aplicación de paquetes tecnológicos relativamente homogéneos, independientemente de los diferentes tipos de productores que los llevan a cabo. Nuestra hipótesis consiste en cambio, en que el deterioro en Argiudoles típicos pampeanos es el resultado, dadas distintas posiciones del relieve, de complejas combinaciones de diversas estrategias productivas adoptadas por diferentes tipos de productores. En el partido de Luján tipificamos los productores tomando en consideración sus niveles de capitalización (capitalizados y no capitalizados) y su organización del trabajo (familiar y no familiar). Definimos cinco estrategias productivas (4 agrícolas -con uno o dos cultivos por año, con siembra directa o labranza convencional- y 1 ganadera) y dos ambientes (loma y bajo). A partir del catastro municipal aplicamos una encuesta a una muestra estratificada estadísticamente representativa, por ubicación y tamaño de lotes. Sobre la misma realizamos el muestreo que nos permitió analizar los siguientes parámetros: profundidad del horizonte, densidad aparente, materia orgánica, acidez, nitrógeno, fósforo, potasio. Calculamos el contenido de materia orgánica y de nitrógeno por hectárea, y el deterioro relativo. Realizamos test de hipótesis de comparación de medias, prueba F y prueba t; y, calculamos finalmente los deterioros relativos. Utilizamos como indicador el contenido de materia orgánica por hectárea, dada su mayor sensibilidad a los cambios en las condiciones del suelo. Dos de nuestros principales hallazgos nos indican, en primer lugar, que al cultivar en lomas y con siembra directa, todos los tipos de productores presentaron los valores más bajos de deterioro relativo, excepto los familiares no capitalizados que obtienen los menores deterioros relativos con labranza convencional, aún en los bajos. Estos productores utilizan la ganadería en rotación con los cultivos como táctica de cuidado del suelo. Los empresarios capitalizados presentan los mayores valores de deterioro relativo en los bajos. Los familiares presentan menores pérdidas, cuando son capitalizados logran las mejores situaciones relativas al aplicar siembra directa en los bajos. En segundo lugar, ninguna dimensión -tipo de productor, estrategias productivas, ambientes- analizada aisladamente determina el deterioro relativo de los suelos. Pero, al mismo tiempo, ninguno puede ser descartado sino que debería ser incluido en una combinación que integre las condiciones de ambiente y las estrategias productivas de los diferentes tipos de productores que manejan los suelos.
Resumo:
El estudio de la fiabilidad de componentes y sistemas tiene gran importancia en diversos campos de la ingenieria, y muy concretamente en el de la informatica. Al analizar la duracion de los elementos de la muestra hay que tener en cuenta los elementos que no fallan en el tiempo que dure el experimento, o bien los que fallen por causas distintas a la que es objeto de estudio. Por ello surgen nuevos tipos de muestreo que contemplan estos casos. El mas general de ellos, el muestreo censurado, es el que consideramos en nuestro trabajo. En este muestreo tanto el tiempo hasta que falla el componente como el tiempo de censura son variables aleatorias. Con la hipotesis de que ambos tiempos se distribuyen exponencialmente, el profesor Hurt estudio el comportamiento asintotico del estimador de maxima verosimilitud de la funcion de fiabilidad. En principio parece interesante utilizar metodos Bayesianos en el estudio de la fiabilidad porque incorporan al analisis la informacion a priori de la que se dispone normalmente en problemas reales. Por ello hemos considerado dos estimadores Bayesianos de la fiabilidad de una distribucion exponencial que son la media y la moda de la distribucion a posteriori. Hemos calculado la expansion asint6tica de la media, varianza y error cuadratico medio de ambos estimadores cuando la distribuci6n de censura es exponencial. Hemos obtenido tambien la distribucion asintotica de los estimadores para el caso m3s general de que la distribucion de censura sea de Weibull. Dos tipos de intervalos de confianza para muestras grandes se han propuesto para cada estimador. Los resultados se han comparado con los del estimador de maxima verosimilitud, y con los de dos estimadores no parametricos: limite producto y Bayesiano, resultando un comportamiento superior por parte de uno de nuestros estimadores. Finalmente nemos comprobado mediante simulacion que nuestros estimadores son robustos frente a la supuesta distribuci6n de censura, y que uno de los intervalos de confianza propuestos es valido con muestras pequenas. Este estudio ha servido tambien para confirmar el mejor comportamiento de uno de nuestros estimadores. SETTING OUT AND SUMMARY OF THE THESIS When we study the lifetime of components it's necessary to take into account the elements that don't fail during the experiment, or those that fail by reasons which are desirable to exclude from consideration. The model of random censorship is very usefull for analysing these data. In this model the time to failure and the time censor are random variables. We obtain two Bayes estimators of the reliability function of an exponential distribution based on randomly censored data. We have calculated the asymptotic expansion of the mean, variance and mean square error of both estimators, when the censor's distribution is exponential. We have obtained also the asymptotic distribution of the estimators for the more general case of censor's Weibull distribution. Two large-sample confidence bands have been proposed for each estimator. The results have been compared with those of the maximum likelihood estimator, and with those of two non parametric estimators: Product-limit and Bayesian. One of our estimators has the best behaviour. Finally we have shown by simulation, that our estimators are robust against the assumed censor's distribution, and that one of our intervals does well in small sample situation.
Resumo:
De las variables sociales, económicas, ambientales y espaciales que influyen en las actividades que se realizan en las ciudades son estas últimas, las relativas a la forma urbana, una de las menos estudiadas. En este trabajo se analiza la influencia de dos parámetros morfológicos, la densidad y la compacidad, en la evolución de los usos para el caso del distrito de Puente de Vallecas, en la ciudad de Madrid. Se analiza así la adecuación de las distintas tipologías empleadas en la formación de esta zona periférica de la ciudad durante el siglo XX, comparando su situación y evolución actual
Resumo:
El ruido como fenómeno físico capaz de generar molestias y de impactar la salud es uno de los agentes perturbadores presentes en las comunidades del siglo XXI, principalmente en las grandes urbes donde existe concentración poblacional, tal es el caso de la ciudad de Barquisimeto, capital del estado Lara en Venezuela, la cual ocupa el cuarto lugar en importancia a nivel nacional según criterios de ubicación geopolítica, densidad poblacional, infraestructuras, actividades económicas y educativas. La presente tesis doctoral, cuya área de emplazamiento es el centro de dicha ciudad, consiste en una investigación científica experimental de carácter correlacional, en la que se estableció la siguiente hipótesis �a mayor tiempo de exposición al ruido, mayores efectos neurológicos y psicológicos en la población que ocupa el centro de Barquisimeto�. Su singularidad y relevancia radica en articular el estudio del ruido como agente físico con la incidencia de éste en la actividad bioeléctrica cerebral humana y sus efectos en las inteligencias múltiples, tomando como basamento la teoría de las inteligencias múltiples del Dr. Howard Gardner, catedrático de la Universidad de Hardvard, siendo un importante aporte científico en el campo de la física, la medicina y la psicología. Para alcanzar la cristalización de la presente investigación, se realizó una revisión del estado del arte sobre la temática abordada. Tras analizar las fuentes, tanto bibliográficas como digitales, se diseñó el desarrollo de la misma gestionándose la autorización de la Alcaldía del Municipio Iribarren, tomando en consideración que en la fase experimental se aplicaron instrumentos de recolección de datos y se realizaron mediciones en espacios públicos. La fase experimental se ejecutó en seis etapas, obedeciendo a las siguientes variables: a.) Percepción neurológica y psicológica (estudio subjetivo); b) Sonoridad; c.) Dosimetría; d.) Valoración neurológica; e) Valoración psicológica sobre las inteligencias múltiples; f) Mapa de conflicto acústico. En relación al estudio subjetivo se tomó una muestra recurriendo al muestreo aleatorio estratificado, quedando conformada por 67 Residentes, 64 Funcionarios Públicos, 66 comerciantes formales y 64 Comerciantes Informales para un total de 261 sujetos, a los que se viiiaplicó una encuesta titulada Cuestionario Ruambar, conteniendo 30 Ítemes sobre la percepción de efectos neurológicos y psicológicos del ruido, utilizando la escala de Lickert. Para la toma de datos de la sonoridad y de la dosimetría se utilizaron métodos científicos estandarizados, usándose las normas ISO 1996-1, ISO 1999, los Decretos Reales 1367/2007 y el 286/2006; y los criterios técnicos de la OMS. Para lograr una mayor precisión y confiabilidad de los datos, se evaluó el cálculo de la incertidumbre según el documento GUM �Guide for the expresión of uncertainly in Measurement de la International Organization for Standardization� para medidas de categoría A. [JCGM 100:2008]. En cuanto a la valoración neurológica, se siguió el protocolo de la Sociedad Americana de Neurología. En el estudio neurológico participaron voluntariamente 192 sujetos, utilizándose un electroencefalógrafo Digital Stellate Systems con 18 electrodos que determinó la actividad bioeléctrica de los sujetos, estando sometidos a una estimulación sonora de 1000 Hz y a presiones sonoras de 20, 40, 60, 80 y 100 dB (A). Con respecto a la valoración psicológica del efecto del ruido sobre las inteligencias múltiples se diseñó el Test RUAMIN con 24 ítemes y con adaptación a una escala psicométrica. Con respecto a la prueba de hipótesis las correlaciones obtenidas son lineales positivas exceptuando el estrato funcionarios, confirmándose que se acepta la hipótesis planteada para los estratos residentes, comerciantes formales y comerciantes informales, y siendo esta misma hipótesis nula para el estrato funcionarios. Finalmente, como resultado de la investigación se elaboró un mapa de conflicto acústico con el propósito de establecer los puntos de mayor impacto acústico en la zona de emplazamiento, estableciéndose comparaciones entre los mismos y pudiendo ser útil el mencionado mapa para la adopción de disposiciones legales y civiles en aras de mejorar la calidad de vida de los ciudadanos.
Resumo:
Los objetivos de este trabajo son analizar la relación entre factores estacionales y selvícolas y la presencia de P. pini en la masa de origen natural de pino silvestre localizada en la Sierra de Guadarrama, y realizar una evaluación de la capacidad de predecir las situaciones más vulnerables al ataque. Según el modelo, la probabilidad de presencia de P. pini disminuye de forma lineal con la altitud. La variación en la orientación apenas influye en la probabilidad de presencia de pies chamosos excepto en las zonas de solana pura en las que la probabilidad aumenta ligeramente. Tanto la densidad como el área basimétrica influyen positivamente en la probabilidad de presencia de P. pini. El efecto de ambas variables es de forma sigmoide, con valores máximos de probabilidad de presencia a partir de 35m2/ha y por debajo de 500 pies/ha. La evaluación interna (usando bootstrap) de la capacidad predictiva del modelo es aceptable para la discriminación (área bajo la curva ROC de 0.71) y muy buena para la calibración (pendiente= 0.95; constante= -0.04). A la espera de una validación del modelo con una muestra independiente, los resultados sugieren que el riesgo de daños por P. pini se puede pronosticar de forma fiable con el modelo desarrollado.
Resumo:
El número de cerdos por cuadra y la densidad influyen sobre el rendimiento productivo (Edmons et al., 1998). Además, la densidad de cría puede afectar a la calidad de la canal y de la carne (Estevez et al., 2003), ya que una reducción del espacio disponible da lugar a peleas y mordeduras de colas. Sin embargo, la producción de carne por m 2 aumenta con la densidad con un mejor aprovechamiento de la superficie disponible. Por otro lado, la densidad podría afectar de distinto modo a hembras (HE) y a machos castrados (MC) debido posiblemente al menor consumo voluntario de pienso de las HE. A este particular, Hamilton et al. (2003) observaron que a altas densidades de cría las HE fueron relativamente más magras mientras que los MC eran relativamente más grasos. Cambios en la densidad de cría, pueden afectar a la composición en ácidos grasos de la canal debido a cambios en el consumo y a la utilización del alimento (Nürnberg et al., 1998). El objetivo de este estudio fue comparar el efecto de la densidad de cebo de HE y MC con alto potencial de crecimiento, sobre el rendimiento productivo y la composición de la carne y el perfil de ácidos grasos en cerdos de 19 a 109 kg PV.
Resumo:
La idea principal de este proyecto es realizar un estudio temporal de los parámetros necesarios para evaluar el ruido ambiental. En la actualidad son muchas las medidas que se hacen a diario para evaluar el nivel de ruido ambiente, sin embargo, este nivel no es el mismo siempre. Dependiendo del momento en el que se realicen las medidas, de la longitud de la muestra tomada etc., los resultados pueden llegar a ser muy dispares entre sí. En este proyecto se estudiarán los parámetros temporales con el objetivo de determinar las características más apropiadas de la muestra que se debe tomar a la hora de realizar medidas del nivel de ruido, de tal forma que se obtengan los resultados más apropiados con un margen de error pequeño y conocido. Para comenzar, se eligieron los puntos de medida en los que se quiere centrar el estudio. En el presente proyecto se va a analizar el ruido ambiente, principalmente procedente del tráfico rodado, existente en 3 rotondas y una semirotonda. Para ello se comenzó realizando registros de larga duración del nivel de ruido de manera continua a lo largo de todo el periodo diurno, que comprende desde las 7:00 h hasta las 19:00 h. La adquisición de estos datos se realizó con una grabadora digital y un micrófono. Posteriormente, los datos registrados se volcaron al ordenador y se procesaron con el sistema de medida Symphonie con el que de obtuvieron los parámetros necesarios para el análisis. Una vez obtenidos los niveles de los registros, el siguiente paso consistió en realizar diferentes procesos de muestreo para obtener resultados y finalmente elaborar conclusiones. ABSTRACT The main idea of this project is to realice a temporary study of the necessary parameters to evaluate the ambiental noise. Nowadays, a lot of measures are done everyday to evaluate the ambiental noise, however, this level is not always the same. The results can be very different one from another depending of the moment when this measures are done, the length of the sample, etc. In this project, temporary parameters will be studied with the aim of determine the more apropiate characteristics to the sample to be taken when performing the noise level measurements, so as to obtain the most appropriate results with an small and known error margin. To start, the points where you want to focus the study were chosen. In this project we will analyze the ambient noise, mainly by road traffic, existing over three roundabouts and one semi-roundabout. For this purpose we begin performing long-term registers of the noise level throughout the day period continuously, which is from 7:00h to 19:00h. The acquisition of this data was performed with a digital recorder and a microphone. Later, data recorded were fed into the computer and processed with Symphonie measuring system, with which we obtained the parameters for the analysys. Once the level from the registers are obtained, the next step was to perform different sampling processes to get results and finally draw conclusions.
Resumo:
El impacto negativo que tienen los virus en las plantas hace que estos puedan ejercer un papel ecológico como moduladores de la dinámica espacio-temporal de las poblaciones de sus huéspedes. Entender cuáles son los mecanismos genéticos y los factores ambientales que determinan tanto la epidemiología como la estructura genética de las poblaciones de virus puede resultar de gran ayuda para la comprensión del papel ecológico de las infecciones virales. Sin embargo, existen pocos trabajos experimentales que hayan abordado esta cuestión. En esta tesis, se analiza el efecto de la heterogeneidad del paisaje sobre la incidencia de los virus y la estructura genética de sus poblaciones. Asimismo, se explora como dichos factores ambientales influyen en la importancia relativa que los principales mecanismos de generación de variabilidad genética (mutación, recombinación y migración) tienen en la evolución de los virus. Para ello se ha usado como sistema los begomovirus que infectan poblaciones de chiltepín (Capsicum annuum var. aviculare (Dierbach) D´Arcy & Eshbaugh) en México. Se analizó la incidencia de diferentes virus en poblaciones de chiltepín distribuidas a lo largo de seis provincias biogeográficas, representando el área de distribución de la especie en México, y localizadas en hábitats con diferente grado de intervención humana: poblaciones sin intervención humana (silvestres); poblaciones toleradas (lindes y pastizales), y poblaciones manejadas por el hombre (monocultivos y huertos familiares). Entre los virus analizados, los begomovirus mostraron la mayor incidencia, detectándose en todas las poblaciones y años de muestreo. Las únicas dos especies de begomovirus que se encontraron infectando al chiltepín fueron: el virus del mosaico dorado del chile (Pepper golden mosaic virus, PepGMV) y el virus huasteco del amarilleo de venas del chile (Pepper huasteco yellow vein virus, PHYVV). Por ello, todos los análisis realizados en esta tesis se centran en estas dos especies de virus. La incidencia de PepGMV y PHYVV, tanto en infecciones simples como mixtas, aumento cuanto mayor fue el nivel de intervención humana en las poblaciones de chiltepín, lo que a su vez se asoció con una menor biodiversidad y una mayor densidad de plantas. Además, la incidencia de infecciones mixtas, altamente relacionada con la presencia de síntomas, fue también mayor en las poblaciones cultivadas. La incidencia de estos dos virus también varió en función de la población de chiltepín y de la provincia biogeográfica. Por tanto, estos resultados apoyan una de las hipótesis XVI clásicas de la Patología Vegetal según la cual la simplificación de los ecosistemas naturales debida a la intervención humana conduce a un mayor riesgo de enfermedad de las plantas, e ilustran sobre la importancia de la heterogeneidad del paisaje a diferentes escalas en la determinación de patrones epidemiológicos. La heterogeneidad del paisaje no solo afectó a la epidemiología de PepGMV y PHYVV, sino también a la estructura genética de sus poblaciones. En ambos virus, el nivel de diferenciación genética mayor fue la población, probablemente asociado a la capacidad de migración de su vector Bemisia tabaci; y en segundo lugar la provincia biogeográfica, lo que podría estar relacionado con el papel del ser humano como agente dispersor de PepGMV y PHYVV. La estima de las tasas de sustitución nucleotídica de las poblaciones de PepGMV y PHYVV mostró una rápida dinámica evolutiva. Los árboles filogenéticos de ambos virus presentaron una topología en estrella, lo que sugiere una expansión reciente en las poblaciones de chiltepín. La reconstrucción de los patrones de migración de ambos virus indicó que ésta expansión parece haberse producido desde la zona central de México siguiendo un patrón radial, y en los últimos 30 años. Es importante tener en cuenta que el patrón espacial de la diversidad genética de las poblaciones de PepGMV y PHYVV es similar al descrito previamente para el chiltepín lo que podría dar lugar a la congruencia de las genealogías del huésped y la de los virus. Dicha congruencia se encontró cuando se tuvieron en cuenta únicamente las poblaciones de hábitats silvestres y tolerados, lo que probablemente se debe a una codivergencia en el espacio pero no en el tiempo, dado que la evolución de virus y huésped han ocurrido a escalas temporales muy diferentes. Finalmente, el análisis de la frecuencia de recombinación en PepGMV y PHYVV indicó que esta juega un papel importante en la evolución de ambos virus, dependiendo su importancia del nivel de intervención humana de la población de chiltepín. Este factor afectó también a la intensidad de la selección a la que se ven sometidos los genomas de PepGMV y PHYVV. Los resultados de esta tesis ponen de manifiesto la importancia que la reducción de la biodiversidad asociada al nivel de intervención humana de las poblaciones de plantas y la heterogeneidad del paisaje tiene en la emergencia de nuevas enfermedades virales. Por tanto, es necesario considerar estos factores ambientales a la hora de comprender la epidemiologia y la evolución de los virus de plantas.XVII SUMMARY Plant viruses play a key role as modulators of the spatio-temporal dynamics of their host populations, due to their negative impact in plant fitness. Knowledge on the genetic and environmental factors that determine the epidemiology and the genetic structure of virus populations may help to understand the ecological role of viral infections. However, few experimental works have addressed this issue. This thesis analyses the effect of landscape heterogeneity in the prevalence of viruses and the genetic structure of their populations. Also, how these environmental factors influence the relative importance of the main mechanisms for generating genetic variability (mutation, recombination and migration) during virus evolution is explored. To do so, the begomoviruses infecting chiltepin (Capsicum annuum var. aviculare (Dierbach) D'Arcy & Eshbaugh) populations in Mexico were used. Incidence of different viruses in chiltepin populations of six biogeographical provinces representing the species distribution in Mexico was determined. Populations belonged to different habitats according to the level of human management: populations with no human intervention (Wild); populations naturally dispersed and tolerated in managed habitats (let-standing), and human managed populations (cultivated). Among the analyzed viruses, the begomoviruses showed the highest prevalence, being detected in all populations and sampling years. Only two begomovirus species infected chiltepin: Pepper golden mosaic virus, PepGMV and Pepper huasteco yellow vein virus, PHYVV. Therefore, all the analyses presented in this thesis are focused in these two viruses. The prevalence of PepGMV and PHYVV, in single and mixed infections, increased with higher levels of human management of the host population, which was associated with decreased biodiversity and increased plant density. Furthermore, cultivated populations showed higher prevalence of mixed infections and symptomatic plants. The prevalence of the two viruses also varied depending on the chiltepin population and on the biogeographical province. Therefore, these results support a classical hypothesis of Plant Pathology stating that simplification of natural ecosystems due to human management leads to an increased disease risk, and illustrate on the importance of landscape heterogeneity in determining epidemiological patterns. Landscape heterogeneity not only affected the epidemiology of PepGMV and PHYVV, but also the genetic structure of their populations. Both viruses had the highest level of genetic differentiation at the population scale, probably associated with the XVIII migration patterns of its vector Bemisia tabaci, and a second level at the biogeographical province scale, which could be related to the role of humans as dispersal agents of PepGMV and PHYVV. The estimates of nucleotide substitution rates of the virus populations indicated rapid evolutionary dynamics. Accordingly, phylogenetic trees of both viruses showed a star topology, suggesting a recent diversification in the chiltepin populations. Reconstruction of PepGMV and PHYVV migration patterns indicated that they expanded from central Mexico following a radial pattern during the last 30 years. Importantly, the spatial genetic structures of the virus populations were similar to that described previously for the chiltepin, which may result in the congruence of the host and virus genealogies. Such congruence was found only in wild and let-standing populations. This is probably due to a co-divergence in space but not in time, given the different evolutionary time scales of the host and virus populations. Finally, the frequency of recombination detected in the PepGMV and PHYVV populations indicated that this mechanism plays an important role in the evolution of both viruses at the intra-specific scale. The level of human management had a minor effect on the frequency of recombination, but influenced the strength of negative selective pressures in the viral genomes. The results of this thesis highlight the importance of decreased biodiversity in plant populations associated with the level of human management and of landscape heterogeneity on the emergence of new viral diseases. Therefore it is necessary to consider these environmental factors in order to fully understand the epidemiology and evolution of plant viruses.
Resumo:
La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.
Resumo:
El bienestar animal es un aspecto de la producción pecuaria que ha adquirido enorme importancia en la Unión Europea en los últimos 10-15 años, lo que ha dado lugar a una amplia legislación, tanto en lo que concierne a manejo y condiciones de los alojamientos como en lo referente a condiciones de transporte de animales y de sacrificio.
Resumo:
En la actualidad las redes de Pequeño Mundo están presentes en muchas aplicaciones distribuidas, pudiéndose construir estas redes añadiendo, a un grafo base, enlaces de largo alcance tomados conforme a una determinada distribución de probabiblidad. Los sistemas distribuidos actuales utilizan soluciones ad hoc específicas para calcular los enlaces de largo alcance. En este artículo proponemos un nuevo algoritmo distribuido llamado Selección Sesgada (SS), que utilizando únicamente un servicio de muestreo uniforme (que puede estar implementado mediante un protocolo gossip), es capaz de seleccionar enlaces largos conforme a cualquier distribución de probabilidad. SS es un algoritmo iterativo que dispone de un único parámetro (r) para indicar el número de iteraciones que debe ejecutarse. Se ha probado que la muestra obtenida con el algoritmo SS converge a la distribución objetivo a medida que aumenta el valor de r. También se ha calculado la cota analítica del error relativo máximo, para un determinado valor de r. Aunque este artículo se propone para el algoritmo SS como una herramienta para tomar muestras de nodos en una red, puede emplearse en cualquier contexto en el que sea necesario realizar un muestreo conforme a una determinada distribución de probabilidad, necesitando para funcionar únicamente un servicio de muestreo uniforme. Se han construido redes de Pequeño Mundo, modelo Kleinberg, utilizando SS para escoger los enlaces (vecinos) de largo alcance en estructuras de tipo toro. Hemos observado que con un número reducido de iteraciones (1) SS tiene un comportamiento muy similar a la distribución armónica de Kleinberg y (2) el número medio de saltos, utilizando enrutamiento ávido, no es peor que en una red construida con la distribución de Leinberg. También se ha observado que antes de obtener la convergencia, el número medio de saltos es menor que en las redes construidas mediante la distribución armónica de Leinberg (14% mejor en un toro de 1000 x 1000).