933 resultados para two-sided time-space fractional advection-dispersion
Resumo:
In this dissertation, we propose a continuous-time Markov chain model to examine the longitudinal data that have three categories in the outcome variable. The advantage of this model is that it permits a different number of measurements for each subject and the duration between two consecutive time points of measurements can be irregular. Using the maximum likelihood principle, we can estimate the transition probability between two time points. By using the information provided by the independent variables, this model can also estimate the transition probability for each subject. The Monte Carlo simulation method will be used to investigate the goodness of model fitting compared with that obtained from other models. A public health example will be used to demonstrate the application of this method. ^
Resumo:
La aceleración de las sociedades contemporáneas constituye un fenómeno insoslayable, ampliamente instaurado desde las últimas dos décadas del siglo XX. La aceleración tuvo su mayor impulso con el desarrollo tecnológico del siglo XX y su origen ha radicado en el proceso de acumulación capitalista actual. Sin embargo, ha desbordado lo tecnológico y lo económico, se ha entronizado culturalmente y también se ha articulado como parte nodal de la construcción social del mundo actual. En este documento, se analiza la aceleración y los ritmos sociales asociados a ella desde la perspectiva de los sujetos en su mundo de la vida cotidiana. Como toda perspectiva focalizada en el sujeto en la vida cotidiana, esto trae consigo el interés analítico por la acción y las prácticas, el sentido y los significados. No obstante, en esta ocasión esas dimensiones de la cotidianidad son consideradas junto a la corporeidad-emocionalidad del sujeto y su espacio-temporalidad. El documento aborda ciertas estrategias que desarrollan algunos tipos de sujetos sociales que están inmersos enteramente en dicha aceleración. En ocasiones forjan de manera espontánea estrategias de adaptación a la aceleración, otras veces configuran estrategias de resistencia. En otros casos se orientan hacia estrategias híbridas que incluyen tanto la adaptación como la resistencia. Así, estas estrategias buscan cotidianidades inmersas en distintas formas de proxemia corporal y afectiva, y otras veces se persiguen cotidianidades fundadas en la diastemia corporal y afectiva través de la distancia y el aislamiento. El texto aborda primero algunas estrategias cotidianas de tipo proxémico. En la segunda parte,se abordan estrategias de carácter diastémico. Por último, se presentan algunas reflexiones finales
Resumo:
La aceleración de las sociedades contemporáneas constituye un fenómeno insoslayable, ampliamente instaurado desde las últimas dos décadas del siglo XX. La aceleración tuvo su mayor impulso con el desarrollo tecnológico del siglo XX y su origen ha radicado en el proceso de acumulación capitalista actual. Sin embargo, ha desbordado lo tecnológico y lo económico, se ha entronizado culturalmente y también se ha articulado como parte nodal de la construcción social del mundo actual. En este documento, se analiza la aceleración y los ritmos sociales asociados a ella desde la perspectiva de los sujetos en su mundo de la vida cotidiana. Como toda perspectiva focalizada en el sujeto en la vida cotidiana, esto trae consigo el interés analítico por la acción y las prácticas, el sentido y los significados. No obstante, en esta ocasión esas dimensiones de la cotidianidad son consideradas junto a la corporeidad-emocionalidad del sujeto y su espacio-temporalidad. El documento aborda ciertas estrategias que desarrollan algunos tipos de sujetos sociales que están inmersos enteramente en dicha aceleración. En ocasiones forjan de manera espontánea estrategias de adaptación a la aceleración, otras veces configuran estrategias de resistencia. En otros casos se orientan hacia estrategias híbridas que incluyen tanto la adaptación como la resistencia. Así, estas estrategias buscan cotidianidades inmersas en distintas formas de proxemia corporal y afectiva, y otras veces se persiguen cotidianidades fundadas en la diastemia corporal y afectiva través de la distancia y el aislamiento. El texto aborda primero algunas estrategias cotidianas de tipo proxémico. En la segunda parte,se abordan estrategias de carácter diastémico. Por último, se presentan algunas reflexiones finales
Resumo:
La aceleración de las sociedades contemporáneas constituye un fenómeno insoslayable, ampliamente instaurado desde las últimas dos décadas del siglo XX. La aceleración tuvo su mayor impulso con el desarrollo tecnológico del siglo XX y su origen ha radicado en el proceso de acumulación capitalista actual. Sin embargo, ha desbordado lo tecnológico y lo económico, se ha entronizado culturalmente y también se ha articulado como parte nodal de la construcción social del mundo actual. En este documento, se analiza la aceleración y los ritmos sociales asociados a ella desde la perspectiva de los sujetos en su mundo de la vida cotidiana. Como toda perspectiva focalizada en el sujeto en la vida cotidiana, esto trae consigo el interés analítico por la acción y las prácticas, el sentido y los significados. No obstante, en esta ocasión esas dimensiones de la cotidianidad son consideradas junto a la corporeidad-emocionalidad del sujeto y su espacio-temporalidad. El documento aborda ciertas estrategias que desarrollan algunos tipos de sujetos sociales que están inmersos enteramente en dicha aceleración. En ocasiones forjan de manera espontánea estrategias de adaptación a la aceleración, otras veces configuran estrategias de resistencia. En otros casos se orientan hacia estrategias híbridas que incluyen tanto la adaptación como la resistencia. Así, estas estrategias buscan cotidianidades inmersas en distintas formas de proxemia corporal y afectiva, y otras veces se persiguen cotidianidades fundadas en la diastemia corporal y afectiva través de la distancia y el aislamiento. El texto aborda primero algunas estrategias cotidianas de tipo proxémico. En la segunda parte,se abordan estrategias de carácter diastémico. Por último, se presentan algunas reflexiones finales
Resumo:
Benthic oxygen and nitrogen fluxes were quantified within the years 2012 to 2014 at different time series sites in the southern North Sea with the benthic lander NuSObs (Nutrient and Suspension Observatory). In situ incubations of sediments, in situ bromide tracer studies, sampling of macrofauna and pore water investigations revealed considerable seasonal and spatial variations of oxygen and nitrogen fluxes. Seasonal and spatial variations of oxygen fluxes were observed between two different time series sites, covering different sediment types and/or different benthic macrofaunal communities. On a sediment type with a high content of fine grained particles (<63 µm) oxygen fluxes of -15.5 to -25.1 mmol/m**2/d (June 2012), -2.0 to -8.2 mmol/m**2/d (March 2013), -16.8 to -21.5 mmol/m**2/d (November 2013) and -6.1 mmol/m**2/d (March 2014) were measured. At the same site a highly diverse community of small species of benthic macrofauna was observed. On a sediment type with a low content of fine grained particles (<63 µm) high oxygen fluxes (-33.2 mmol/m**2/d August 2012; -47.2 to -55.1 mmol/m**2/d November 2013; -16.6 mmol/m**2/d March 2014) were observed. On this sediment type a less diverse benthic macrofaunal community, which was dominated by the large bodied suspension feeder Ensis directus, was observed. Average annual rain rates of organic carbon and organic nitrogen to the seafloor of 7.44 mol C/m**2/y and 1.34 mol N/m**2/y were estimated. On average 79% of the organic bound carbon and 95% of the organic bound nitrogen reaching the seafloor are recycled at the sediment-water interface.
Resumo:
The chemical composition of shells of the planktonic foraminifer Globigerinoides ruber (white) is frequently used to determine past sea surface conditions. Recently, it has been shown that arbitrarily defined morphotypes within this species exhibit different chemical and isotopic signatures. Here, we investigate the occurrence through time and in space of morphological types of G. ruber (white) in late Quaternary and Holocene sediments of the central and the eastern Mediterranean Sea. In 115 samples representing two distinct time intervals (MIS 1-2 and MIS 9-12) at ODP Site 964 and the piston core GeoTü-SL96, we have defined three morphological types within this species and determined their relative abundances and stable isotopic composition. A quantitative analysis of morphological variation within G. ruber (white) in four samples revealed that the subjectively defined morphotypes occupy separate segments of a continuous and homogenous morphospace. We further show that the abundance of the morphotypes changes significantly between glacials and interglacials and that the three morphotypes of G. ruber show significant offsets in their stable isotopic composition. These offsets are consistent within glacial and interglacial stages but their sign is systematically reversed between the two Sites. Since the isotopic shifts among the three G. ruber morphotypes are systematic and often exceed 1per mil, their understanding is essential for the interpretation of all G. ruber-based proxy records for the paleoceanographic development of the Mediterranean during the late Quaternary.
Resumo:
The image by Computed Tomography is a non-invasive alternative for observing soil structures, mainly pore space. The pore space correspond in soil data to empty or free space in the sense that no material is present there but only fluids, the fluid transport depend of pore spaces in soil, for this reason is important identify the regions that correspond to pore zones. In this paper we present a methodology in order to detect pore space and solid soil based on the synergy of the image processing, pattern recognition and artificial intelligence. The mathematical morphology is an image processing technique used for the purpose of image enhancement. In order to find pixels groups with a similar gray level intensity, or more or less homogeneous groups, a novel image sub-segmentation based on a Possibilistic Fuzzy c-Means (PFCM) clustering algorithm was used. The Artificial Neural Networks (ANNs) are very efficient for demanding large scale and generic pattern recognition applications for this reason finally a classifier based on artificial neural network is applied in order to classify soil images in two classes, pore space and solid soil respectively.
Resumo:
A Monte Carlo computer simulation technique, in which a continuum system is modeled employing a discrete lattice, has been applied to the problem of recrystallization. Primary recrystallization is modeled under conditions where the degree of stored energy is varied and nucleation occurs homogeneously (without regard for position in the microstructure). The nucleation rate is chosen as site saturated. Temporal evolution of the simulated microstructures is analyzed to provide the time dependence of the recrystallized volume fraction and grain sizes. The recrystallized volume fraction shows sigmoidal variations with time. The data are approximately fit by the Johnson-Mehl-Avrami equation with the expected exponents, however significant deviations are observed for both small and large recrystallized volume fractions. Under constant rate nucleation conditions, the propensity for irregular grain shapes is decreased and the density of two sided grains increases.
Resumo:
An electrically floating metallic bare tether in a low Earth orbit would be highly negative with respect to the ambient plasma over most of its length, and would be bombarded by ambient ions. This would liberate secondary electrons, which, after acceleration through the same voltage, would form a magnetically guided two-sided planar e-beam. Upon impact on the atmospheric E-layer, at about 120-140 Km altitude auroral effects (ionization and light emission) can be expected. This paper examines in a preliminary way the feasibility of using this effect as an upper atmospheric probe. It is concluded that significant perturbations can be produced along the illuminated planar sheet of the atmosphere, with ionization rates of several thousand cm-3 sec1. Observation of the induced optical emission is made difficult by the narrowness and high moving speed of the illuminated zone, but it is shown that vertical resolution of single spectral lines is possible, as is wider spectral coverage with no vertical resolution.
Resumo:
Previous research studies and operational trials have shown that using the airborne Required Time of Arrival (RTA) function, an aircraft can individually achieve an assigned time to a metering or merge point accurately. This study goes a step further and investigates the application of RTA to a real sequence of arriving aircraft into Melbourne Australia. Assuming that the actual arrival times were Controlled Time of Arrivals (CTAs) assigned to each aircraft, the study examines if the airborne RTA solution would work. Three scenarios were compared: a baseline scenario being the actual flown trajectories in a two hour time-span into Melbourne, a scenario in which the sequential landing slot times of the baseline scenario were assigned as CTAs and a third scenario in which the landing slots could be freely redistributed to the inbound traffic as CTAs. The research found that pressure on the terminal area would sometimes require aircraft to lose more time than possible through the RTA capability. Using linear holding as an additional measure to absorb extensive delays, up to 500NM (5%) of total track reduction and 1300kg (3%) of total fuel consumption could be saved in the scenario with landing slots freely distributed as CTAs, compared to the baseline scenario. Assigning CTAs in an arrival sequence requires the ground system to have an accurate trajectory predictor to propose additional delay measures (path stretching, linear holding) if necessary. Reducing the achievable time window of the aircraft to add control margin to the RTA function, had a negative impact and increased the amount of intervention other than speed control required to solve the sequence. It was concluded that the RTA capability is not a complete solution but merely a tool to assist in managing the increasing complexity of air traffic.
Resumo:
La presente Tesis está orientada al análisis de la supervisión multidistribuida de tres procesos agroalimentarios: el secado solar, el transporte refrigerado y la fermentación de café, a través de la información obtenida de diferentes dispositivos de adquisición de datos, que incorporan sensores, así como el desarrollo de metodologías de análisis de series temporales, modelos y herramientas de control de procesos para la ayuda a la toma de decisiones en las operaciones de estos entornos. En esta tesis se han utilizado: tarjetas RFID (TemTrip®) con sistema de comunicación por radiofrecuencia y sensor de temperatura; el registrador (i-Button®), con sensor integrado de temperatura y humedad relativa y un tercer prototipo empresarial, módulo de comunicación inalámbrico Nlaza, que integra un sensor de temperatura y humedad relativa Sensirion®. Estos dispositivos se han empleado en la conformación de redes multidistribuidas de sensores para la supervisión de: A) Transportes de producto hortofrutícola realizados en condiciones comerciales reales, que son: dos transportes terrestre de producto de IV gama desde Murcia a Madrid; transporte multimodal (barco-barco) de limones desde Montevideo (Uruguay) a Cartagena (España) y transporte multimodal (barco-camión) desde Montevideo (Uruguay) a Verona (Italia). B) dos fermentaciones de café realizadas en Popayán (Colombia) en un beneficiadero. Estas redes han permitido registrar la dinámica espacio-temporal de temperaturas y humedad relativa de los procesos estudiados. En estos procesos de transporte refrigerado y fermentación la aplicación de herramientas de visualización de datos y análisis de conglomerados, han permitido identificar grupos de sensores que presentan patrones análogos de sus series temporales, caracterizando así zonas con dinámicas similares y significativamente diferentes del resto y permitiendo definir redes de sensores de menor densidad cubriendo las diferentes zonas identificadas. Las metodologías de análisis complejo de las series espacio-temporales (modelos psicrométricos, espacio de fases bidimensional e interpolaciones espaciales) permitieron la cuantificación de la variabilidad del proceso supervisado tanto desde el punto de vista dinámico como espacial así como la identificación de eventos. Constituyendo así herramientas adicionales de ayuda a la toma de decisiones en el control de los procesos. Siendo especialmente novedosa la aplicación de la representación bidimensional de los espacios de fases en el estudio de las series espacio-temporales de variables ambientales en aplicaciones agroalimentarias, aproximación que no se había realizado hasta el momento. En esta tesis también se ha querido mostrar el potencial de un sistema de control basado en el conocimiento experto como es el sistema de lógica difusa. Se han desarrollado en primer lugar, los modelos de estimación del contenido en humedad y las reglas semánticas que dirigen el proceso de control, el mejor modelo se ha seleccionado mediante un ensayo de secado realizado sobre bolas de hidrogel como modelo alimentario y finalmente el modelo se ha validado mediante un ensayo en el que se deshidrataban láminas de zanahoria. Los resultados sugirieron que el sistema de control desarrollado, es capaz de hacer frente a dificultades como las variaciones de temperatura día y noche, consiguiendo un producto con buenas características de calidad comparables a las conseguidas sin aplicar ningún control sobre la operación y disminuyendo así el consumo energético en un 98% con respecto al mismo proceso sin control. La instrumentación y las metodologías de análisis de datos implementadas en esta Tesis se han mostrado suficientemente versátiles y transversales para ser aplicadas a diversos procesos agroalimentarios en los que la temperatura y la humedad relativa sean criterios de control en dichos procesos, teniendo una aplicabilidad directa en el sector industrial ABSTRACT This thesis is focused on the analysis of multi-distributed supervision of three agri-food processes: solar drying, refrigerated transport and coffee fermentation, through the information obtained from different data acquisition devices with incorporated sensors, as well as the development of methodologies for analyzing temporary series, models and tools to control processes in order to help in the decision making in the operations within these environments. For this thesis the following has been used: RFID tags (TemTrip®) with a Radiofrequency ID communication system and a temperature sensor; the recorder (i-Button®), with an integrated temperature and relative humidity and a third corporate prototype, a wireless communication module Nlaza, which has an integrated temperature and relative humidity sensor, Sensirion®. These devices have been used in creating three multi-distributed networks of sensors for monitoring: A) Transport of fruits and vegetables made in real commercial conditions, which are: two land trips of IV range products from Murcia to Madrid; multimodal transport (ship - ship) of lemons from Montevideo (Uruguay) to Cartagena (Spain) and multimodal transport (ship - truck) from Montevideo (Uruguay) to Verona (Italy). B) Two coffee fermentations made in Popayan (Colombia) in a coffee processing plant. These networks have allowed recording the time space dynamics of temperatures and relative humidity of the processed under study. Within these refrigerated transport and fermentation processes, the application of data display and cluster analysis tools have allowed identifying sensor groups showing analogical patterns of their temporary series; thus, featuring areas with similar and significantly different dynamics from the others and enabling the definition of lower density sensor networks covering the different identified areas. The complex analysis methodologies of the time space series (psychrometric models, bi-dimensional phase space and spatial interpolation) allowed quantifying the process variability of the supervised process both from the dynamic and spatial points of view; as well as the identification of events. Thus, building additional tools to aid decision-making on process control brought the innovative application of the bi-dimensional representation of phase spaces in the study of time-space series of environmental variables in agri-food applications, an approach that had not been taken before. This thesis also wanted to show the potential of a control system based on specialized knowledge such as the fuzzy logic system. Firstly, moisture content estimation models and semantic rules directing the control process have been developed, the best model has been selected by an drying assay performed on hydrogel beads as food model; and finally the model has been validated through an assay in which carrot sheets were dehydrated. The results suggested that the control system developed is able to cope with difficulties such as changes in temperature daytime and nighttime, getting a product with good quality features comparable to those features achieved without applying any control over the operation and thus decreasing consumption energy by 98% compared to the same uncontrolled process. Instrumentation and data analysis methodologies implemented in this thesis have proved sufficiently versatile and cross-cutting to apply to several agri-food processes in which the temperature and relative humidity are the control criteria in those processes, having a direct effect on the industry sector.
Resumo:
La computación ubicua está extendiendo su aplicación desde entornos específicos hacia el uso cotidiano; el Internet de las cosas (IoT, en inglés) es el ejemplo más brillante de su aplicación y de la complejidad intrínseca que tiene, en comparación con el clásico desarrollo de aplicaciones. La principal característica que diferencia la computación ubicua de los otros tipos está en como se emplea la información de contexto. Las aplicaciones clásicas no usan en absoluto la información de contexto o usan sólo una pequeña parte de ella, integrándola de una forma ad hoc con una implementación específica para la aplicación. La motivación de este tratamiento particular se tiene que buscar en la dificultad de compartir el contexto con otras aplicaciones. En realidad lo que es información de contexto depende del tipo de aplicación: por poner un ejemplo, para un editor de imágenes, la imagen es la información y sus metadatos, tales como la hora de grabación o los ajustes de la cámara, son el contexto, mientras que para el sistema de ficheros la imagen junto con los ajustes de cámara son la información, y el contexto es representado por los metadatos externos al fichero como la fecha de modificación o la de último acceso. Esto significa que es difícil compartir la información de contexto, y la presencia de un middleware de comunicación que soporte el contexto de forma explícita simplifica el desarrollo de aplicaciones para computación ubicua. Al mismo tiempo el uso del contexto no tiene que ser obligatorio, porque si no se perdería la compatibilidad con las aplicaciones que no lo usan, convirtiendo así dicho middleware en un middleware de contexto. SilboPS, que es nuestra implementación de un sistema publicador/subscriptor basado en contenido e inspirado en SIENA [11, 9], resuelve dicho problema extendiendo el paradigma con dos elementos: el Contexto y la Función de Contexto. El contexto representa la información contextual propiamente dicha del mensaje por enviar o aquella requerida por el subscriptor para recibir notificaciones, mientras la función de contexto se evalúa usando el contexto del publicador y del subscriptor. Esto permite desacoplar la lógica de gestión del contexto de aquella de la función de contexto, incrementando de esta forma la flexibilidad de la comunicación entre varias aplicaciones. De hecho, al utilizar por defecto un contexto vacío, las aplicaciones clásicas y las que manejan el contexto pueden usar el mismo SilboPS, resolviendo de esta forma la incompatibilidad entre las dos categorías. En cualquier caso la posible incompatibilidad semántica sigue existiendo ya que depende de la interpretación que cada aplicación hace de los datos y no puede ser solucionada por una tercera parte agnóstica. El entorno IoT conlleva retos no sólo de contexto, sino también de escalabilidad. La cantidad de sensores, el volumen de datos que producen y la cantidad de aplicaciones que podrían estar interesadas en manipular esos datos está en continuo aumento. Hoy en día la respuesta a esa necesidad es la computación en la nube, pero requiere que las aplicaciones sean no sólo capaces de escalar, sino de hacerlo de forma elástica [22]. Desgraciadamente no hay ninguna primitiva de sistema distribuido de slicing que soporte un particionamiento del estado interno [33] junto con un cambio en caliente, además de que los sistemas cloud actuales como OpenStack u OpenNebula no ofrecen directamente una monitorización elástica. Esto implica que hay un problema bilateral: cómo puede una aplicación escalar de forma elástica y cómo monitorizar esa aplicación para saber cuándo escalarla horizontalmente. E-SilboPS es la versión elástica de SilboPS y se adapta perfectamente como solución para el problema de monitorización, gracias al paradigma publicador/subscriptor basado en contenido y, a diferencia de otras soluciones [5], permite escalar eficientemente, para cumplir con la carga de trabajo sin sobre-provisionar o sub-provisionar recursos. Además está basado en un algoritmo recientemente diseñado que muestra como añadir elasticidad a una aplicación con distintas restricciones sobre el estado: sin estado, estado aislado con coordinación externa y estado compartido con coordinación general. Su evaluación enseña como se pueden conseguir notables speedups, siendo el nivel de red el principal factor limitante: de hecho la eficiencia calculada (ver Figura 5.8) demuestra cómo se comporta cada configuración en comparación con las adyacentes. Esto permite conocer la tendencia actual de todo el sistema, para saber si la siguiente configuración compensará el coste que tiene con la ganancia que lleva en el throughput de notificaciones. Se tiene que prestar especial atención en la evaluación de los despliegues con igual coste, para ver cuál es la mejor solución en relación a una carga de trabajo dada. Como último análisis se ha estimado el overhead introducido por las distintas configuraciones a fin de identificar el principal factor limitante del throughput. Esto ayuda a determinar la parte secuencial y el overhead de base [26] en un despliegue óptimo en comparación con uno subóptimo. Efectivamente, según el tipo de carga de trabajo, la estimación puede ser tan baja como el 10 % para un óptimo local o tan alta como el 60 %: esto ocurre cuando se despliega una configuración sobredimensionada para la carga de trabajo. Esta estimación de la métrica de Karp-Flatt es importante para el sistema de gestión porque le permite conocer en que dirección (ampliar o reducir) es necesario cambiar el despliegue para mejorar sus prestaciones, en lugar que usar simplemente una política de ampliación. ABSTRACT The application of pervasive computing is extending from field-specific to everyday use. The Internet of Things (IoT) is the shiniest example of its application and of its intrinsic complexity compared with classical application development. The main characteristic that differentiates pervasive from other forms of computing lies in the use of contextual information. Some classical applications do not use any contextual information whatsoever. Others, on the other hand, use only part of the contextual information, which is integrated in an ad hoc fashion using an application-specific implementation. This information is handled in a one-off manner because of the difficulty of sharing context across applications. As a matter of fact, the application type determines what the contextual information is. For instance, for an imaging editor, the image is the information and its meta-data, like the time of the shot or camera settings, are the context, whereas, for a file-system application, the image, including its camera settings, is the information and the meta-data external to the file, like the modification date or the last accessed timestamps, constitute the context. This means that contextual information is hard to share. A communication middleware that supports context decidedly eases application development in pervasive computing. However, the use of context should not be mandatory; otherwise, the communication middleware would be reduced to a context middleware and no longer be compatible with non-context-aware applications. SilboPS, our implementation of content-based publish/subscribe inspired by SIENA [11, 9], solves this problem by adding two new elements to the paradigm: the context and the context function. Context represents the actual contextual information specific to the message to be sent or that needs to be notified to the subscriber, whereas the context function is evaluated using the publisher’s context and the subscriber’s context to decide whether the current message and context are useful for the subscriber. In this manner, context logic management is decoupled from context management, increasing the flexibility of communication and usage across different applications. Since the default context is empty, context-aware and classical applications can use the same SilboPS, resolving the syntactic mismatch that there is between the two categories. In any case, the possible semantic mismatch is still present because it depends on how each application interprets the data, and it cannot be resolved by an agnostic third party. The IoT environment introduces not only context but scaling challenges too. The number of sensors, the volume of the data that they produce and the number of applications that could be interested in harvesting such data are growing all the time. Today’s response to the above need is cloud computing. However, cloud computing applications need to be able to scale elastically [22]. Unfortunately there is no slicing, as distributed system primitives that support internal state partitioning [33] and hot swapping and current cloud systems like OpenStack or OpenNebula do not provide elastic monitoring out of the box. This means there is a two-sided problem: 1) how to scale an application elastically and 2) how to monitor the application and know when it should scale in or out. E-SilboPS is the elastic version of SilboPS. I t is the solution for the monitoring problem thanks to its content-based publish/subscribe nature and, unlike other solutions [5], it scales efficiently so as to meet workload demand without overprovisioning or underprovisioning. Additionally, it is based on a newly designed algorithm that shows how to add elasticity in an application with different state constraints: stateless, isolated stateful with external coordination and shared stateful with general coordination. Its evaluation shows that it is able to achieve remarkable speedups where the network layer is the main limiting factor: the calculated efficiency (see Figure 5.8) shows how each configuration performs with respect to adjacent configurations. This provides insight into the actual trending of the whole system in order to predict if the next configuration would offset its cost against the resulting gain in notification throughput. Particular attention has been paid to the evaluation of same-cost deployments in order to find out which one is the best for the given workload demand. Finally, the overhead introduced by the different configurations has been estimated to identify the primary limiting factor for throughput. This helps to determine the intrinsic sequential part and base overhead [26] of an optimal versus a suboptimal deployment. Depending on the type of workload, this can be as low as 10% in a local optimum or as high as 60% when an overprovisioned configuration is deployed for a given workload demand. This Karp-Flatt metric estimation is important for system management because it indicates the direction (scale in or out) in which the deployment has to be changed in order to improve its performance instead of simply using a scale-out policy.
Resumo:
Requirements for testing include advance specification of the conditional rate density (probability per unit time, area, and magnitude) or, alternatively, probabilities for specified intervals of time, space, and magnitude. Here I consider testing fully specified hypotheses, with no parameter adjustments or arbitrary decisions allowed during the test period. Because it may take decades to validate prediction methods, it is worthwhile to formulate testable hypotheses carefully in advance. Earthquake prediction generally implies that the probability will be temporarily higher than normal. Such a statement requires knowledge of "normal behavior"--that is, it requires a null hypothesis. Hypotheses can be tested in three ways: (i) by comparing the number of actual earth-quakes to the number predicted, (ii) by comparing the likelihood score of actual earthquakes to the predicted distribution, and (iii) by comparing the likelihood ratio to that of a null hypothesis. The first two tests are purely self-consistency tests, while the third is a direct comparison of two hypotheses. Predictions made without a statement of probability are very difficult to test, and any test must be based on the ratio of earthquakes in and out of the forecast regions.
Resumo:
Introdução No contexto da valorização crescente do teste anti-HIV como estratégia de prevenção programática, a promoção do teste anti-HIV como estratégia de prevenção entre homens que fazem sexo com homens (HSH) é fundamental. Objetivo - Analisar os fatores associados tanto ao uso rotineiro como episódico do teste anti-HIV. Métodos - Os participantes foram 946 HSH entrevistados pelo Projeto SampaCentro em locais de sociabilidade HSH da região central de São Paulo entre novembro de 2011 e janeiro de 2012, nunca testados ou que procuraram o teste espontaneamente. A metodologia de amostragem foi a time-space-sampling e foram utilizados protocolos do Stata 12.0 para análise de amostras complexas. Os homens que se testaram por rotina ou episodicamente foram comparados aos nunca testados. As variáveis analisadas nos dois modelos de regressão de Poisson foram divididas em três níveis: características sociodemográficas (primeiro nível); socialização na comunidade gay e exposição da orientação sexual, discriminação e opiniões e atitudes em relação ao HIV/Aids e ao teste (segundo nível); percepção de risco, estratégias de prevenção e práticas e parcerias sexuais (terceiro nível). Resultados Os homens que se testaram rotineiramente eram mais velhos e moradores no Centro de SP. Além disso, tinham exposto a orientação sexual para profissional de saúde, sido discriminados em serviços de saúde mas não por amigos e/ou vizinhos (em razão da sexualidade) e não mencionaram medo do resultado do teste como motivo para HSH não se testarem. Também tinham maior probabilidade de conhecer pessoa soropositiva e de ter parcerias estáveis sem sexo anal desprotegido nas casuais (comparado a ter apenas parcerias casuais protegidas). Os homens que se testaram episodicamente eram mais velhos, residentes do Centro de SP, não moravam com parentes, expuseram sua orientação sexual para profissional de saúde, não reportaram medo do resultado do teste como barreira, conheciam pessoa soropositiva e mencionaram parceria estável sem sexo desprotegido com parceiro casual ou então sexo desprotegido em parcerias casuais (comparado a ter apenas parcerias casuais protegidas). Conclusões Os mais jovens, os que moram fora do centro de São Paulo, e os que expões menos sua orientação sexual são os segmentos que menos se testam rotineira ou episodicamente. Assim, dependem de ações para que seu direito seja protegido e assegurado. A estigmatização e a discriminação da homossexualidade deve ser combatida para que não impeça o acesso ao teste e a outros serviços de saúde. Disseminar informações e socializar os mais jovens para o diálogo sobre as estratégias de prevenção biomédicas e estratégias comunitárias de prevenção é necessário. Para ampliar o acesso e qualidade da testagem como recurso fundamental de programas de prevenção permanece o desafio de sustentar o debate sobre sexualidade e prevenção a cada geração, assim como nos programas de formação de educadores e de profissionais de saúde de todas as áreas.
Resumo:
Two-sided asymptotic confidence intervals for an unknown proportion p have been the subject of a great deal of literature. Surprisingly, there are very few papers devoted, like this article, to the case of one tail, despite its great importance in practice and the fact that its behavior is usually different from that of the case with two tails. This paper evaluates 47 methods and concludes that (1) the optimal method is the classic Wilson method with a correction for continuity and (2) a simpler option, almost as good as the first, is the new adjusted Wald method (Wald's classic method applied to the data increased in the values proposed by Borkowf: adding a single imaginary failure or success).