876 resultados para Modeling Rapport Using Hidden Markov Models


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper presents the results from an experimental program and an analytical assessment of the influence of addition of fibers on mechanical properties of concrete. Models derived based on the regression analysis of 60 test data for various mechanical properties of steel fiber-reinforced concrete have been presented. The various strength properties studied are cube and cylinder compressive strength, split tensile strength, modulus of rupture and postcracking performance, modulus of elasticity, Poisson’s ratio, and strain corresponding to peak compressive stress. The variables considered are grade of concrete, namely, normal strength 35 MPa , moderately high strength 65 MPa , and high-strength concrete 85 MPa , and the volume fraction of the fiber Vf =0.0, 0.5, 1.0, and 1.5% . The strength of steel fiber-reinforced concrete predicted using the proposed models have been compared with the test data from the present study and with various other test data reported in the literature. The proposed model predicted the test data quite accurately. The study indicates that the fiber matrix interaction contributes significantly to enhancement of mechanical properties caused by the introduction of fibers, which is at variance with both existing models and formulations based on the law of mixtures

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Zusammenfassung zur Inaugural-Dissertation: Von „weiblichen Vollmenschen“ und Klassenkämpferinnen – Frauengeschichte und Frauenleitbilder in der proletarischen Frauenzeitschrift „Die Gleichheit“ (1891-1923). Die wissenschaftliche Bedeutung, die der SPD-Frauenzeitschrift „Die Gleichheit“ (1891-1923) als Quelle der Geschichte der Frauenbewegung zukommt, spiegelt sich weder in Darstellungen zur Geschichte der SPD noch in der Geschichtsschreibung der deutschen Frauenbewegung wider. Auch ist die „Gleichheit“, Presseorgan der organisierten proletarischen Frauenbewegung Deutschlands und der Sozialistischen Fraueninternationale, bisher kaum Gegenstand einer umfassenden publizistischen Analyse gewesen. Es galt daher, zumindest das Hauptblatt der „Gleichheit“, die an ihr beteiligten Personen, ihre Strukturen und ihr Selbstverständnis möglichst detailliert und anhand publizistischer Kriterien darzustellen. Wandlungen ihres Erscheinungsbildes, ihrer editorischen und personellen Strukturen oder ihres Seitenumfangs markieren entscheidende Wendepunkte der deutschen Politik während des deutschen Kaiserreichs und der Weimarer Republik. Ihr Niveau lag deutlich über dem einer allgemeinen Frauenzeitschrift, eines Mitteilungs- oder Unterhaltungsblattes. Ihr Ziel war es, sowohl politisches Schulungsblatt für die engagierten Genossinnen als auch Agitationsmittel für die indifferenten Proletarierinnen zu sein. Inwieweit sie mit dieser Zielsetzung erfolgreich war, kann jedoch selbst die große Zahl ihrer Abonnements (der Höchststand lag 1914 bei 124.000 Exemplaren) nicht validieren. Tatsächlich ließ gerade der von ihrer langjährigen Redakteurin Clara Zetkin (1857-1933) angestrebte hohe intellektuelle Anspruch die „Gleichheit“ jedoch nicht zu einem Medium der Massen werden. Im Mai 1917 entschied sich der SPD-Parteivorstand, der dem Burgfrieden abträglichen, konsequent sozialistischen und internationalistischen Haltung Zetkins keine öffentliche Plattform mehr zu geben und entließ sie aus der Redaktion. Die Leitung der „Gleichheit“, die auch bis zu diesem Zeitpunkt durchaus keine „One-Woman-Show“ war, oblag schließlich bis zu ihrem letztmaligen Erscheinen im September 1923 noch einigen weiteren Redakteurinnen und Redakteuren (Marie Juchacz (1879-1956), Heinrich Schulz (1872-1932), Clara Bohm-Schuch (1879-1936), Elli Radtke-Warmuth (?-?) und Mathilde Wurm (1874-1935)). Deren Tätigkeit für die „Gleichheit“ wurde jedoch bisher kaum wissenschaftlich reflektiert. Dies gilt auch für die ausgesprochen internationale Zusammensetzung oder die männlichen Mitglieder des MitarbeiterInnenstabes. Indem sie sich selbst in der Tradition und als Teil eines Netzwerkes deutscher Frauen­öffentlichkeit („Die Frauen-Zeitung“ (1849-1852), „Die Staatsbürgerin“ (1886) und „Die Arbeiterin“ (1890-1891)) sah und indem sie besonders mittels frauen­geschichtlicher und frauenbiographischer Inhalte das Selbstbewusstsein ihrer Leserinnen zu fördern versuchte, betrieb die „Gleichheit“ gezielt Frauengeschichtsschreibung. Zahlreiche Artikel porträtieren Frauen aus Geschichte und Gegenwart und stellen in ihrem elaborierten Stil „Typen“ bzw. „Vorbilder“ dar. Um die Frage beantworten zu können, welche Frauen der Geschichte und welche ihrer Charaktereigenschaften von der „Gleichheit“ als vorbildlich für Sozialdemokratinnen erachtet wurden, wurden die biographischen Artikel zu 173 Frauen nach Analyse ihrer Inhalte und ihres Duktus vier Frauenleitbildern zugeordnet. Die Kategorisierung der einzelnen Frauenleitbilder „weiblicher Vollmensch“, „sozialistische Mutter“, „sozialistische Ehefrau“ und „Klassenkämpferin“ lehnt sich wiederum an den von Zetkin bereits 1898 veröffentlichten Artikel „Nicht Haussklavin, nicht Mannweib, weiblicher Vollmensch” (Die Gleichheit, Jg. 08/ Nr. 02/ 19.11.1898/ S. 1.) an. Sämtliche frauenbiographischen Artikel appellieren an die „Gleichheit“-Leserinnen, die oft selbst gesetzten Grenzen ihrer Handlungs – und Entwicklungsmöglichkeiten zu sprengen. Die sich daraus ableitenden Identifikationsangebote waren somit nicht auf dem Reissbrett ent­worfen, sondern basierten auf geschichtlicher Erfahrung und antizipierendem Bewusstsein. Diese Leitbilder versuchten, Realität und Utopie miteinander zu verbinden und konnten daher kaum frei von Widersprüchen sein. Wie die „Gleichheit“ selbst, so blieben auch ihre Ansätze politischer Frauen­bildung teilweise zwischen revolu­tionärem Umsturz und traditioneller Kontinuität gefangen. Indem sich die „Gleichheit“ historischer Vorbilder bediente, machte sie jedoch konkrete Ansprüche geltend: Sie forderte den weiblichen Anteil an Geschichte, an politischer Macht und am öffentlichen Bewusstsein.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A persistent issue of debate in the area of 3D object recognition concerns the nature of the experientially acquired object models in the primate visual system. One prominent proposal in this regard has expounded the use of object centered models, such as representations of the objects' 3D structures in a coordinate frame independent of the viewing parameters [Marr and Nishihara, 1978]. In contrast to this is another proposal which suggests that the viewing parameters encountered during the learning phase might be inextricably linked to subsequent performance on a recognition task [Tarr and Pinker, 1989; Poggio and Edelman, 1990]. The 'object model', according to this idea, is simply a collection of the sample views encountered during training. Given that object centered recognition strategies have the attractive feature of leading to viewpoint independence, they have garnered much of the research effort in the field of computational vision. Furthermore, since human recognition performance seems remarkably robust in the face of imaging variations [Ellis et al., 1989], it has often been implicitly assumed that the visual system employs an object centered strategy. In the present study we examine this assumption more closely. Our experimental results with a class of novel 3D structures strongly suggest the use of a view-based strategy by the human visual system even when it has the opportunity of constructing and using object-centered models. In fact, for our chosen class of objects, the results seem to support a stronger claim: 3D object recognition is 2D view-based.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A compositional time series is obtained when a compositional data vector is observed at different points in time. Inherently, then, a compositional time series is a multivariate time series with important constraints on the variables observed at any instance in time. Although this type of data frequently occurs in situations of real practical interest, a trawl through the statistical literature reveals that research in the field is very much in its infancy and that many theoretical and empirical issues still remain to be addressed. Any appropriate statistical methodology for the analysis of compositional time series must take into account the constraints which are not allowed for by the usual statistical techniques available for analysing multivariate time series. One general approach to analyzing compositional time series consists in the application of an initial transform to break the positive and unit sum constraints, followed by the analysis of the transformed time series using multivariate ARIMA models. In this paper we discuss the use of the additive log-ratio, centred log-ratio and isometric log-ratio transforms. We also present results from an empirical study designed to explore how the selection of the initial transform affects subsequent multivariate ARIMA modelling as well as the quality of the forecasts

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El carcinoma Hepatocelular (HCC) representa la sexta causa más frecuente de cáncer, y la tercera causa de muerte relacionada con cáncer en el mundo con aproximadamente 600.000 muertes anuales. En el 70 % de los casos, este se desarrolla en presencia de una enfermedad crónica del hígado como la cirrosis u otras enfermedades inflamatorias, por lo que practicar métodos de tamizaje para su diagnóstico precoz, pudieran establecer un mejor pronóstico. El objetivo de este trabajo es diseñar una vía clínica capaz de homogenizar el proceso de tamizaje de HCC, soportando su realización con la realización de una evaluación económica de esta intervención. Se realiza una búsqueda sistemática de literatura y se propone una vía clínica para la vigilancia de HCC en Colombia. A esta propuesta se aplica una evaluación económica tipo costo-efectividad mediante un modelo de Markov de la intervención propuesta, comparando la aplicación de la vía clínica propuesta frente al manejo actual en 100 pacientes considerados con riesgo (cirrosis, portadores de HBV y/o portadores de HCV) con un horizonte de tiempo de 30 años analizando como desenlace los años de vida salvados (LYS) desde la perspectiva del tercero pagador para Colombia a precios de 2009. El análisis determina una disminución de la mortalidad en un 40%, y un valor ICER de US$ 1,438 por LYS, por lo cual se concluye que resulta costo efectivo la aplicación de esta propuesta de tamizaje. Es necesario realizar una prueba para la aplicación de la vía clínica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción: Determinamos la proporción de resolución espontánea de RVU primario en una población de niños menores de 5 años así como los factores que influyen y predicen tal resolución, con base en lo cual diseñamos un nomograma que permite determinar la posibilidad de resolución espontánea de cada grado de reflujo a los 3 años de su diagnóstico Metodología: Incluimos 407 niños con diagnóstico de RVU primario en un periodo de 10 años. Mediante análisis de asociación y comparaciones de promedios se determinaron las variables que se comportaron como factores de riesgo para fallar en obtener resolución espontanea y por un modelo de regresión logística binomial se confirmaron asociaciones. Se practicaron comparaciones mediante ANOVA o t-test y así como análisis de sobrevida mediante Log Rank Test para determinar las variables que influían también en el tiempo necesario para obtener resolución espontánea. Resultados: Las tasas de resolución espontánea fueron 92%, 85%, 56.4%, 21% y 5% para los grados I a V de reflujo respectivamente. En el análisis multivariado, Las variables nefropatía por reflujo (sig=0,000), Síndrome de evacuación disfuncional (SED) (sig=0,000) y bilateralidad (sig=0,006) fueron los factores de riesgo independientes para la falla del RVU en resolver espontáneamente. Sin embargo, en los análisis de sobrevida solo la variable SED demostró influir en el tiempo necesario para obtener resolución espontanea (sig=0,002). Discusión: Los hallazgos de este estudio ratifican la importancia de incluir variables como SED, nefropatía por reflujo y lateralidad en los modelos de predicción de resolución espontánea del RVU.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este documento examina la hipótesis de sostenibilidad fiscal para 8 países de Latinoamérica. A partir de un modelo de datos panel, se determina si los ingresos y gasto primario de los Gobiernos entre 1960 - 2009 están cointegrados, es decir, si son sostenibles a largo plazo. Para esto, se utilizaron pruebas de raíz unitaria y cointegración de segunda generación con datos panel macroeconómicos, lo que permite tener en cuenta la dependencia cruzada entre los países, así como los posibles quiebres estructurales en la relación que estén determinados de manera endógena; en particular, se usan la prueba de estacionariedad de Hadri y Rao (2008) y la prueba de cointegración de Westerlund (2006). Como resultado del análisis se encontró evidencia empírica de que en el período bajo estudio el déficit primario en los 8 países latinoamericanos es sostenible pero en sentido débil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La decisión de los individuos acerca del ahorro para el retiro ha sido abordada teóricamente bajo la hipótesis de que el sistema de seguridad social se comporta como un sustituto de otros mecanismos de ahorro. Este documento presenta evidencia de los patrones y determinantes del ahorro para el retiro en Colombia a partir de la Gran Encuesta Integrada de Hogares de 2007. Los resultados muestran que el 63% de los ocupados declaran no ahorrar para su vejez. A partir de modelos de selección discreta se encuentra que individuos jóvenes, de sexo masculino, con menor nivel educativo, residentes en zonas rurales, y trabajadores cuenta propia, presentan menores probabilidades de ah orrar para el retiro; además las características socioeconómicas resultan significativas en la determinación del mecanismo de ahorro utilizado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The growing empirical literature on the analysis of civil war has recently included the study of conflict duration at the cross-country level. This paper presents, for the first time, a within-country analysis of the determinants of violence duration. I focus on the experience of the Colombian armed conflict. While the conflict has been active for about five decades, local violence ebbs and flows and areas experiencing continuous conflict coexist with places that have been able to resile and where violence is mostly absent. I examine a wide range of factors potentially associated with violence duration at the municipal level, including scale variables, geographical conditions, economic and social variables, institutions and state presence, inequality, government intervention, and victimization variables. I characterize a few variables robustly correlated with the persistence of localized conflict, both across specifications and using different econometric models of duration analysis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study the role of natural resource windfalls in explaining the efficiency of public expenditures. Using a rich dataset of expenditures and public good provision for 1,836 municipalities in Peru for period 2001-2010, we estimate a non-monotonic relationship between the efficiency of public good provision and the level of natural resource transfers. Local governments that were extremely favored by the boom of mineral prices were more efficient in using fiscal windfalls whereas those benefited with modest transfers were more inefficient. These results can be explained by the increase in political competition associated with the boom. However, the fact that increases in efficiency were related to reductions in public good provision casts doubts about the beneficial effects of political competition in promoting efficiency.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In recent years, some epidemiologic studies have attributed adverse effects of air pollutants on health not only to particles and sulfur dioxide but also to photochemical air pollutants (nitrogen dioxide and ozone). The effects are usually small, leading to some inconsistencies in the results of the studies. Furthermore, the different methodologic approaches of the studies used has made it difficult to derive generic conclusions. We provide here a quantitative summary of the short-term effects of photochemical air pollutants on mortality in seven Spanish cities involved in the EMECAM project, using generalized additive models from analyses of single and multiple pollutants. Nitrogen dioxide and ozone data were provided by seven EMECAM cities (Barcelona, Gijón, Huelva, Madrid, Oviedo, Seville, and Valencia). Mortality indicators included daily total mortality from all causes excluding external causes, daily cardiovascular mortality, and daily respiratory mortality. Individual estimates, obtained from city-specific generalized additive Poisson autoregressive models, were combined by means of fixed effects models and, if significant heterogeneity among local estimates was found, also by random effects models. Significant positive associations were found between daily mortality (all causes and cardiovascular) and NO2, once the rest of air pollutants were taken into account. A 10 μg/m3 increase in the 24-hr average 1-day NO2 level was associated with an increase in the daily number of deaths of 0.43% [95% confidence interval(CI), –0.003–0.86%] for all causes excluding external. In the case of significant relationships, relative risks for cause-specific mortality were nearly twice as much as that for total mortality for all the photochemical pollutants. Ozone was independently related only to cardiovascular daily mortality. No independent statistically significant relationship between photochemical air pollutants and respiratory mortality was found. The results in this study suggest that, given the present levels of photochemical pollutants, people living in Spanish cities are exposed to health risks derived from air pollution

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Marbled Murrelet (Brachyramphus marmoratus) is a threatened alcid that nests almost exclusively in old-growth forests along the Pacific coast of North America. Nesting habitat has significant economic importance. Murrelet nests are extremely difficult and costly to find, which adds uncertainty to management and conservation planning. Models based on air photo interpretation of forest cover maps or assessments by low-level helicopter flights are currently used to rank presumed Marbled Murrelet nesting habitat quality in British Columbia. These rankings are assumed to correlate with nest usage and murrelet breeding productivity. Our goal was to find the models that best predict Marbled Murrelet nesting habitat in the ground-accessible portion of the two regions studied. We generated Resource Selection Functions (RSF) using logistic regression models of ground-based forest stand variables gathered at plots around 64 nests, located using radio-telemetry, versus 82 random habitat plots. The RSF scores are proportional to the probability of nests occurring in a forest patch. The best models differed somewhat between the two regions, but include both ground variables at the patch scale (0.2-2.0 ha), such as platform tree density, height and trunk diameter of canopy trees and canopy complexity, and landscape scale variables such as elevation, aspect, and slope. Collecting ground-based habitat selection data would not be cost-effective for widespread use in forestry management; air photo interpretation and low-level aerial surveys are much more efficient methods for ranking habitat suitability on a landscape scale. This study provides one method for ground-truthing the remote methods, an essential step made possible using the numerical RSF scores generated herein.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A multiple regression analysis of the NCEP-NCAR reanalysis dataset shows a response to increased solar activity of a weakening and poleward shift of the subtropical jets. This signal is separable from other influences, such as those of El Nino-Southern Oscillation (ENSO) and the North Atlantic Oscillation (NAO), and is very similar to that seen in previous studies using global circulation models (GCMs) of the effects of an increase in solar spectral irradiance. The response to increased stratospheric (volcanic) aerosol is found in the data to be a weakening and equatorward shift of the jets. The GCM studies of the solar influence also showed an impact on tropospheric mean meridional circulation with a weakening and expansion of the tropical Hadley cells and a poleward shift of the Ferrel cells. To understand the mechanisms whereby the changes in solar irradiance affect tropospheric winds and circulation, experiments have been carried out with a simplified global circulation model. The results show that generic heating of the lower stratosphere tends to weaken the subtropical jets and the tropospheric mean meridional circulations. The positions of the jets, and the extent of the Hadley cells, respond to the distribution of the stratospheric heating, with low-latitude heating forcing them to move poleward, and high-latitude or latitudinally uniform heating forcing them equatorward. The patterns of response are similar to those that are found to be a result of the solar or volcanic influences, respectively, in the data analysis. This demonstrates that perturbations to the heat balance of the lower stratosphere, such as those brought about by solar or volcanic activity, can produce changes in the mean tropospheric circulation, even without any direct forcing below the tropopause.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Preferred structures in the surface pressure variability are investigated in and compared between two 100-year simulations of the Hadley Centre climate model HadCM3. In the first (control) simulation, the model is forced with pre-industrial carbon dioxide concentration (1×CO2) and in the second simulation the model is forced with doubled CO2 concentration (2×CO2). Daily winter (December-January-February) surface pressures over the Northern Hemisphere are analysed. The identification of preferred patterns is addressed using multivariate mixture models. For the control simulation, two significant flow regimes are obtained at 5% and 2.5% significance levels within the state space spanned by the leading two principal components. They show a high pressure centre over the North Pacific/Aleutian Islands associated with a low pressure centre over the North Atlantic, and its reverse. For the 2×CO2 simulation, no such behaviour is obtained. At higher-dimensional state space, flow patterns are obtained from both simulations. They are found to be significant at the 1% level for the control simulation and at the 2.5% level for the 2×CO2 simulation. Hence under CO2 doubling, regime behaviour in the large-scale wave dynamics weakens. Doubling greenhouse gas concentration affects both the frequency of occurrence of regimes and also the pattern structures. The less frequent regime becomes amplified and the more frequent regime weakens. The largest change is observed over the Pacific where a significant deepening of the Aleutian low is obtained under CO2 doubling.