604 resultados para Workflows semânticos
Resumo:
This research explores Bayesian updating as a tool for estimating parameters probabilistically by dynamic analysis of data sequences. Two distinct Bayesian updating methodologies are assessed. The first approach focuses on Bayesian updating of failure rates for primary events in fault trees. A Poisson Exponentially Moving Average (PEWMA) model is implemnented to carry out Bayesian updating of failure rates for individual primary events in the fault tree. To provide a basis for testing of the PEWMA model, a fault tree is developed based on the Texas City Refinery incident which occurred in 2005. A qualitative fault tree analysis is then carried out to obtain a logical expression for the top event. A dynamic Fault Tree analysis is carried out by evaluating the top event probability at each Bayesian updating step by Monte Carlo sampling from posterior failure rate distributions. It is demonstrated that PEWMA modeling is advantageous over conventional conjugate Poisson-Gamma updating techniques when failure data is collected over long time spans. The second approach focuses on Bayesian updating of parameters in non-linear forward models. Specifically, the technique is applied to the hydrocarbon material balance equation. In order to test the accuracy of the implemented Bayesian updating models, a synthetic data set is developed using the Eclipse reservoir simulator. Both structured grid and MCMC sampling based solution techniques are implemented and are shown to model the synthetic data set with good accuracy. Furthermore, a graphical analysis shows that the implemented MCMC model displays good convergence properties. A case study demonstrates that Likelihood variance affects the rate at which the posterior assimilates information from the measured data sequence. Error in the measured data significantly affects the accuracy of the posterior parameter distributions. Increasing the likelihood variance mitigates random measurement errors, but casuses the overall variance of the posterior to increase. Bayesian updating is shown to be advantageous over deterministic regression techniques as it allows for incorporation of prior belief and full modeling uncertainty over the parameter ranges. As such, the Bayesian approach to estimation of parameters in the material balance equation shows utility for incorporation into reservoir engineering workflows.
Resumo:
Hemos adoptado una definición sociológica de pobreza, que nos ha permitido elaborar una imagen del pobre como individuo ante la sociedad. El estado de la cuestión del que partimos está formado por las definiciones sintéticas de pobreza que ofrecen autores actuales (por ejemplo, pobreza absoluta-relativa, pobreza-desviación social, dualización social-pobreza de Tezanos; nueva pobreza-pobreza tradicional de Tortosa) a partir de las cuales comprendemos y contextualizamos a los autores canónicos de la pobreza en su época (Vives-Robles-Soto, Giginta-Herrera, Weber, Tocqueville, Bentham o Marx por poner algunos ejemplos clásicos). Objetivos de la tesis: Esta tesis pretende establecer una tipología que razone los significados de los iconos de pobreza en el diseño y arte madrileños del inicio del siglo XXI, entroncando esas imágenes de pobreza con la tradición iconográfica occidental del pauperismo. La caracterización del pobre, su posición social, sus atributos y escenarios mantienen una afinidad visual y conceptual con el presente (hemos situado imágenes separadas en el tiempo pero unidas por los ejes semánticos que planteamos y se comprueba sus puntos visuales). Hipótesis: Nuestra hipótesis de partida, que confirmamos al concluir la tesis es que existe una relación entre esas imágenes míseras y un concepto de riqueza y pobreza de honda raíz cultural. La descomposición iconográfica de las imágenes se combina con un análisis de campo semántico de los discursos que en cada época y autor acompaña los iconos de pobres. Metodología: Para analizar el corpus de más de 600 imágenes y 1000 discursos sobre la pobreza hemos empleado un protocolo común para poder establecer posteriores comparaciones. Nuestro método combina el análisis de discurso (Muñoz, Álvarez-Uría), con especial atención al empleo de metáforas (Lakoff, Lizcano), y el análisis iconográfico (Panofsky). Los epígrafes de este modelo de análisis son: datos de la época, teóricos que definen la pobreza, antecedentes de concepto de pobreza, metáfora sobre la pobreza, movilidad social: ser o estar pobre, legitimación social, políticas de la pobreza, número de pobres, tipos de pobres, pobreza y clase social, relación ricos pobres, aspecto y ejemplos del pobre, denominación del pobre, lugares de la pobreza, ceremonias de la pobreza y las imágenes artísticas y de diseño. Conclusiones: Hemos conseguido describir el significado de las imágenes artísticas y de diseño sobre la pobreza madrileñas en el principio del s. XXI elaborando una tipología semántica con seis definiciones de pobreza: pobreza ironizada, recreada, bella, fea, de lucha social y exótica. Damos cuenta de ejemplos paradigmáticos del presente para ilustrar cada tipo y relacionamos cada una de esas clases de pobreza con visiones de la pobreza tradicional.
Resumo:
Human activities represent a significant burden on the global water cycle, with large and increasing demands placed on limited water resources by manufacturing, energy production and domestic water use. In addition to changing the quantity of available water resources, human activities lead to changes in water quality by introducing a large and often poorly-characterized array of chemical pollutants, which may negatively impact biodiversity in aquatic ecosystems, leading to impairment of valuable ecosystem functions and services. Domestic and industrial wastewaters represent a significant source of pollution to the aquatic environment due to inadequate or incomplete removal of chemicals introduced into waters by human activities. Currently, incomplete chemical characterization of treated wastewaters limits comprehensive risk assessment of this ubiquitous impact to water. In particular, a significant fraction of the organic chemical composition of treated industrial and domestic wastewaters remains uncharacterized at the molecular level. Efforts aimed at reducing the impacts of water pollution on aquatic ecosystems critically require knowledge of the composition of wastewaters to develop interventions capable of protecting our precious natural water resources.
The goal of this dissertation was to develop a robust, extensible and high-throughput framework for the comprehensive characterization of organic micropollutants in wastewaters by high-resolution accurate-mass mass spectrometry. High-resolution mass spectrometry provides the most powerful analytical technique available for assessing the occurrence and fate of organic pollutants in the water cycle. However, significant limitations in data processing, analysis and interpretation have limited this technique in achieving comprehensive characterization of organic pollutants occurring in natural and built environments. My work aimed to address these challenges by development of automated workflows for the structural characterization of organic pollutants in wastewater and wastewater impacted environments by high-resolution mass spectrometry, and to apply these methods in combination with novel data handling routines to conduct detailed fate studies of wastewater-derived organic micropollutants in the aquatic environment.
In Chapter 2, chemoinformatic tools were implemented along with novel non-targeted mass spectrometric analytical methods to characterize, map, and explore an environmentally-relevant “chemical space” in municipal wastewater. This was accomplished by characterizing the molecular composition of known wastewater-derived organic pollutants and substances that are prioritized as potential wastewater contaminants, using these databases to evaluate the pollutant-likeness of structures postulated for unknown organic compounds that I detected in wastewater extracts using high-resolution mass spectrometry approaches. Results showed that application of multiple computational mass spectrometric tools to structural elucidation of unknown organic pollutants arising in wastewaters improved the efficiency and veracity of screening approaches based on high-resolution mass spectrometry. Furthermore, structural similarity searching was essential for prioritizing substances sharing structural features with known organic pollutants or industrial and consumer chemicals that could enter the environment through use or disposal.
I then applied this comprehensive methodological and computational non-targeted analysis workflow to micropollutant fate analysis in domestic wastewaters (Chapter 3), surface waters impacted by water reuse activities (Chapter 4) and effluents of wastewater treatment facilities receiving wastewater from oil and gas extraction activities (Chapter 5). In Chapter 3, I showed that application of chemometric tools aided in the prioritization of non-targeted compounds arising at various stages of conventional wastewater treatment by partitioning high dimensional data into rational chemical categories based on knowledge of organic chemical fate processes, resulting in the classification of organic micropollutants based on their occurrence and/or removal during treatment. Similarly, in Chapter 4, high-resolution sampling and broad-spectrum targeted and non-targeted chemical analysis were applied to assess the occurrence and fate of organic micropollutants in a water reuse application, wherein reclaimed wastewater was applied for irrigation of turf grass. Results showed that organic micropollutant composition of surface waters receiving runoff from wastewater irrigated areas appeared to be minimally impacted by wastewater-derived organic micropollutants. Finally, Chapter 5 presents results of the comprehensive organic chemical composition of oil and gas wastewaters treated for surface water discharge. Concurrent analysis of effluent samples by complementary, broad-spectrum analytical techniques, revealed that low-levels of hydrophobic organic contaminants, but elevated concentrations of polymeric surfactants, which may effect the fate and analysis of contaminants of concern in oil and gas wastewaters.
Taken together, my work represents significant progress in the characterization of polar organic chemical pollutants associated with wastewater-impacted environments by high-resolution mass spectrometry. Application of these comprehensive methods to examine micropollutant fate processes in wastewater treatment systems, water reuse environments, and water applications in oil/gas exploration yielded new insights into the factors that influence transport, transformation, and persistence of organic micropollutants in these systems across an unprecedented breadth of chemical space.
Resumo:
Para un mejor desempeño en la lengua extranjera, es de fundamental importancia que los estudiantes conozcan las posibilidades comunicativas que ofrecen ciertos recursos léxicos, entre otros, la repetición y la sinonimia, especialmente en lo que atañe a su función cohesiva. Según Halliday y Hassan (1976), existen diferentes tipos de cohesión: aquella que se vale de recursos gramaticales y aquella que opera dentro de la zona léxica. La cohesión léxica se logra mediante la selección del vocabulario dentro de campos semánticos particulares, que pueden caracterizarse como espacios textuales en los que la aparición de determinadas palabras es esperada en relación con el tratamiento que se lleve a cabo de una determinada situación (Ghio & Fernández, 2008). En la clasificación de Halliday y Hassan (1976), se describen los siguientes tipos de cohesión léxica: la reiteración y la colocación. En este trabajo focalizamos en la reiteración de ítems léxicos en la conversación coloquial y en los usos pragmáticos que los hablantes nativos del español rioplatense hacen de estos recursos cohesivos. Para esta investigación, se utilizaron 20 conversaciones elegidas al azar extraídas del corpus ECAr, (Español Coloquial de Argentina), formado por sesenta conversaciones coloquiales en las que participan estudiantes universitarios argentinos de ambos sexos de entre 18 y 28 años de edad, perteneciente a proyectos de investigación de la UNLP. Se llevó a cabo un análisis cualitativo de las conversaciones seleccionadas que permitió detectar algunos usos frecuentes de la reiteración, como mostrar acuerdo, enfatizar y ampliar la información, entre otros
Resumo:
Cloud computing offers massive scalability and elasticity required by many scien-tific and commercial applications. Combining the computational and data handling capabilities of clouds with parallel processing also has the potential to tackle Big Data problems efficiently. Science gateway frameworks and workflow systems enable application developers to implement complex applications and make these available for end-users via simple graphical user interfaces. The integration of such frameworks with Big Data processing tools on the cloud opens new oppor-tunities for application developers. This paper investigates how workflow sys-tems and science gateways can be extended with Big Data processing capabilities. A generic approach based on infrastructure aware workflows is suggested and a proof of concept is implemented based on the WS-PGRADE/gUSE science gateway framework and its integration with the Hadoop parallel data processing solution based on the MapReduce paradigm in the cloud. The provided analysis demonstrates that the methods described to integrate Big Data processing with workflows and science gateways work well in different cloud infrastructures and application scenarios, and can be used to create massively parallel applications for scientific analysis of Big Data.
Resumo:
Cuatro derivados en -τρον y -θρον se refieren no a un objeto, sino a una persona. Analizo κύκηθρον y τάρακτρον, con especial atención al pasaje de la Paz de Aristófanes, y λαίμαστρον y el plural νώβυστρα, documentados en Herodas.
Resumo:
Partiendo del concepto de metáfora cognitiva, que complementa al más conocido de metáfora literaria, y analizando la base conceptual que a ambas subyace, pretendemos un cuidadoso análisis de los textos de poesía épica y lírica arcaicas, sin olvidar la importancia fundamental del contexto cultural en que estos surgen, para obtener una mejor comprensión de la forma en que los griegos conceptualizaban el sentimiento amoroso.
Resumo:
El estudio de las combinaciones léxicas según su grado de fijación y su distinción en combinaciones libres, colocaciones y locuciones ha sido realizado desde la perspectiva sincrónica. Planteamos la posibilidad de aplicar las pautas para distinguir estos tipos de estructuras en materiales de tipo diacrónico. Concretamente, nos basamos en los documentos que componen el Corpus del Español del Reino de Granada (CORDEREGRA) para valorar los materiales de este corpus histórico-lingüístico y comprobar si los criterios sincrónicos se pueden aplicar al estudio de documentos de otros siglos.
Resumo:
En el presente artículo nos proponemos presentar una visión general de la fraseodidáctica, una disciplina relativamente nueva que, hoy en día, gracias a un considerable número de trabajos centrados en diferentes aspectos concernientes a la enseñanza de lenguas, se ha convertido en un campo de estudio independiente. Así pues, no solo explicaremos la definición del concepto fraseodidáctica, sino también su evolución y objetivos. Además, presentaremos los motivos por los cuales la fraseología debe contemplarse como una materia imprescindible e insoslayable en el aula de E/LE, así como indagaremos en diversas propiedades fraseológicas que dificultan tanto la labor del docente como el proceso discente. Finalmente, partiendo de las ideas desarrolladas, ofreceremos consideraciones metodológicas generales con interesantes implicaciones didácticas.
Resumo:
El objetivo de este trabajo consiste en comparar las funciones pragmáticas de una estructura intensificadora en español peninsular formada con la partícula venga (venga a + infinitivo) con estructuras intensificadoras en inglés. Para ello, analizamos los factores sintácticos, semánticos y pragmáticos que el traductor tiene en cuenta a la hora de usar esta estructura en la traducción al español. El corpus lo componen fragmentos de obras literarias extraídas en Google Books. Los resultados demuestran que con esta construcción se consigue transferir al español no sólo efectos semánticos (iteración), sino también pragmáticos, como la evaluación del hablante (desacuerdo, sorpresa, etc.).
Resumo:
Debido a las características intrínsecas de la lengua china, los clíticos juegan un papel imprescindible en la estructura sintáctica del idioma. Sin ellos, las oraciones no llegan a construirse, ya que son estos, entre otros recursos, los que cargan las informaciones gramaticales; es más, cada clítico en chino ocupa un hueco en la gramática, por lo que es difícil remplazarlos sin cambiar el sentido de la oración. De todos los clíticos, la palabra «的» es la que se presenta con mayor frecuencia. Esta palabra, como muchas otras “palabras vacías”, desempeña diversas funciones gramaticales, por lo que constituye un punto de investigación muy interesante en la gramática china. Desde los años 20 del siglo pasado, generaciones de eruditos se han dedicado a su estudio, entre otros, figuran Li Jinxi(黎锦熙), Gao Mingkai(高名凯),Chen Qiongzan(陈琼瓒), Fan Jiyan(范继淹)y Zhu Dexi(朱德熙). Un artículo de este último Sobre “的 (De)” ha provocado una amplia reacción y una profunda influencia en las investigaciones posteriores. A pesar de todo y hasta hoy en día, el uso de esta palabra sigue siendo un escollo tanto para los profesores de chino como para sus alumnos. Las ambigüedades que puede causar y la diferencia semántica y pragmática de su uso y desuso han sido un rompecabezas no sólo para los extranjeros, sino también para los nativos. En este artículo, intentaremos delimitar sus usos y analizar sus valores semánticos y pragmáticos.
Resumo:
When studying polysemy in Chinese and Spanish, a cognitive approach shows what is common in the polysemous patterns of both languages, so that we can make generalizations applicable to other languages and other semantic phenomena of language. The paper’s hypothesis is that there are universal mechanisms of semantic extension that can be highlighted and can be used in teaching and learning languages.
Resumo:
Esta investigación analiza el uso del sufijo diminutivo en un corpus oral de jóvenes de la República Dominicana. El material procede de la transcripción de veinte entrevistas orales realizadas en los años noventa en Santo Domingo. En este estudio se realiza un análisis de las ocurrencias documentadas, su morfología, sus preferencias en cuanto a la selección de las clases de palabras que se toman como base para la formación de diminutivos, sus posibles valores semánticos y comunicativos, y, por último, se determina la frecuencia de uso del diminutivo en función del sexo de los hablantes.
Resumo:
Adjoint methods have proven to be an efficient way of calculating the gradient of an objective function with respect to a shape parameter for optimisation, with a computational cost nearly independent of the number of the design variables [1]. The approach in this paper links the adjoint surface sensitivities (gradient of objective function with respect to the surface movement) with the parametric design velocities (movement of the surface due to a CAD parameter perturbation) in order to compute the gradient of the objective function with respect to CAD variables.
For a successful implementation of shape optimization strategies in practical industrial cases, the choice of design variables or parameterisation scheme used for the model to be optimized plays a vital role. Where the goal is to base the optimization on a CAD model the choices are to use a NURBS geometry generated from CAD modelling software, where the position of the NURBS control points are the optimisation variables [2] or to use the feature based CAD model with all of the construction history to preserve the design intent [3]. The main advantage of using the feature based model is that the optimized model produced can be directly used for the downstream applications including manufacturing and process planning.
This paper presents an approach for optimization based on the feature based CAD model, which uses CAD parameters defining the features in the model geometry as the design variables. In order to capture the CAD surface movement with respect to the change in design variable, the “Parametric Design Velocity” is calculated, which is defined as the movement of the CAD model boundary in the normal direction due to a change in the parameter value.
The approach presented here for calculating the design velocities represents an advancement in terms of capability and robustness of that described by Robinson et al. [3]. The process can be easily integrated to most industrial optimisation workflows and is immune to the topology and labelling issues highlighted by other CAD based optimisation processes. It considers every continuous (“real value”) parameter type as an optimisation variable, and it can be adapted to work with any CAD modelling software, as long as it has an API which provides access to the values of the parameters which control the model shape and allows the model geometry to be exported. To calculate the movement of the boundary the methodology employs finite differences on the shape of the 3D CAD models before and after the parameter perturbation. The implementation procedure includes calculating the geometrical movement along a normal direction between two discrete representations of the original and perturbed geometry respectively. Parametric design velocities can then be directly linked with adjoint surface sensitivities to extract the gradients to use in a gradient-based optimization algorithm.
The optimisation of a flow optimisation problem is presented, in which the power dissipation of the flow in an automotive air duct is to be reduced by changing the parameters of the CAD geometry created in CATIA V5. The flow sensitivities are computed with the continuous adjoint method for a laminar and turbulent flow [4] and are combined with the parametric design velocities to compute the cost function gradients. A line-search algorithm is then used to update the design variables and proceed further with optimisation process.
Resumo:
A partir de um conjunto de dados obtidos em pesquisa, o texto deseja salientar uma face pouco examinada pelos estudiosos do espiritismo no Brasil: aquela dos grupos espíritas que cultuam extraterrestres. Examina a narrativa Rebelião de Lúcifer, escrita pelo médium potiguar Jan Val Ellam. Sustenta que esta atualiza noções importantes em relação a narrativas de salvação anteriores construídas pelo espiritismo. Destaca em especial o aprimoramento racial e moral através da reencarnação em distintos corpos humanos e em diferentes planetas. Examina-os a partir das noções de exílio planetário e de evolução racializada. Argumenta que Jan Val Ellam as atualiza através da categoria nativa Povo de Alt’Lam e através de bricolagem com outros campos semânticos, notadamente a ufologia e a fi cção científica