598 resultados para Workflows semânticos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El hecho de que la economía sea una de las ciencias sociales cuya presencia dentro de la agenda de los medios de comunicación ha aumentado de forma considerable en los últimos años hace que cada vez se haga más necesario un estudio en profundidad de los textos, orales y escritos, que esta área de información genera. Dentro de los lenguajes de especialidad, el económico presenta una gran variedad, tanto de temáticas como de niveles, de acuerdo con el marco en el que se dé la interacción comunicativa. Las formas de abordar el estudio de los textos periodísticos económicos son múltiples pero en su mayoría, han de estar inevitablemente relacionadas con el uso que del lenguaje hacen los emisores de dichos mensajes. La lengua, como herramienta de transmisión de conocimiento, permite su observación desde múltiples ángulos. Entre ellos, el de la lingüística, una perspectiva que permite un análisis detallado de las estructuras que se repiten con mayor o menor frecuencia dentro de los textos cuya temática se enmarca dentro del área de la economía y las nanzas. Con el objetivo de determinar además cómo varía la utilización de unos y otros patrones sintácticos, semánticos, léxicos, etc. dentro de los distintos grados de especialización que han sido determinados tradicionalmente, hemos realizado un estudio del tipo de elementos lingüísticos que se distinguen dentro de los distintos textos, agrupados éstos de acuerdo con el grado de especialización esperado, según la fuente de publicación de los mismos...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ponen de relieve las elaboraciones y los tratamientos de la imagen de Dios presentes en la poesía de Machado. Mediante un análisis de textos significativos, subraya las discrepancias del poeta ante las concepciones tradicionales de un Dios abstracto y de un Jesús sufriente, a las que el hablante propone el apego a un Jesús histórico, dador de una palabra imperecedera. El análisis se desarrolla mediante un examen del discurso poemático, de sus recursos estilísticos, fónicos y semánticos.This articIe emphasizes the interpretations and treatments of the image of God in Machado's poetry. By analyzing significant texts, this study points out the poet's discrepancies with the traditional conceptions of an abstract God and a suffering Christ, for which the speaker proposes a preference for a historical Jesus whose word will never perish. The analysis examines the poetic discourse, addressing stylistic, phonetic and semantic features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

    La autora analiza ciertas técnicas de enseñanza de traductores direccionadas a principiantes. Además de determinados aspectos teóricos, se consideran técnicas tales como ejercicios de pretraducción, análisis textual, análisis de textos paralelos, análisis de problemas semánticos, sintácticos y léxicos, y ejercicios del proceso de traducción, de revisión y de autoevaluación. 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents a study of the Grid data access patterns in distributed analysis in the CMS experiment at the LHC accelerator. This study ranges from the deep analysis of the historical patterns of access to the most relevant data types in CMS, to the exploitation of a supervised Machine Learning classification system to set-up a machinery able to eventually predict future data access patterns - i.e. the so-called dataset “popularity” of the CMS datasets on the Grid - with focus on specific data types. All the CMS workflows run on the Worldwide LHC Computing Grid (WCG) computing centers (Tiers), and in particular the distributed analysis systems sustains hundreds of users and applications submitted every day. These applications (or “jobs”) access different data types hosted on disk storage systems at a large set of WLCG Tiers. The detailed study of how this data is accessed, in terms of data types, hosting Tiers, and different time periods, allows to gain precious insight on storage occupancy over time and different access patterns, and ultimately to extract suggested actions based on this information (e.g. targetted disk clean-up and/or data replication). In this sense, the application of Machine Learning techniques allows to learn from past data and to gain predictability potential for the future CMS data access patterns. Chapter 1 provides an introduction to High Energy Physics at the LHC. Chapter 2 describes the CMS Computing Model, with special focus on the data management sector, also discussing the concept of dataset popularity. Chapter 3 describes the study of CMS data access patterns with different depth levels. Chapter 4 offers a brief introduction to basic machine learning concepts and gives an introduction to its application in CMS and discuss the results obtained by using this approach in the context of this thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Concurrent software executes multiple threads or processes to achieve high performance. However, concurrency results in a huge number of different system behaviors that are difficult to test and verify. The aim of this dissertation is to develop new methods and tools for modeling and analyzing concurrent software systems at design and code levels. This dissertation consists of several related results. First, a formal model of Mondex, an electronic purse system, is built using Petri nets from user requirements, which is formally verified using model checking. Second, Petri nets models are automatically mined from the event traces generated from scientific workflows. Third, partial order models are automatically extracted from some instrumented concurrent program execution, and potential atomicity violation bugs are automatically verified based on the partial order models using model checking. Our formal specification and verification of Mondex have contributed to the world wide effort in developing a verified software repository. Our method to mine Petri net models automatically from provenance offers a new approach to build scientific workflows. Our dynamic prediction tool, named McPatom, can predict several known bugs in real world systems including one that evades several other existing tools. McPatom is efficient and scalable as it takes advantage of the nature of atomicity violations and considers only a pair of threads and accesses to a single shared variable at one time. However, predictive tools need to consider the tradeoffs between precision and coverage. Based on McPatom, this dissertation presents two methods for improving the coverage and precision of atomicity violation predictions: 1) a post-prediction analysis method to increase coverage while ensuring precision; 2) a follow-up replaying method to further increase coverage. Both methods are implemented in a completely automatic tool.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para un mejor desempeño en la lengua extranjera, es de fundamental importancia que los estudiantes conozcan las posibilidades comunicativas que ofrecen ciertos recursos léxicos, entre otros, la repetición y la sinonimia, especialmente en lo que atañe a su función cohesiva. Según Halliday y Hassan (1976), existen diferentes tipos de cohesión: aquella que se vale de recursos gramaticales y aquella que opera dentro de la zona léxica. La cohesión léxica se logra mediante la selección del vocabulario dentro de campos semánticos particulares, que pueden caracterizarse como espacios textuales en los que la aparición de determinadas palabras es esperada en relación con el tratamiento que se lleve a cabo de una determinada situación (Ghio & Fernández, 2008). En la clasificación de Halliday y Hassan (1976), se describen los siguientes tipos de cohesión léxica: la reiteración y la colocación. En este trabajo focalizamos en la reiteración de ítems léxicos en la conversación coloquial y en los usos pragmáticos que los hablantes nativos del español rioplatense hacen de estos recursos cohesivos. Para esta investigación, se utilizaron 20 conversaciones elegidas al azar extraídas del corpus ECAr, (Español Coloquial de Argentina), formado por sesenta conversaciones coloquiales en las que participan estudiantes universitarios argentinos de ambos sexos de entre 18 y 28 años de edad, perteneciente a proyectos de investigación de la UNLP. Se llevó a cabo un análisis cualitativo de las conversaciones seleccionadas que permitió detectar algunos usos frecuentes de la reiteración, como mostrar acuerdo, enfatizar y ampliar la información, entre otros

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para un mejor desempeño en la lengua extranjera, es de fundamental importancia que los estudiantes conozcan las posibilidades comunicativas que ofrecen ciertos recursos léxicos, entre otros, la repetición y la sinonimia, especialmente en lo que atañe a su función cohesiva. Según Halliday y Hassan (1976), existen diferentes tipos de cohesión: aquella que se vale de recursos gramaticales y aquella que opera dentro de la zona léxica. La cohesión léxica se logra mediante la selección del vocabulario dentro de campos semánticos particulares, que pueden caracterizarse como espacios textuales en los que la aparición de determinadas palabras es esperada en relación con el tratamiento que se lleve a cabo de una determinada situación (Ghio & Fernández, 2008). En la clasificación de Halliday y Hassan (1976), se describen los siguientes tipos de cohesión léxica: la reiteración y la colocación. En este trabajo focalizamos en la reiteración de ítems léxicos en la conversación coloquial y en los usos pragmáticos que los hablantes nativos del español rioplatense hacen de estos recursos cohesivos. Para esta investigación, se utilizaron 20 conversaciones elegidas al azar extraídas del corpus ECAr, (Español Coloquial de Argentina), formado por sesenta conversaciones coloquiales en las que participan estudiantes universitarios argentinos de ambos sexos de entre 18 y 28 años de edad, perteneciente a proyectos de investigación de la UNLP. Se llevó a cabo un análisis cualitativo de las conversaciones seleccionadas que permitió detectar algunos usos frecuentes de la reiteración, como mostrar acuerdo, enfatizar y ampliar la información, entre otros

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El dominio de la lengua escrita, en los planos de la comprensión y la expresión, es sin duda uno de los objetivos fundamentales de la tarea educativa y por ello el objeto genérico de esta tesis es la enseñanza y el aprendizaje de la escritura de textos expositivos en Educación Infantil. Además, la compleja realidad de la sociedad actual exige que la educación se adapte a nuevas demandas y que la escuela proporcione a los alumnos un conocimiento útil, que les permita incorporarse a la vida social y cultural. Este estudio se circunscribe a esta etapa educativa por motivos profesionales, sociales y personales y analiza este tipo textual porque es el más habitual en la actividad académica. Consideramos que la escritura es una actividad compleja, debido a la diversidad de aspectos que intervienen en ella y a las habilidades necesarias para su dominio. Las investigaciones efectuadas desde la perspectiva psicogenética y desde la perspectiva sociocultural permiten dar cuenta de la importancia de trabajar el texto escrito desde los primeros años, entendiendo la práctica de la escritura como un proceso en el que intervienen de manera interrelacionada factores culturales, sociales, emotivos o afectivos, cognitivos, físicos, discursivos, semánticos, pragmáticos y verbales. Tal como se desarrolla en el Modelo Didactext (2003), la creación de un texto es un proceso complejo que consta de cuatro fases (acceso al conocimiento, planificación, producción y revisión) y si estas fases se tienen en cuenta en el desarrollo didáctico de la expresión escrita, los alumnos mejorarán en su competencia textual. Los datos de este trabajo se han obtenido en un aula de niños de cinco años en los que se ha aplicado la propuesta metodológica de secuencia didáctica, adoptando el modelo del Grupo Didactext de la Universidad Complutense de Madrid...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le journalisme informatique est une pratique émergente qui consiste en l’emploi de méthodes et d’outils empruntés au domaine de l’informatique dans la cueillette, le traitement, l’analyse ou la présentation en ligne de l’information, dans le respect des valeurs fondamentales du journalisme (Diakopoulos, 2010). Cette recherche caractérise le journalisme informatique tel qu’il se pratique au Québec en 2015 au moyen d’une série d’entrevues semi-dirigées avec 30 participants : des praticiens, bien sûr, mais aussi des responsables des principales entreprises de presse où le journalisme informatique est pratiqué ou a été pratiqué, ainsi que des professionnels de l’informatique afin d’avoir un point de vue extérieur. Elle met notamment en relief deux attitudes à l’égard de cette pratique, attitudes qui s’expriment par un travail-frontière. Il y a, d’une part, les tenants d’une ségrégation entre le journalisme et l’informatique, et, d’autre part, les partisans d’une hybridation entre les deux disciplines. Pour ces derniers, le journalisme informatique occupe un territoire professionnel distinct, à la frontière du journalisme et de l’informatique. Cette recherche décrit de façon détaillée les motivations, les compétences et les activités des journalistes informatiques québécois et fait valoir qu’ils participent à une certaine « re-professionnalisation » du journalisme. Mots-clés : journalisme; informatique; technologie; journalisme informatique; journalisme de données; datajournalisme; journalisme assisté par ordinateur; professionnalisme; identité professionnelle; compétences professionnelles; travail-frontière; innovation en journalisme; Canada; Québec

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this Ph.D. project, original and innovative approaches for the quali-quantitative analysis of abuse substances, as well as therapeutic agents with abuse potential and related compounds were designed, developed and validated for application to different fields such as forensics, clinical and pharmaceutical. All the parameters involved in the developed analytical workflows were properly and accurately optimised, from sample collection to sample pretreatment up to the instrumental analysis. Advanced dried blood microsampling technologies have been developed, able of bringing several advantages to the method as a whole, such as significant reduction of solvent use, feasible storage and transportation conditions and enhancement of analyte stability. At the same time, the use of capillary blood allows to increase subject compliance and overall method applicability by exploiting such innovative technologies. Both biological and non-biological samples involved in this project were subjected to optimised pretreatment techniques developed ad-hoc for each target analyte, making also use of advanced microextraction techniques. Finally, original and advanced instrumental analytical methods have been developed based on high and ultra-high performance liquid chromatography (HPLC,UHPLC) coupled to different detection means (mainly mass spectrometry, but also electrochemical, and spectrophotometric detection for screening purpose), and on attenuated total reflectance-Fourier transform infrared spectroscopy (ATR-FTIR) for solid-state analysis. Each method has been designed to obtain highly selective, sensitive yet sustainable systems and has been validated according to international guidelines. All the methods developed herein proved to be suitable for the analysis of the compounds under investigation and may be useful tools in medicinal chemistry, pharmaceutical analysis, within clinical studies and forensic investigations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the CERN LHC program underway, there has been an acceleration of data growth in the High Energy Physics (HEP) field and the usage of Machine Learning (ML) in HEP will be critical during the HL-LHC program when the data that will be produced will reach the exascale. ML techniques have been successfully used in many areas of HEP nevertheless, the development of a ML project and its implementation for production use is a highly time-consuming task and requires specific skills. Complicating this scenario is the fact that HEP data is stored in ROOT data format, which is mostly unknown outside of the HEP community. The work presented in this thesis is focused on the development of a ML as a Service (MLaaS) solution for HEP, aiming to provide a cloud service that allows HEP users to run ML pipelines via HTTP calls. These pipelines are executed by using the MLaaS4HEP framework, which allows reading data, processing data, and training ML models directly using ROOT files of arbitrary size from local or distributed data sources. Such a solution provides HEP users non-expert in ML with a tool that allows them to apply ML techniques in their analyses in a streamlined manner. Over the years the MLaaS4HEP framework has been developed, validated, and tested and new features have been added. A first MLaaS solution has been developed by automatizing the deployment of a platform equipped with the MLaaS4HEP framework. Then, a service with APIs has been developed, so that a user after being authenticated and authorized can submit MLaaS4HEP workflows producing trained ML models ready for the inference phase. A working prototype of this service is currently running on a virtual machine of INFN-Cloud and is compliant to be added to the INFN Cloud portfolio of services.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The term Artificial intelligence acquired a lot of baggage since its introduction and in its current incarnation is synonymous with Deep Learning. The sudden availability of data and computing resources has opened the gates to myriads of applications. Not all are created equal though, and problems might arise especially for fields not closely related to the tasks that pertain tech companies that spearheaded DL. The perspective of practitioners seems to be changing, however. Human-Centric AI emerged in the last few years as a new way of thinking DL and AI applications from the ground up, with a special attention at their relationship with humans. The goal is designing a system that can gracefully integrate in already established workflows, as in many real-world scenarios AI may not be good enough to completely replace its humans. Often this replacement may even be unneeded or undesirable. Another important perspective comes from, Andrew Ng, a DL pioneer, who recently started shifting the focus of development from “better models” towards better, and smaller, data. He defined his approach Data-Centric AI. Without downplaying the importance of pushing the state of the art in DL, we must recognize that if the goal is creating a tool for humans to use, more raw performance may not align with more utility for the final user. A Human-Centric approach is compatible with a Data-Centric one, and we find that the two overlap nicely when human expertise is used as the driving force behind data quality. This thesis documents a series of case-studies where these approaches were employed, to different extents, to guide the design and implementation of intelligent systems. We found human expertise proved crucial in improving datasets and models. The last chapter includes a slight deviation, with studies on the pandemic, still preserving the human and data centric perspective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In medicine, innovation depends on a better knowledge of the human body mechanism, which represents a complex system of multi-scale constituents. Unraveling the complexity underneath diseases proves to be challenging. A deep understanding of the inner workings comes with dealing with many heterogeneous information. Exploring the molecular status and the organization of genes, proteins, metabolites provides insights on what is driving a disease, from aggressiveness to curability. Molecular constituents, however, are only the building blocks of the human body and cannot currently tell the whole story of diseases. This is why nowadays attention is growing towards the contemporary exploitation of multi-scale information. Holistic methods are then drawing interest to address the problem of integrating heterogeneous data. The heterogeneity may derive from the diversity across data types and from the diversity within diseases. Here, four studies conducted data integration using customly designed workflows that implement novel methods and views to tackle the heterogeneous characterization of diseases. The first study devoted to determine shared gene regulatory signatures for onco-hematology and it showed partial co-regulation across blood-related diseases. The second study focused on Acute Myeloid Leukemia and refined the unsupervised integration of genomic alterations, which turned out to better resemble clinical practice. In the third study, network integration for artherosclerosis demonstrated, as a proof of concept, the impact of network intelligibility when it comes to model heterogeneous data, which showed to accelerate the identification of new potential pharmaceutical targets. Lastly, the fourth study introduced a new method to integrate multiple data types in a unique latent heterogeneous-representation that facilitated the selection of important data types to predict the tumour stage of invasive ductal carcinoma. The results of these four studies laid the groundwork to ease the detection of new biomarkers ultimately beneficial to medical practice and to the ever-growing field of Personalized Medicine.