604 resultados para Workflows semânticos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Test av mjukvara görs i syfte att se ifall systemet uppfyller specificerade krav samt för att hitta fel. Det är en viktig del i systemutveckling och involverar bland annat regressionstestning. Regressionstester utförs för att säkerställa att en ändring i systemet inte medför att andra delar i systemet påverkas negativt. Dokumenthanteringssystem hanterar ofta känslig data hos organisationer vilket ställer höga krav på säkerheten. Behörigheter i system måste därför testas noggrant för att säkerställa att data inte hamnar i fel händer. Dokumenthanteringssystem gör det möjligt för flera organisationer att samla sina resurser och kunskaper för att nå gemensamma mål. Gemensamma arbetsprocesser stöds med hjälp av arbetsflöden som innehåller ett antal olika tillstånd. Vid dessa olika tillstånd gäller olika behörigheter. När en behörighet ändras krävs regressionstester för att försäkra att ändringen inte har gjort inverkan på andra behörigheter. Denna studie har utförts som en kvalitativ fallstudie vars syfte var att beskriva utmaningar med regressionstestning av roller och behörigheter i arbetsflöden för dokument i dokumenthanteringssystem. Genom intervjuer och en observation så framkom det att stora utmaningar med dessa tester är att arbetsflödens tillstånd följer en förutbestämd sekvens. För att fullfölja denna sekvens så involveras en enorm mängd behörigheter som måste testas. Det ger ett mycket omfattande testarbete avseende bland annat tid och kostnad. Studien har riktat sig mot dokumenthanteringssystemet ProjectWise som förvaltas av Trafikverket. Beslutsunderlag togs fram för en teknisk lösning för automatiserad regressionstestning av roller och behörigheter i arbetsflöden åt ProjectWise. Utifrån en kravinsamling tillhandahölls beslutsunderlag som involverade Team Foundation Server (TFS), Coded UI och en nyckelordsdriven testmetod som en teknisk lösning. Slutligen jämfördes vilka skillnader den tekniska lösningen kan utgöra mot manuell testning. Utifrån litteratur, dokumentstudie och förstahandserfarenheter visade sig testautomatisering kunna utgöra skillnader inom ett antal identifierade problemområden, bland annat tid och kostnad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This presentation was one of four during a Mid-Atlantic Regional Archives Conference presentation on April 15, 2016. Digitization of collections can help to improve internal workflows, make materials more accessible, and create new and engaging relationships with users. Laurie Gemmill Arp will discuss the LYRASIS Digitization Collaborative, created to assist institutions with their digitization needs, and how it has worked to help institutions increase connections with users. Robin Pike from the University of Maryland will discuss how they factor requests for access into selection for digitization and how they track the use of digitized materials. Laura Drake Davis of James Madison University will discuss the establishment of a formal digitization program, its impact on users, and the resulting increased use of their collections. Linda Tompkins-Baldwin will discuss Digital Maryland’s partnership with the Digital Public Library of America to provide access to archives held by institutions without a digitization program.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In today’s big data world, data is being produced in massive volumes, at great velocity and from a variety of different sources such as mobile devices, sensors, a plethora of small devices hooked to the internet (Internet of Things), social networks, communication networks and many others. Interactive querying and large-scale analytics are being increasingly used to derive value out of this big data. A large portion of this data is being stored and processed in the Cloud due the several advantages provided by the Cloud such as scalability, elasticity, availability, low cost of ownership and the overall economies of scale. There is thus, a growing need for large-scale cloud-based data management systems that can support real-time ingest, storage and processing of large volumes of heterogeneous data. However, in the pay-as-you-go Cloud environment, the cost of analytics can grow linearly with the time and resources required. Reducing the cost of data analytics in the Cloud thus remains a primary challenge. In my dissertation research, I have focused on building efficient and cost-effective cloud-based data management systems for different application domains that are predominant in cloud computing environments. In the first part of my dissertation, I address the problem of reducing the cost of transactional workloads on relational databases to support database-as-a-service in the Cloud. The primary challenges in supporting such workloads include choosing how to partition the data across a large number of machines, minimizing the number of distributed transactions, providing high data availability, and tolerating failures gracefully. I have designed, built and evaluated SWORD, an end-to-end scalable online transaction processing system, that utilizes workload-aware data placement and replication to minimize the number of distributed transactions that incorporates a suite of novel techniques to significantly reduce the overheads incurred both during the initial placement of data, and during query execution at runtime. In the second part of my dissertation, I focus on sampling-based progressive analytics as a means to reduce the cost of data analytics in the relational domain. Sampling has been traditionally used by data scientists to get progressive answers to complex analytical tasks over large volumes of data. Typically, this involves manually extracting samples of increasing data size (progressive samples) for exploratory querying. This provides the data scientists with user control, repeatable semantics, and result provenance. However, such solutions result in tedious workflows that preclude the reuse of work across samples. On the other hand, existing approximate query processing systems report early results, but do not offer the above benefits for complex ad-hoc queries. I propose a new progressive data-parallel computation framework, NOW!, that provides support for progressive analytics over big data. In particular, NOW! enables progressive relational (SQL) query support in the Cloud using unique progress semantics that allow efficient and deterministic query processing over samples providing meaningful early results and provenance to data scientists. NOW! enables the provision of early results using significantly fewer resources thereby enabling a substantial reduction in the cost incurred during such analytics. Finally, I propose NSCALE, a system for efficient and cost-effective complex analytics on large-scale graph-structured data in the Cloud. The system is based on the key observation that a wide range of complex analysis tasks over graph data require processing and reasoning about a large number of multi-hop neighborhoods or subgraphs in the graph; examples include ego network analysis, motif counting in biological networks, finding social circles in social networks, personalized recommendations, link prediction, etc. These tasks are not well served by existing vertex-centric graph processing frameworks whose computation and execution models limit the user program to directly access the state of a single vertex, resulting in high execution overheads. Further, the lack of support for extracting the relevant portions of the graph that are of interest to an analysis task and loading it onto distributed memory leads to poor scalability. NSCALE allows users to write programs at the level of neighborhoods or subgraphs rather than at the level of vertices, and to declaratively specify the subgraphs of interest. It enables the efficient distributed execution of these neighborhood-centric complex analysis tasks over largescale graphs, while minimizing resource consumption and communication cost, thereby substantially reducing the overall cost of graph data analytics in the Cloud. The results of our extensive experimental evaluation of these prototypes with several real-world data sets and applications validate the effectiveness of our techniques which provide orders-of-magnitude reductions in the overheads of distributed data querying and analysis in the Cloud.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con el propósito de continuar desarrollando la teoría de la macro categoría de la valoración propuesta por el Dr. Leandro Caballero Díaz (1989) y los estudios para la elaboración de diccionarios semánticos de las valoraciones, partiendo de categorizaciones semánticas e ideográficas del significado lingüístico, un colectivo de investigadores del Grupo de Estudios semánticos y análisis del discurso de la Facultad de Lenguas Extranjeras de la Universidad de La Habana, trabaja en una serie de investigaciones encaminadas al estudio de diferentes campos semánticos valorativos para la elaboración de estos diccionarios. Entre estas investigaciones se encuentra la referida a la propuesta de estructuración del Diccionario Ideográfico y Semántico de la valoración utilitaria en español (DIS VAL-UTIL). El trabajo pre lexicográfico que se llevó a cabo para ello fue recogido en una tesis doctoral. La presente propuesta de estructuración del diccionario es apenas una parte de dicha tesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article concerns how higher education institutions across the United Kingdom are implementing systems and workflows in order to meet open access requirements for the next Research Excellence Framework. The way that institutions are preparing is not uniform, although there are key areas which require attention: cost management, advocacy, systems and metadata, structural workflows, and internal policy. Examples of preparative work in these areas are taken from institutions who have participated in the Open Access Good Practice initiative supported by Jisc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La estrategia didáctica praccis busca traducir dialógicamente algo extraño en el mundo de las ciencias, en algo cercano o quizá propio, en el mundo de la vida. Lo científico, lo extraño son los resultados de la investigación sobre la productividad en la ciénaga de Ayapel, Colombia, que es mediado por la estrategia didáctica praccis, para facilitar la circulación del conocimiento. Esta investigación está configurada en cuatro partes: una primera, que expone rigurosamente cómo es la productividad en la ciénaga de Ayapel; una segunda, donde se describen los postulados de la estrategia praccis; una tercera, donde se explica cómo se construye la estrategia didáctica con los conocimientos sobre la productividad de la ciénaga, y una cuarta, donde se muestra cómo se aplicó la estrategia que dio como el resultado la aceptación entre los pobladores de Ayapel, del establecimiento de la relación entre los campos semánticos y los eslabones de la estrategia praccis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de um conjunto de dados obtidos em pesquisa, o texto deseja salientar uma face pouco examinada pelos estudiosos do espiritismo no Brasil: aquela dos grupos espíritas que cultuam extraterrestres. Examina a narrativa Rebelião de Lúcifer, escrita pelo médium potiguar Jan Val Ellam. Sustenta que esta atualiza noções importantes em relação a narrativas de salvação anteriores construídas pelo espiritismo. Destaca em especial o aprimoramento racial e moral através da reencarnação em distintos corpos humanos e em diferentes planetas. Examina-os a partir das noções de exílio planetário e de evolução racializada. Argumenta que Jan Val Ellam as atualiza através da categoria nativa Povo de Alt’Lam e através de bricolagem com outros campos semânticos, notadamente a ufologia e a fi cção científica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La visibilidad de una página Web involucra el proceso de mejora de la posición del sitio en los resultados devueltos por motores de búsqueda como Google. Hay muchas empresas que compiten agresivamente para conseguir la primera posición en los motores de búsqueda más populares. Como regla general, los sitios que aparecen más arriba en los resultados suelen obtener más tráfico a sus páginas, y de esta forma, potencialmente más negocios. En este artículo se describe los principales modelos para enriquecer los resultados de las búsquedas con información tales como fechas o localidades; información de tipo clave-valor que permite al usuario interactuar con el contenido de una página Web directamente desde el sitio de resultados de la búsqueda. El aporte fundamental del artículo es mostrar la utilidad de diferentes formatos de marcado para enriquecer fragmentos de una página Web con el fin de ayudar a las empresas que están planeando implementar métodos de enriquecimiento semánticos en la estructuración de sus sitios Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La situación actual de la juventud está siendo influenciada por el uso de las redes sociales y estas deterioran el lenguaje en general. Al final de la investigación se determina que lo antes planteado es correcto. En esta investigación se utilizó el método cuantitativo que se enfoca en la contabilización de números o datos, en este caso se contabilizó el número de palabras que utilizan los jóvenes en las redes sociales. Se encontró casos de siglación, errores de lenguaje, símbolos, cambios semánticos y morfológicos en palabras, neologismos, anglicismos, entre otros. Los resultados que se obtuvieron son negativos para el uso correcto del lenguaje, porque en la actualidad los jóvenes no se interesan por escribir correctamente, ya que no utilizan las normas gramaticales ni ortográficas, debido a que el interés de este grupo etario es simplificar el lenguaje pero no se dan cuenta de que están deteriorando el lenguaje escrito, todo esto genera nuevas palabras y algunas sufren cambios semánticos y morfológicos. Todo este proceso se llevó a cabo mediante el siguiente instrumento: se elaboró y se aplicó a los jóvenes un test que está constituido por tres partes: La primera parte contiene un listado de palabras escritas correctamente, cada palabra tiene un espacio en blanco a su derecha para que el joven coloque la escritura que ellos utilizan en las redes sociales. La segunda parte está formada por una serie de emoticones y cada uno tiene un espacio en blanco a su derecha para que el joven coloque el significado que le corresponde a cada uno. La tercera parte consiste en que el joven coloque todas las palabras abreviadas que usa en las redes pero que no se encuentran en el test. La población que se investigó son jóvenes entre 11 a 25 años, teniendo como población meta 200 estudiantes de este grupo etario. La investigación se enfocó a la población urbana de la zona oriental de El Salvador por los siguientes criterios: a)Porque la zona urbana tiene mucho más acceso a estas tecnologías y por consecuencia está más influenciada. b)El lenguaje urbano es el creador de este nuevo lenguaje. c)Es de suma relevancia conocer esta nueva escritura, porque los jóvenes están dejando de lado el lenguaje tradicional por un código simplista, en el cual la finalidad es que se de la comunicación sin respetar normas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Part 20: Health and Care Networks

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El hecho de que la economía sea una de las ciencias sociales cuya presencia dentro de la agenda de los medios de comunicación ha aumentado de forma considerable en los últimos años hace que cada vez se haga más necesario un estudio en profundidad de los textos, orales y escritos, que esta área de información genera. Dentro de los lenguajes de especialidad, el económico presenta una gran variedad, tanto de temáticas como de niveles, de acuerdo con el marco en el que se dé la interacción comunicativa. Las formas de abordar el estudio de los textos periodísticos económicos son múltiples pero en su mayoría, han de estar inevitablemente relacionadas con el uso que del lenguaje hacen los emisores de dichos mensajes. La lengua, como herramienta de transmisión de conocimiento, permite su observación desde múltiples ángulos. Entre ellos, el de la lingüística, una perspectiva que permite un análisis detallado de las estructuras que se repiten con mayor o menor frecuencia dentro de los textos cuya temática se enmarca dentro del área de la economía y las nanzas. Con el objetivo de determinar además cómo varía la utilización de unos y otros patrones sintácticos, semánticos, léxicos, etc. dentro de los distintos grados de especialización que han sido determinados tradicionalmente, hemos realizado un estudio del tipo de elementos lingüísticos que se distinguen dentro de los distintos textos, agrupados éstos de acuerdo con el grado de especialización esperado, según la fuente de publicación de los mismos...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ponen de relieve las elaboraciones y los tratamientos de la imagen de Dios presentes en la poesía de Machado. Mediante un análisis de textos significativos, subraya las discrepancias del poeta ante las concepciones tradicionales de un Dios abstracto y de un Jesús sufriente, a las que el hablante propone el apego a un Jesús histórico, dador de una palabra imperecedera. El análisis se desarrolla mediante un examen del discurso poemático, de sus recursos estilísticos, fónicos y semánticos.This articIe emphasizes the interpretations and treatments of the image of God in Machado's poetry. By analyzing significant texts, this study points out the poet's discrepancies with the traditional conceptions of an abstract God and a suffering Christ, for which the speaker proposes a preference for a historical Jesus whose word will never perish. The analysis examines the poetic discourse, addressing stylistic, phonetic and semantic features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

    La autora analiza ciertas técnicas de enseñanza de traductores direccionadas a principiantes. Además de determinados aspectos teóricos, se consideran técnicas tales como ejercicios de pretraducción, análisis textual, análisis de textos paralelos, análisis de problemas semánticos, sintácticos y léxicos, y ejercicios del proceso de traducción, de revisión y de autoevaluación. 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents a study of the Grid data access patterns in distributed analysis in the CMS experiment at the LHC accelerator. This study ranges from the deep analysis of the historical patterns of access to the most relevant data types in CMS, to the exploitation of a supervised Machine Learning classification system to set-up a machinery able to eventually predict future data access patterns - i.e. the so-called dataset “popularity” of the CMS datasets on the Grid - with focus on specific data types. All the CMS workflows run on the Worldwide LHC Computing Grid (WCG) computing centers (Tiers), and in particular the distributed analysis systems sustains hundreds of users and applications submitted every day. These applications (or “jobs”) access different data types hosted on disk storage systems at a large set of WLCG Tiers. The detailed study of how this data is accessed, in terms of data types, hosting Tiers, and different time periods, allows to gain precious insight on storage occupancy over time and different access patterns, and ultimately to extract suggested actions based on this information (e.g. targetted disk clean-up and/or data replication). In this sense, the application of Machine Learning techniques allows to learn from past data and to gain predictability potential for the future CMS data access patterns. Chapter 1 provides an introduction to High Energy Physics at the LHC. Chapter 2 describes the CMS Computing Model, with special focus on the data management sector, also discussing the concept of dataset popularity. Chapter 3 describes the study of CMS data access patterns with different depth levels. Chapter 4 offers a brief introduction to basic machine learning concepts and gives an introduction to its application in CMS and discuss the results obtained by using this approach in the context of this thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Concurrent software executes multiple threads or processes to achieve high performance. However, concurrency results in a huge number of different system behaviors that are difficult to test and verify. The aim of this dissertation is to develop new methods and tools for modeling and analyzing concurrent software systems at design and code levels. This dissertation consists of several related results. First, a formal model of Mondex, an electronic purse system, is built using Petri nets from user requirements, which is formally verified using model checking. Second, Petri nets models are automatically mined from the event traces generated from scientific workflows. Third, partial order models are automatically extracted from some instrumented concurrent program execution, and potential atomicity violation bugs are automatically verified based on the partial order models using model checking. Our formal specification and verification of Mondex have contributed to the world wide effort in developing a verified software repository. Our method to mine Petri net models automatically from provenance offers a new approach to build scientific workflows. Our dynamic prediction tool, named McPatom, can predict several known bugs in real world systems including one that evades several other existing tools. McPatom is efficient and scalable as it takes advantage of the nature of atomicity violations and considers only a pair of threads and accesses to a single shared variable at one time. However, predictive tools need to consider the tradeoffs between precision and coverage. Based on McPatom, this dissertation presents two methods for improving the coverage and precision of atomicity violation predictions: 1) a post-prediction analysis method to increase coverage while ensuring precision; 2) a follow-up replaying method to further increase coverage. Both methods are implemented in a completely automatic tool.