598 resultados para Workflows semânticos
Resumo:
Debido a las características intrínsecas de la lengua china, los clíticos juegan un papel imprescindible en la estructura sintáctica del idioma. Sin ellos, las oraciones no llegan a construirse, ya que son estos, entre otros recursos, los que cargan las informaciones gramaticales; es más, cada clítico en chino ocupa un hueco en la gramática, por lo que es difícil remplazarlos sin cambiar el sentido de la oración. De todos los clíticos, la palabra «的» es la que se presenta con mayor frecuencia. Esta palabra, como muchas otras “palabras vacías”, desempeña diversas funciones gramaticales, por lo que constituye un punto de investigación muy interesante en la gramática china. Desde los años 20 del siglo pasado, generaciones de eruditos se han dedicado a su estudio, entre otros, figuran Li Jinxi(黎锦熙), Gao Mingkai(高名凯),Chen Qiongzan(陈琼瓒), Fan Jiyan(范继淹)y Zhu Dexi(朱德熙). Un artículo de este último Sobre “的 (De)” ha provocado una amplia reacción y una profunda influencia en las investigaciones posteriores. A pesar de todo y hasta hoy en día, el uso de esta palabra sigue siendo un escollo tanto para los profesores de chino como para sus alumnos. Las ambigüedades que puede causar y la diferencia semántica y pragmática de su uso y desuso han sido un rompecabezas no sólo para los extranjeros, sino también para los nativos. En este artículo, intentaremos delimitar sus usos y analizar sus valores semánticos y pragmáticos.
Resumo:
When studying polysemy in Chinese and Spanish, a cognitive approach shows what is common in the polysemous patterns of both languages, so that we can make generalizations applicable to other languages and other semantic phenomena of language. The paper’s hypothesis is that there are universal mechanisms of semantic extension that can be highlighted and can be used in teaching and learning languages.
Resumo:
Esta investigación analiza el uso del sufijo diminutivo en un corpus oral de jóvenes de la República Dominicana. El material procede de la transcripción de veinte entrevistas orales realizadas en los años noventa en Santo Domingo. En este estudio se realiza un análisis de las ocurrencias documentadas, su morfología, sus preferencias en cuanto a la selección de las clases de palabras que se toman como base para la formación de diminutivos, sus posibles valores semánticos y comunicativos, y, por último, se determina la frecuencia de uso del diminutivo en función del sexo de los hablantes.
Resumo:
Adjoint methods have proven to be an efficient way of calculating the gradient of an objective function with respect to a shape parameter for optimisation, with a computational cost nearly independent of the number of the design variables [1]. The approach in this paper links the adjoint surface sensitivities (gradient of objective function with respect to the surface movement) with the parametric design velocities (movement of the surface due to a CAD parameter perturbation) in order to compute the gradient of the objective function with respect to CAD variables.
For a successful implementation of shape optimization strategies in practical industrial cases, the choice of design variables or parameterisation scheme used for the model to be optimized plays a vital role. Where the goal is to base the optimization on a CAD model the choices are to use a NURBS geometry generated from CAD modelling software, where the position of the NURBS control points are the optimisation variables [2] or to use the feature based CAD model with all of the construction history to preserve the design intent [3]. The main advantage of using the feature based model is that the optimized model produced can be directly used for the downstream applications including manufacturing and process planning.
This paper presents an approach for optimization based on the feature based CAD model, which uses CAD parameters defining the features in the model geometry as the design variables. In order to capture the CAD surface movement with respect to the change in design variable, the “Parametric Design Velocity” is calculated, which is defined as the movement of the CAD model boundary in the normal direction due to a change in the parameter value.
The approach presented here for calculating the design velocities represents an advancement in terms of capability and robustness of that described by Robinson et al. [3]. The process can be easily integrated to most industrial optimisation workflows and is immune to the topology and labelling issues highlighted by other CAD based optimisation processes. It considers every continuous (“real value”) parameter type as an optimisation variable, and it can be adapted to work with any CAD modelling software, as long as it has an API which provides access to the values of the parameters which control the model shape and allows the model geometry to be exported. To calculate the movement of the boundary the methodology employs finite differences on the shape of the 3D CAD models before and after the parameter perturbation. The implementation procedure includes calculating the geometrical movement along a normal direction between two discrete representations of the original and perturbed geometry respectively. Parametric design velocities can then be directly linked with adjoint surface sensitivities to extract the gradients to use in a gradient-based optimization algorithm.
The optimisation of a flow optimisation problem is presented, in which the power dissipation of the flow in an automotive air duct is to be reduced by changing the parameters of the CAD geometry created in CATIA V5. The flow sensitivities are computed with the continuous adjoint method for a laminar and turbulent flow [4] and are combined with the parametric design velocities to compute the cost function gradients. A line-search algorithm is then used to update the design variables and proceed further with optimisation process.
Resumo:
A partir de um conjunto de dados obtidos em pesquisa, o texto deseja salientar uma face pouco examinada pelos estudiosos do espiritismo no Brasil: aquela dos grupos espíritas que cultuam extraterrestres. Examina a narrativa Rebelião de Lúcifer, escrita pelo médium potiguar Jan Val Ellam. Sustenta que esta atualiza noções importantes em relação a narrativas de salvação anteriores construídas pelo espiritismo. Destaca em especial o aprimoramento racial e moral através da reencarnação em distintos corpos humanos e em diferentes planetas. Examina-os a partir das noções de exílio planetário e de evolução racializada. Argumenta que Jan Val Ellam as atualiza através da categoria nativa Povo de Alt’Lam e através de bricolagem com outros campos semânticos, notadamente a ufologia e a fi cção científica
Resumo:
Test av mjukvara görs i syfte att se ifall systemet uppfyller specificerade krav samt för att hitta fel. Det är en viktig del i systemutveckling och involverar bland annat regressionstestning. Regressionstester utförs för att säkerställa att en ändring i systemet inte medför att andra delar i systemet påverkas negativt. Dokumenthanteringssystem hanterar ofta känslig data hos organisationer vilket ställer höga krav på säkerheten. Behörigheter i system måste därför testas noggrant för att säkerställa att data inte hamnar i fel händer. Dokumenthanteringssystem gör det möjligt för flera organisationer att samla sina resurser och kunskaper för att nå gemensamma mål. Gemensamma arbetsprocesser stöds med hjälp av arbetsflöden som innehåller ett antal olika tillstånd. Vid dessa olika tillstånd gäller olika behörigheter. När en behörighet ändras krävs regressionstester för att försäkra att ändringen inte har gjort inverkan på andra behörigheter. Denna studie har utförts som en kvalitativ fallstudie vars syfte var att beskriva utmaningar med regressionstestning av roller och behörigheter i arbetsflöden för dokument i dokumenthanteringssystem. Genom intervjuer och en observation så framkom det att stora utmaningar med dessa tester är att arbetsflödens tillstånd följer en förutbestämd sekvens. För att fullfölja denna sekvens så involveras en enorm mängd behörigheter som måste testas. Det ger ett mycket omfattande testarbete avseende bland annat tid och kostnad. Studien har riktat sig mot dokumenthanteringssystemet ProjectWise som förvaltas av Trafikverket. Beslutsunderlag togs fram för en teknisk lösning för automatiserad regressionstestning av roller och behörigheter i arbetsflöden åt ProjectWise. Utifrån en kravinsamling tillhandahölls beslutsunderlag som involverade Team Foundation Server (TFS), Coded UI och en nyckelordsdriven testmetod som en teknisk lösning. Slutligen jämfördes vilka skillnader den tekniska lösningen kan utgöra mot manuell testning. Utifrån litteratur, dokumentstudie och förstahandserfarenheter visade sig testautomatisering kunna utgöra skillnader inom ett antal identifierade problemområden, bland annat tid och kostnad.
Resumo:
This presentation was one of four during a Mid-Atlantic Regional Archives Conference presentation on April 15, 2016. Digitization of collections can help to improve internal workflows, make materials more accessible, and create new and engaging relationships with users. Laurie Gemmill Arp will discuss the LYRASIS Digitization Collaborative, created to assist institutions with their digitization needs, and how it has worked to help institutions increase connections with users. Robin Pike from the University of Maryland will discuss how they factor requests for access into selection for digitization and how they track the use of digitized materials. Laura Drake Davis of James Madison University will discuss the establishment of a formal digitization program, its impact on users, and the resulting increased use of their collections. Linda Tompkins-Baldwin will discuss Digital Maryland’s partnership with the Digital Public Library of America to provide access to archives held by institutions without a digitization program.
Resumo:
In today’s big data world, data is being produced in massive volumes, at great velocity and from a variety of different sources such as mobile devices, sensors, a plethora of small devices hooked to the internet (Internet of Things), social networks, communication networks and many others. Interactive querying and large-scale analytics are being increasingly used to derive value out of this big data. A large portion of this data is being stored and processed in the Cloud due the several advantages provided by the Cloud such as scalability, elasticity, availability, low cost of ownership and the overall economies of scale. There is thus, a growing need for large-scale cloud-based data management systems that can support real-time ingest, storage and processing of large volumes of heterogeneous data. However, in the pay-as-you-go Cloud environment, the cost of analytics can grow linearly with the time and resources required. Reducing the cost of data analytics in the Cloud thus remains a primary challenge. In my dissertation research, I have focused on building efficient and cost-effective cloud-based data management systems for different application domains that are predominant in cloud computing environments. In the first part of my dissertation, I address the problem of reducing the cost of transactional workloads on relational databases to support database-as-a-service in the Cloud. The primary challenges in supporting such workloads include choosing how to partition the data across a large number of machines, minimizing the number of distributed transactions, providing high data availability, and tolerating failures gracefully. I have designed, built and evaluated SWORD, an end-to-end scalable online transaction processing system, that utilizes workload-aware data placement and replication to minimize the number of distributed transactions that incorporates a suite of novel techniques to significantly reduce the overheads incurred both during the initial placement of data, and during query execution at runtime. In the second part of my dissertation, I focus on sampling-based progressive analytics as a means to reduce the cost of data analytics in the relational domain. Sampling has been traditionally used by data scientists to get progressive answers to complex analytical tasks over large volumes of data. Typically, this involves manually extracting samples of increasing data size (progressive samples) for exploratory querying. This provides the data scientists with user control, repeatable semantics, and result provenance. However, such solutions result in tedious workflows that preclude the reuse of work across samples. On the other hand, existing approximate query processing systems report early results, but do not offer the above benefits for complex ad-hoc queries. I propose a new progressive data-parallel computation framework, NOW!, that provides support for progressive analytics over big data. In particular, NOW! enables progressive relational (SQL) query support in the Cloud using unique progress semantics that allow efficient and deterministic query processing over samples providing meaningful early results and provenance to data scientists. NOW! enables the provision of early results using significantly fewer resources thereby enabling a substantial reduction in the cost incurred during such analytics. Finally, I propose NSCALE, a system for efficient and cost-effective complex analytics on large-scale graph-structured data in the Cloud. The system is based on the key observation that a wide range of complex analysis tasks over graph data require processing and reasoning about a large number of multi-hop neighborhoods or subgraphs in the graph; examples include ego network analysis, motif counting in biological networks, finding social circles in social networks, personalized recommendations, link prediction, etc. These tasks are not well served by existing vertex-centric graph processing frameworks whose computation and execution models limit the user program to directly access the state of a single vertex, resulting in high execution overheads. Further, the lack of support for extracting the relevant portions of the graph that are of interest to an analysis task and loading it onto distributed memory leads to poor scalability. NSCALE allows users to write programs at the level of neighborhoods or subgraphs rather than at the level of vertices, and to declaratively specify the subgraphs of interest. It enables the efficient distributed execution of these neighborhood-centric complex analysis tasks over largescale graphs, while minimizing resource consumption and communication cost, thereby substantially reducing the overall cost of graph data analytics in the Cloud. The results of our extensive experimental evaluation of these prototypes with several real-world data sets and applications validate the effectiveness of our techniques which provide orders-of-magnitude reductions in the overheads of distributed data querying and analysis in the Cloud.
Resumo:
Con el propósito de continuar desarrollando la teoría de la macro categoría de la valoración propuesta por el Dr. Leandro Caballero Díaz (1989) y los estudios para la elaboración de diccionarios semánticos de las valoraciones, partiendo de categorizaciones semánticas e ideográficas del significado lingüístico, un colectivo de investigadores del Grupo de Estudios semánticos y análisis del discurso de la Facultad de Lenguas Extranjeras de la Universidad de La Habana, trabaja en una serie de investigaciones encaminadas al estudio de diferentes campos semánticos valorativos para la elaboración de estos diccionarios. Entre estas investigaciones se encuentra la referida a la propuesta de estructuración del Diccionario Ideográfico y Semántico de la valoración utilitaria en español (DIS VAL-UTIL). El trabajo pre lexicográfico que se llevó a cabo para ello fue recogido en una tesis doctoral. La presente propuesta de estructuración del diccionario es apenas una parte de dicha tesis.
Resumo:
This article concerns how higher education institutions across the United Kingdom are implementing systems and workflows in order to meet open access requirements for the next Research Excellence Framework. The way that institutions are preparing is not uniform, although there are key areas which require attention: cost management, advocacy, systems and metadata, structural workflows, and internal policy. Examples of preparative work in these areas are taken from institutions who have participated in the Open Access Good Practice initiative supported by Jisc.
Resumo:
La estrategia didáctica praccis busca traducir dialógicamente algo extraño en el mundo de las ciencias, en algo cercano o quizá propio, en el mundo de la vida. Lo científico, lo extraño son los resultados de la investigación sobre la productividad en la ciénaga de Ayapel, Colombia, que es mediado por la estrategia didáctica praccis, para facilitar la circulación del conocimiento. Esta investigación está configurada en cuatro partes: una primera, que expone rigurosamente cómo es la productividad en la ciénaga de Ayapel; una segunda, donde se describen los postulados de la estrategia praccis; una tercera, donde se explica cómo se construye la estrategia didáctica con los conocimientos sobre la productividad de la ciénaga, y una cuarta, donde se muestra cómo se aplicó la estrategia que dio como el resultado la aceptación entre los pobladores de Ayapel, del establecimiento de la relación entre los campos semánticos y los eslabones de la estrategia praccis.
Resumo:
A partir de um conjunto de dados obtidos em pesquisa, o texto deseja salientar uma face pouco examinada pelos estudiosos do espiritismo no Brasil: aquela dos grupos espíritas que cultuam extraterrestres. Examina a narrativa Rebelião de Lúcifer, escrita pelo médium potiguar Jan Val Ellam. Sustenta que esta atualiza noções importantes em relação a narrativas de salvação anteriores construídas pelo espiritismo. Destaca em especial o aprimoramento racial e moral através da reencarnação em distintos corpos humanos e em diferentes planetas. Examina-os a partir das noções de exílio planetário e de evolução racializada. Argumenta que Jan Val Ellam as atualiza através da categoria nativa Povo de Alt’Lam e através de bricolagem com outros campos semânticos, notadamente a ufologia e a fi cção científica
Resumo:
La visibilidad de una página Web involucra el proceso de mejora de la posición del sitio en los resultados devueltos por motores de búsqueda como Google. Hay muchas empresas que compiten agresivamente para conseguir la primera posición en los motores de búsqueda más populares. Como regla general, los sitios que aparecen más arriba en los resultados suelen obtener más tráfico a sus páginas, y de esta forma, potencialmente más negocios. En este artículo se describe los principales modelos para enriquecer los resultados de las búsquedas con información tales como fechas o localidades; información de tipo clave-valor que permite al usuario interactuar con el contenido de una página Web directamente desde el sitio de resultados de la búsqueda. El aporte fundamental del artículo es mostrar la utilidad de diferentes formatos de marcado para enriquecer fragmentos de una página Web con el fin de ayudar a las empresas que están planeando implementar métodos de enriquecimiento semánticos en la estructuración de sus sitios Web.
Resumo:
La situación actual de la juventud está siendo influenciada por el uso de las redes sociales y estas deterioran el lenguaje en general. Al final de la investigación se determina que lo antes planteado es correcto. En esta investigación se utilizó el método cuantitativo que se enfoca en la contabilización de números o datos, en este caso se contabilizó el número de palabras que utilizan los jóvenes en las redes sociales. Se encontró casos de siglación, errores de lenguaje, símbolos, cambios semánticos y morfológicos en palabras, neologismos, anglicismos, entre otros. Los resultados que se obtuvieron son negativos para el uso correcto del lenguaje, porque en la actualidad los jóvenes no se interesan por escribir correctamente, ya que no utilizan las normas gramaticales ni ortográficas, debido a que el interés de este grupo etario es simplificar el lenguaje pero no se dan cuenta de que están deteriorando el lenguaje escrito, todo esto genera nuevas palabras y algunas sufren cambios semánticos y morfológicos. Todo este proceso se llevó a cabo mediante el siguiente instrumento: se elaboró y se aplicó a los jóvenes un test que está constituido por tres partes: La primera parte contiene un listado de palabras escritas correctamente, cada palabra tiene un espacio en blanco a su derecha para que el joven coloque la escritura que ellos utilizan en las redes sociales. La segunda parte está formada por una serie de emoticones y cada uno tiene un espacio en blanco a su derecha para que el joven coloque el significado que le corresponde a cada uno. La tercera parte consiste en que el joven coloque todas las palabras abreviadas que usa en las redes pero que no se encuentran en el test. La población que se investigó son jóvenes entre 11 a 25 años, teniendo como población meta 200 estudiantes de este grupo etario. La investigación se enfocó a la población urbana de la zona oriental de El Salvador por los siguientes criterios: a)Porque la zona urbana tiene mucho más acceso a estas tecnologías y por consecuencia está más influenciada. b)El lenguaje urbano es el creador de este nuevo lenguaje. c)Es de suma relevancia conocer esta nueva escritura, porque los jóvenes están dejando de lado el lenguaje tradicional por un código simplista, en el cual la finalidad es que se de la comunicación sin respetar normas.
Resumo:
Part 20: Health and Care Networks