953 resultados para General-purpose computing
Resumo:
This paper presents a multilayered architecture that enhances the capabilities of current QA systems and allows different types of complex questions or queries to be processed. The answers to these questions need to be gathered from factual information scattered throughout different documents. Specifically, we designed a specialized layer to process the different types of temporal questions. Complex temporal questions are first decomposed into simple questions, according to the temporal relations expressed in the original question. In the same way, the answers to the resulting simple questions are recomposed, fulfilling the temporal restrictions of the original complex question. A novel aspect of this approach resides in the decomposition which uses a minimal quantity of resources, with the final aim of obtaining a portable platform that is easily extensible to other languages. In this paper we also present a methodology for evaluation of the decomposition of the questions as well as the ability of the implemented temporal layer to perform at a multilingual level. The temporal layer was first performed for English, then evaluated and compared with: a) a general purpose QA system (F-measure 65.47% for QA plus English temporal layer vs. 38.01% for the general QA system), and b) a well-known QA system. Much better results were obtained for temporal questions with the multilayered system. This system was therefore extended to Spanish and very good results were again obtained in the evaluation (F-measure 40.36% for QA plus Spanish temporal layer vs. 22.94% for the general QA system).
Resumo:
Hardware/Software partitioning (HSP) is a key task for embedded system co-design. The main goal of this task is to decide which components of an application are to be executed in a general purpose processor (software) and which ones, on a specific hardware, taking into account a set of restrictions expressed by metrics. In last years, several approaches have been proposed for solving the HSP problem, directed by metaheuristic algorithms. However, due to diversity of models and metrics used, the choice of the best suited algorithm is an open problem yet. This article presents the results of applying a fuzzy approach to the HSP problem. This approach is more flexible than many others due to the fact that it is possible to accept quite good solutions or to reject other ones which do not seem good. In this work we compare six metaheuristic algorithms: Random Search, Tabu Search, Simulated Annealing, Hill Climbing, Genetic Algorithm and Evolutionary Strategy. The presented model is aimed to simultaneously minimize the hardware area and the execution time. The obtained results show that Restart Hill Climbing is the best performing algorithm in most cases.
Resumo:
El particionado hardware/software es una tarea fundamental en el co-diseño de sistemas embebidos. En ella se decide, teniendo en cuenta las métricas de diseño, qué componentes se ejecutarán en un procesador de propósito general (software) y cuáles en un hardware específico. En los últimos años se han propuesto diversas soluciones al problema del particionado dirigidas por algoritmos metaheurísticos. Sin embargo, debido a la diversidad de modelos y métricas utilizadas, la elección del algoritmo más apropiado sigue siendo un problema abierto. En este trabajo se presenta una comparación de seis algoritmos metaheurísticos: Búsqueda aleatoria (Random search), Búsqueda tabú (Tabu search), Recocido simulado (Simulated annealing), Escalador de colinas estocástico (Stochastic hill climbing), Algoritmo genético (Genetic algorithm) y Estrategia evolutiva (Evolution strategy). El modelo utilizado en la comparación está dirigido a minimizar el área ocupada y el tiempo de ejecución, las restricciones del modelo son consideradas como penalizaciones para incluir en el espacio de búsqueda otras soluciones. Los resultados muestran que los algoritmos Escalador de colinas estocástico y Estrategia evolutiva son los que mejores resultados obtienen en general, seguidos por el Algoritmo genético.
Resumo:
La partición hardware/software es una etapa clave dentro del proceso de co-diseño de los sistemas embebidos. En esta etapa se decide qué componentes serán implementados como co-procesadores de hardware y qué componentes serán implementados en un procesador de propósito general. La decisión es tomada a partir de la exploración del espacio de diseño, evaluando un conjunto de posibles soluciones para establecer cuál de estas es la que mejor balance logra entre todas las métricas de diseño. Para explorar el espacio de soluciones, la mayoría de las propuestas, utilizan algoritmos metaheurísticos; destacándose los Algoritmos Genéticos, Recocido Simulado. Esta decisión, en muchos casos, no es tomada a partir de análisis comparativos que involucren a varios algoritmos sobre un mismo problema. En este trabajo se presenta la aplicación de los algoritmos: Escalador de Colinas Estocástico y Escalador de Colinas Estocástico con Reinicio, para resolver el problema de la partición hardware/software. Para validar el empleo de estos algoritmos se presenta la aplicación de este algoritmo sobre un caso de estudio, en particular la partición hardware/software de un codificador JPEG. En todos los experimentos es posible apreciar que ambos algoritmos alcanzan soluciones comparables con las obtenidas por los algoritmos utilizados con más frecuencia.
Resumo:
The general purpose of the EQUIFASE Conference is to promote the Scientific and Technologic exchange between people from both the academic and the industrial environment in the field of Phase Equilibria and Thermodynamic Properties for the Design of Chemical Processes. Topics: Measurement of Thermodynamic Properties. Phase Equilibria and Chemical Equilibria. Theory and Modelling. Alternative Solvents. Supercritical Fluids. Ionic Liquids. Energy. Gas and oil. Petrochemicals. Environment and sustainability. Biomolecules and Biotechnology. Product and Process Design. Databases and Software. Education.
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
Resumo:
The general purpose of the two studies reported here was to examine perceptions of team cohesiveness in children aged 9 to 12 years. In Study 1, focus groups were used to examine individual perceptions of cohesion from the perspective of group integration – the group as a totality. In Study 2, open-ended questionnaires were used to examine individual perceptions of cohesion from the perspective of individual attractions to the group. The results showed that children as young as nine years understand the phenomenon known as cohesion. They can discuss the group as a totality, the characteristics of cohesive and non-cohesive teams, and identify the major factors attracting them to and maintaining their involvement in the group. Also, the ability to clearly distinguish between task and social cohesion is present. The results provide insight into the world of child sport and emphasise the importance of group cohesion, affiliation, and other social constructs in children’s involvement and adherence to sport groups
Resumo:
En chirurgie vasculaire, l’accès à l’artère fémorale, qu’il soit par une incision chirurgicale ou par une approche percutanée, est très fréquemment utilisé pour une multitude d’interventions vasculaires ou endovasculaires; pour des pontages divers, le traitement d’occlusions artérielles, la réparation d’anévrismes et la pose d’endoprothèses. L’objectif général de ce projet de recherche est de faciliter et réduire les risques des approches de l’artère fémorale par une meilleure compréhension anatomique du triangle fémoral. La méthodologie a été réalisée grâce à l’utilisation de cadavres spécialement embaumés par la méthode développée par Walter Thiel. Les résultats présentés dans ce mémoire ont permis de proposer des solutions en réponse à des problèmes cliniques en chirurgie vasculaire. Dans un premier temps, l’étude de la vascularisation cutanée du triangle fémoral a mené à proposer de nouvelles incisions chirurgicales afin de limiter la dévascularisation cutanée des plaies et ainsi réduire les problèmes de cicatrisation observés. Ensuite, nous avons validé l’identification radiographique et échographique de l’artère fémorale à son croisement avec le ligament inguinal afin de faciliter l’identification d’un site de ponction artérielle adéquat. Enfin, nous avons développé une méthode échographique simple qui facilite l’approche percutanée de l’artère fémorale, même chez les patients obèses. Les retombées de ce projet de recherche sont multiples pour les cliniciens, l’étude fournit une meilleure compréhension anatomique tridimensionnelle du triangle fémoral et les techniques proposées dans ce mémoire pourront apporter une amélioration de la pratique chirurgicale et faciliter le travail des médecins. Toutefois, ces propositions devront maintenant être validées en clinique.
Resumo:
In this paper we investigate the determinants of ICT investment at the macro level for a panel of ten countries over the period 1992-2005. We argue that, since ICT is a General Purpose Technology, its diffusion can be understood only considering the interaction with institutional and structural factors. The empirical results are in line with this view: facilitating factors such as changes in regulation, human capital and the sectoral composition of the economy are relevant determinants for increasing ICT investment.
Resumo:
Electrical energy storage is a really important issue nowadays. As electricity is not easy to be directly stored, it can be stored in other forms and converted back to electricity when needed. As a consequence, storage technologies for electricity can be classified by the form of storage, and in particular we focus on electrochemical energy storage systems, better known as electrochemical batteries. Largely the more widespread batteries are the Lead-Acid ones, in the two main types known as flooded and valve-regulated. Batteries need to be present in many important applications such as in renewable energy systems and in motor vehicles. Consequently, in order to simulate these complex electrical systems, reliable battery models are needed. Although there exist some models developed by experts of chemistry, they are too complex and not expressed in terms of electrical networks. Thus, they are not convenient for a practical use by electrical engineers, who need to interface these models with other electrical systems models, usually described by means of electrical circuits. There are many techniques available in literature by which a battery can be modeled. Starting from the Thevenin based electrical model, it can be adapted to be more reliable for Lead-Acid battery type, with the addition of a parasitic reaction branch and a parallel network. The third-order formulation of this model can be chosen, being a trustworthy general-purpose model, characterized by a good ratio between accuracy and complexity. Considering the equivalent circuit network, all the useful equations describing the battery model are discussed, and then implemented one by one in Matlab/Simulink. The model has been finally validated, and then used to simulate the battery behaviour in different typical conditions.
Resumo:
This article contributes to the ongoing discussion on how tolerance may be fostered in Western European countries and to the question of how contextual factors such as welfare state expenditures may contribute to this formation. Tolerance is understood as a basic democratic principle that helps civil societies cope with rising levels of diversity stemming from increased immigration and individualism. Within the tolerance literature it is commonly agreed upon that a comprehensive welfare state is capable of bridging class divides and overcoming social categorization. However, over the past decades European welfare states experienced an ongoing influx of immigrants, challenging their general purpose and increasing notions of ‘welfare chauvinism’. Drawing on insights from both tolerance and welfare state solidarity literature, we implement hierarchical analyses based on Eurobarometer data to assess the potential influence of welfare state universalism on political and social tolerance in 15 Western European countries. Moreover, we demonstrate that this relationship is highly conditional on the degree of ethnic heterogeneity within a country.
Resumo:
This report presents an overview of wave-current interacion, including comprehensive review of references to significant U.S. and foreign literature available through December 1981. Specific topics under review are the effects of horizontally and vertically varying currents on waves, wave refraction by currents, dissipation and turbulence, small- and medium-scale currents, caustics and focusing, and wave breaking. The results of the review are then examined for engineering applications. The most appropriate general-purpose computer program to include wave-current interaction is the Dutch Rijkswaterstaat program CREDIZ, which is based on a parabolic wave equation. Further applications include wave and current forces on structures and possibly sediment transport. The report concludes with a brief state-of-the-art review of wave-current interaction and a list of topics needing further research and development.
Resumo:
"The general purpose of this handbook is to inform our clients (internal and external) of the policies governing all grants awarded from the Illinois State Board of Education, to communicate with our clients, the procedures and guidelines, to ensure sound accounting practices and to provide consistency throughout the State Board in the administration of grants. The procedures and guidelines do not supersede the rules and regulations governing each specific program."--P. 2.
Resumo:
Earnings from gold mining in Australia remained tax-exempt for almost seven decades until January 1, 1991. In the early 1980s, rapid economic prosperity induced by escalated gold prices brought the Australian gold-mining industry under intense political scrutiny. Using a variant of the modified Jones model, this paper provides evidence of significant downward earnings management by Australian gold-mining firms, which is consistent with their attempts to mitigate political costs during the period from June 1985 to May 1988. In contrast, test of earnings management over a similar period in a control sample of Canadian gold-mining firms produced insignificant results. Further, empirical results are robust to several sensitivity tests performed. During the period from June 1988 to December 1990, the Australian firms were found to have engaged in economic earnings management. This is consistent with the sample firms' incentive of maximizing economic earnings immediately prior to the introduction of income tax on gold mining. The findings of this study help to understand the impact of earnings management on the efficient resource allocation in an economy. They also contribute toward understanding the linkage between regulation of accounting for special purposes and general-purpose financial. reporting.