25 resultados para one-to-one computing

em Consorci de Serveis Universitaris de Catalunya (CSUC), Spain


Relevância:

100.00% 100.00%

Publicador:

Resumo:

 En la societat d’avui dia, les empreses depenen en gran part dels seus recursos informàtics. La seva capacitat de supervivència i innovació en el mercat actual, on la competitivitat és cada dia més forta, passa per una infraestructura informàtica que els permeti, no només desplegar i implantar ordinadors i servidors de manera ràpida i eficient sinó que també les protegeixi contra parades del sistema informàtic, problemes amb servidors, caigudes o desastres físics de hardware.Per evitar aquests problemes informàtics susceptibles de poder parar el funcionament d’una empresa es va començar a treballar en el camp de la virtualització informàtica amb l’objectiu de poder trobar solucions a aquests problemes a la vegada que s’aprofitaven els recursos de hardware existents d’una manera més òptim a i eficient, reduint així també el cost de la infraestructura informàtica.L’objectiu principal d’aquest treball és veure en primer pla la conversió d’una empresa real amb una infraestructura informàtica del tipus un servidor físic -una funció cap a una infraestructura virtual del tipus un servidor físic -varis servidors virtual -vàries funcions. Analitzarem l’estat actual de l’empresa, servidors i funcions, adquirirem el hardware necessari i farem la conversió de tots els seus servidors cap a una nova infraestructura virtual.Faig especial atenció a les explicacions de perquè utilitzo una opció i no un altre i també procuro sempre donar vàries opcions. Igualment remarco en quadres verds observacions a tenir en compte complementàries al que estic explicant en aquell moment, i en quadres vermells temes en els que s’ha de posar especial atenció en el moment en que es fan. Finalment, un cop feta la conversió, veurem els molts avantatges que ens ha reportat aquesta tecnologia a nivell de fiabilitat, estabilitat, capacitat de tolerància a errades, capacitat de ràpid desplegament de noves màquines, capacitat de recuperació del sistema i aprofitament de recursos físics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la societat d’avui dia, les empreses depenen en gran part dels seus recursos informàtics. La seva capacitat de supervivència i innovació en el mercat actual, on la competitivitat és cada dia més forta, passa per una infraestructura informàtica que els permeti, no només desplegar i implantar ordinadors i servidors de manera ràpida i eficient sinó que també les protegeixi contra parades del sistema informàtic, problemes amb servidors, caigudes o desastres físics de hardware. Per evitar aquests problemes informàtics susceptibles de poder parar el funcionament d’una empresa es va començar a treballar en el camp de la virtualització informàtica amb l’objectiu de poder trobar solucions a aquests problemes a la vegada que s’aprofitaven els recursos de hardware existents d’una manera més òptim a i eficient, reduint així també el cost de la infraestructura informàtica. L’objectiu principal d’aquest treball és veure en primer pla la conversió d’una empresa real amb una infraestructura informàtica del tipus un servidor físic -una funció cap a una infraestructura virtual del tipus un servidor físic -varis servidors virtual -vàries funcions. Analitzarem l’estat actual de l’empresa, servidors i funcions, adquirirem el hardware necessari i farem la conversió de tots els seus servidors cap a una nova infraestructura virtual. Faig especial atenció a les explicacions de perquè utilitzo una opció i no un altre i també procuro sempre donar vàries opcions. Igualment remarco en quadres verds observacions a tenir en compte complementàries al que estic explicant en aquell moment, i en quadres vermells temes en els que s’ha de posar especial atenció en el moment en que es fan. Finalment, un cop feta la conversió, veurem els molts avantatges que ens ha reportat aquesta tecnologia a nivell de fiabilitat, estabilitat, capacitat de tolerància a errades, capacitat de ràpid desplegament de noves màquines, capacitat de recuperació del sistema i aprofitament de recursos físics

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The increasing volume of data describing humandisease processes and the growing complexity of understanding, managing, and sharing such data presents a huge challenge for clinicians and medical researchers. This paper presents the@neurIST system, which provides an infrastructure for biomedical research while aiding clinical care, by bringing together heterogeneous data and complex processing and computing services. Although @neurIST targets the investigation and treatment of cerebral aneurysms, the system’s architecture is generic enough that it could be adapted to the treatment of other diseases.Innovations in @neurIST include confining the patient data pertaining to aneurysms inside a single environment that offers cliniciansthe tools to analyze and interpret patient data and make use of knowledge-based guidance in planning their treatment. Medicalresearchers gain access to a critical mass of aneurysm related data due to the system’s ability to federate distributed informationsources. A semantically mediated grid infrastructure ensures that both clinicians and researchers are able to seamlessly access andwork on data that is distributed across multiple sites in a secure way in addition to providing computing resources on demand forperforming computationally intensive simulations for treatment planning and research.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Un reto al ejecutar las aplicaciones en un cluster es lograr mejorar las prestaciones utilizando los recursos de manera eficiente, y este reto es mayor al utilizar un ambiente distribuido. Teniendo en cuenta este reto, se proponen un conjunto de reglas para realizar el cómputo en cada uno de los nodos, basado en el análisis de cómputo y comunicaciones de las aplicaciones, se analiza un esquema de mapping de celdas y un método para planificar el orden de ejecución, tomando en consideración la ejecución por prioridad, donde las celdas de fronteras tienen una mayor prioridad con respecto a las celdas internas. En la experimentación se muestra el solapamiento del computo interno con las comunicaciones de las celdas fronteras, obteniendo resultados donde el Speedup aumenta y los niveles de eficiencia se mantienen por encima de un 85%, finalmente se obtiene ganancias de los tiempos de ejecución, concluyendo que si se puede diseñar un esquemas de solapamiento que permita que la ejecución de las aplicaciones SPMD en un cluster se hagan de forma eficiente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabajo desarrolla el proceso de diseño e implementación de una interfaz web que permite la exploración en detalle de las relaciones entre genomas completos. La interfaz permite la comparación simultánea de nueve genomas, representando en cada gráfica las relaciones entre cada par de genomas junto los genes identificados de cada uno de ellos. Es capaz de trabajar con genomas del dominio Eukaryota y se adapta a la capacidad de cómputo de la máquina cliente. La información representada son MUMs (Maximal Unique Matching, secuencia máxima y única encontrada en ambos genomas) y SuperMUMs (agrupación de MUMs mediante Approximate String Matching). Los datos son previamente calculados y accesibles desde un servidor web.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este documento refleja el estudio de investigación para la detección de factores que afectan al rendimiento en entornos multicore. Debido a la gran diversidad de arquitecturas multicore se ha definido un marco de trabajo, que consiste en la adopción de una arquitectura específica, un modelo de programación basado en paralelismo de datos, y aplicaciones del tipo Single Program Multiple Data. Una vez definido el marco de trabajo, se han evaluado los factores de rendimiento con especial atención al modelo de programación. Por este motivo, se ha analizado la librería de threads y la API OpenMP para detectar aquellas funciones sensibles de ser sintonizadas al permitir un comportamiento adaptativo de la aplicación al entorno, y que dependiendo de su adecuada utilización han de mejorar el rendimiento de la aplicación.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El rápido crecimiento del los sistemas multicore y los diversos enfoques que estos han tomado, permiten que procesos complejos que antes solo eran posibles de ejecutar en supercomputadores, hoy puedan ser ejecutados en soluciones de bajo coste también denominadas "hardware de comodidad". Dichas soluciones pueden ser implementadas usando los procesadores de mayor demanda en el mercado de consumo masivo (Intel y AMD). Al escalar dichas soluciones a requerimientos de cálculo científico se hace indispensable contar con métodos para medir el rendimiento que los mismos ofrecen y la manera como los mismos se comportan ante diferentes cargas de trabajo. Debido a la gran cantidad de tipos de cargas existentes en el mercado, e incluso dentro de la computación científica, se hace necesario establecer medidas "típicas" que puedan servir como soporte en los procesos de evaluación y adquisición de soluciones, teniendo un alto grado de certeza de funcionamiento. En la presente investigación se propone un enfoque práctico para dicha evaluación y se presentan los resultados de las pruebas ejecutadas sobre equipos de arquitecturas multicore AMD e Intel.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

The purpose of our project is to contribute to earlier diagnosis of AD and better estimates of its severity by using automatic analysis performed through new biomarkers extracted from non-invasive intelligent methods. The methods selected in this case are speech biomarkers oriented to Sponta-neous Speech and Emotional Response Analysis. Thus the main goal of the present work is feature search in Spontaneous Speech oriented to pre-clinical evaluation for the definition of test for AD diagnosis by One-class classifier. One-class classifi-cation problem differs from multi-class classifier in one essen-tial aspect. In one-class classification it is assumed that only information of one of the classes, the target class, is available. In this work we explore the problem of imbalanced datasets that is particularly crucial in applications where the goal is to maximize recognition of the minority class as in medical diag-nosis. The use of information about outlier and Fractal Dimen-sion features improves the system performance.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The paper is devoted to the study of a type of differential systems which appear usually in the study of some Hamiltonian systems with 2 degrees of freedom. We prove the existence of infinitely many periodic orbits on each negative energy level. All these periodic orbits pass near the total collision. Finally we apply these results to study the existence of periodic orbits in the charged collinear 3–body problem.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper provides empirical evidence that continuous time models with one factor of volatility, in some conditions, are able to fit the main characteristics of financial data. It also reports the importance of the feedback factor in capturing the strong volatility clustering of data, caused by a possible change in the pattern of volatility in the last part of the sample. We use the Efficient Method of Moments (EMM) by Gallant and Tauchen (1996) to estimate logarithmic models with one and two stochastic volatility factors (with and without feedback) and to select among them.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

For the many-to-one matching model in which firms have substitutable and quota q-separable preferences over subsets of workers we show that the workers-optimal stable mechanism is group strategy-proof for the workers. In order to prove this result, we also show that under this domain of preferences (which contains the domain of responsive preferences of the college admissions problem) the workers-optimal stable matching is weakly Pareto optimal for the workers and the Blocking Lemma holds as well. We exhibit an example showing that none of these three results remain true if the preferences of firms are substitutable but not quota q-separable.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

"Vegeu el resum a l'inici del document del fitxer adjunt."

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The work in this paper concerns the study of conventional and refined heat balance integral methods for a number of phase change problems. These include standard test problems, both with one and two phase changes, which have exact solutions to enable us to test the accuracy of the approximate solutions. We also consider situations where no analytical solution is available and compare these to numerical solutions. It is popular to use a quadratic profile as an approximation of the temperature, but we show that a cubic profile, seldom considered in the literature, is far more accurate in most circumstances. In addition, the refined integral method can give greater improvement still and we develop a variation on this method which turns out to be optimal in some cases. We assess which integral method is better for various problems, showing that it is largely dependent on the specified boundary conditions.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

To measure the contribution of individual transactions inside the total risk of a credit portfolio is a major issue in financial institutions. VaR Contributions (VaRC) and Expected Shortfall Contributions (ESC) have become two popular ways of quantifying the risks. However, the usual Monte Carlo (MC) approach is known to be a very time consuming method for computing these risk contributions. In this paper we consider the Wavelet Approximation (WA) method for Value at Risk (VaR) computation presented in [Mas10] in order to calculate the Expected Shortfall (ES) and the risk contributions under the Vasicek one-factor model framework. We decompose the VaR and the ES as a sum of sensitivities representing the marginal impact on the total portfolio risk. Moreover, we present technical improvements in the Wavelet Approximation (WA) that considerably reduce the computational effort in the approximation while, at the same time, the accuracy increases.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

An analytic method to evaluate nuclear contributions to electrical properties of polyatomic molecules is presented. Such contributions control changes induced by an electric field on equilibrium geometry (nuclear relaxation contribution) and vibrational motion (vibrational contribution) of a molecular system. Expressions to compute the nuclear contributions have been derived from a power series expansion of the potential energy. These contributions to the electrical properties are given in terms of energy derivatives with respect to normal coordinates, electric field intensity or both. Only one calculation of such derivatives at the field-free equilibrium geometry is required. To show the useful efficiency of the analytical evaluation of electrical properties (the so-called AEEP method), results for calculations on water and pyridine at the SCF/TZ2P and the MP2/TZ2P levels of theory are reported. The results obtained are compared with previous theoretical calculations and with experimental values