991 resultados para Algoritmo DSM
Resumo:
Informe de investigación elaborado a partir de una estancia en el Laboratorio de Diseño Computacional en Aeroespacial en el Massachusetts Institute of Technology (MIT), Estados Unidos, entre noviembre de 2006 y agosto de 2007. La aerodinámica es una rama de la dinámica de fluidos referida al estudio de los movimientos de los líquidos o gases, cuya meta principal es predecir las fuerzas aerodinámicas en un avión o cualquier tipo de vehículo, incluyendo los automóviles. Las ecuaciones de Navier-Stokes representan un estado dinámico del equilibrio de las fuerzas que actúan en cualquier región dada del fluido. Son uno de los sistemas de ecuaciones más útiles porque describen la física de una gran cantidad de fenómenos como corrientes del océano, flujos alrededor de una superficie de sustentación, etc. En el contexto de una tesis doctoral, se está estudiando un flujo viscoso e incompresible, solucionando las ecuaciones de Navier- Stokes incompresibles de una manera eficiente. Durante la estancia en el MIT, se ha utilizado un método de Galerkin discontinuo para solucionar las ecuaciones de Navier-Stokes incompresibles usando, o bien un parámetro de penalti para asegurar la continuidad de los flujos entre elementos, o bien un método de Galerkin discontinuo compacto. Ambos métodos han dado buenos resultados y varios ejemplos numéricos se han simulado para validar el buen comportamiento de los métodos desarrollados. También se han estudiado elementos particulares, los elementos de Raviart y Thomas, que se podrían utilizar en una formulación mixta para obtener un algoritmo eficiente para solucionar problemas numéricos complejos.
Resumo:
Las redes de interconexión juegan un papel importante en el rendimiento de los sistemas de altas prestaciones. Actualmente la gestión del encaminamiento de los mensajes es un factor determinante para mantener las prestaciones de la red. Nuestra propuesta es trabajar sobre un algoritmo de encaminamiento adaptativo, que distribuye el encaminamiento de los mensajes para evitar los problemas de congestión en las redes de interconexión, que aparecen por el gran volumen de comunicaciones de aplicaciones científicas ó comerciales. El objetivo es ajustar el algoritmo a una topología muy utilizada en los sistemas actuales como lo es el fat‐tree, e implementarlo en una tecnología Infiniband. En la experimentación realizada comparamos el método de control de congestión de la arquitectura Infiniband, con nuestro algoritmo. Los resultados obtenidos muestran que mejoramos los niveles de latencia por encima de un 50% y de throughput entre un 38% y un 81%.
Resumo:
El principal objectiu d'aquest treball és proporcionar una metodologia per a reduir el temps de càlcul del mètode d'interpolació kriging sense pèrdua de la qualitat del model resultat. La solució adoptada ha estat la paral·lelització de l'algorisme mitjançant MPI sobre llenguatge C. Prèviament ha estat necessari automatitzar l'ajust del variograma que millor s'adapta a la distribució espacial de la variable d'estudi. Els resultats experimentals demostren la validesa de la solució implementada, en reduir de forma significativa els temps d'execució final de tot el procés.
Resumo:
Forest fires are a serious threat to humans and nature from an ecological, social and economic point of view. Predicting their behaviour by simulation still delivers unreliable results and remains a challenging task. Latest approaches try to calibrate input variables, often tainted with imprecision, using optimisation techniques like Genetic Algorithms. To converge faster towards fitter solutions, the GA is guided with knowledge obtained from historical or synthetical fires. We developed a robust and efficient knowledge storage and retrieval method. Nearest neighbour search is applied to find the fire configuration from knowledge base most similar to the current configuration. Therefore, a distance measure was elaborated and implemented in several ways. Experiments show the performance of the different implementations regarding occupied storage and retrieval time with overly satisfactory results.
Resumo:
RESUM En aquest document es presenta un detector de contorns d’imatges basat en el domini transformat. A partir de la interpretació de la transformada de Fourier de la imatge i la seva formulació matricial en termes dels diferents modes, es realitza una selecció de les components passa baixes a partir de les quals es reconstrueix la component de baixa freqüència que es resta de la imatge original per tal d’obtenir el detector. Aquest detector de contorns no és esbiaixat. L’algorisme pot ser aplicat utilitzant diferents mides del bloc de processament, que pot anar de la imatge sencera a blocs de reduïdes dimensions: 36X36, 16x16 o 8x8, per fer un seguiment de les propietats locals de la imatge quan aquesta és presenta característiques espacials poc uniformes.
Resumo:
Proyecto de investigación realizado a partir de una estancia en el Centro Internacional de Métodos Computacionales en Ingeniería (CIMEC), Argentina, entre febrero y abril del 2007. La simulación numérica de problemas de mezclas mediante el Particle Finite Element Method (PFEM) es el marco de estudio de una futura tesis doctoral. Éste es un método desarrollado conjuntamente por el CIMEC y el Centre Internacional de Mètodos Numèrics en l'Enginyeria (CIMNE-UPC), basado en la resolución de las ecuaciones de Navier-Stokes en formulación Lagrangiana. El mallador ha sido implementado y desarrollado por Dr. Nestor Calvo, investigador del CIMEC. El desarrollo del módulo de cálculo corresponde al trabajo de tesis de la beneficiaria. La correcta interacción entre ambas partes es fundamental para obtener resultados válidos. En esta memoria se explican los principales aspectos del mallador que fueron modificados (criterios de refinamiento geométrico) y los cambios introducidos en el módulo de cálculo (librería PETSc, algoritmo predictor-corrector) durante la estancia en el CIMEC. Por último, se muestran los resultados obtenidos en un problema de dos fluidos inmiscibles con transferencia de calor.
Resumo:
En este proyecto se implementan tres algoritmos esteganográficos diferentes usando JPEG2000 como portador del mensaje, se calcula el rendimiento de cada uno de ellos y se comparan usando una gráfica. El objetivo es visualizar para unos casos específicos que el algoritmo basado en el producto de dos códigos lineales perfectos tiene mejor rendimiento que el obtenido con algoritmos como el F5 y el LSB.
Resumo:
BACKGROUND: Nowadays, cognitive remediation is widely accepted as an effective treatment for patients with schizophrenia. In French-speaking countries, techniques used in cognitive remediation for patients with schizophrenia have been applied from those used for patients with cerebral injury. As cognitive impairment is a core feature of schizophrenia, the Département de psychiatrie du CHUV in Lausanne (DP-CHUV) intended to develop a cognitive remediation program for patients with a schizophrenia spectrum disease (Recos-Vianin, 2007). Numerous studies show that the specific cognitive deficits greatly differ from one patient to another. Consequently, Recos aims at providing individualized cognitive remediation therapy. In this feasibility trial, we measured the benefits of this individualized therapy for patients with schizophrenia. Before treatment, the patients were evaluated with a large battery of cognitive tests in order to determine which of the five specific training modules - Verbal memory, visuospatial memory and attention, working memory, selective attention, reasoning - could provide the best benefit depending on their deficit. OBJECTIVES: The study was designed to evaluate the benefits of the Recos program by comparing cognitive functioning before and after treatment. METHOD: Twenty-eight patients with schizophrenia spectrum disorders (schizophrenia [n=18], schizoaffective disorder [n=5], schizotypal disorder [n=4], schizophreniform disorder [n=1], DSM-IV-TR) participated in between one and three of the cognitive modules. The choice of the training module was based on the results of the cognitive tests obtained during the first evaluation. The patients participated in 20 training sessions per module (one session per week). At the end of the training period, the cognitive functioning of each patient was reevaluated by using the same neuropsychological battery. RESULTS: The results showed a greater improvement in the cognitive functions, which were specifically trained, compared to the cognitive functions, which were not trained. However, an improvement was also observed in both types of cognitive functions, suggesting an indirect cognitive gain. CONCLUSION: In our view, the great heterogeneity of the observed cognitive deficits in schizophrenia necessitates a detailed neuropsychological investigation as well as an individualized cognitive remediation therapy. These preliminary results need to be confirmed with a more extended sample of patients.
Resumo:
Este proyecto, desarrollado en la empresa Davantis, tiene como objetivo encontrar posibles mejoras a su actual sistema de videovigilancia, el Daview. El proyecto está dedicado al estudio del algoritmo de seguimiento Mean Shift para la elaboración de un sistema de tracking. Para ello se han desarrollado y evaluado tres implementaciones diferentes, mediante las cuales se han encontrado mejoras que complementan al módulo de tracking del Daview. También se ha estudiado la utilidad de un sistema de evaluación manual frente a uno de automático.
Resumo:
Este trabajo analiza el rendimiento de cuatro nodos de cómputo multiprocesador de memoria compartida para resolver el problema N-body. Se paraleliza el algoritmo serie, y se codifica usando el lenguaje C extendido con OpenMP. El resultado son dos variantes que obedecen a dos criterios de optimización diferentes: minimizar los requisitos de memoria y minimizar el volumen de cómputo. Posteriormente, se realiza un proceso de análisis de las prestaciones del programa sobre los nodos de cómputo. Se modela el rendimiento de las variantes secuenciales y paralelas de la aplicación, y de los nodos de cómputo; se instrumentan y ejecutan los programas para obtener resultados en forma de varias métricas; finalmente se muestran e interpretan los resultados, proporcionando claves que explican ineficiencias y cuellos de botella en el rendimiento y posibles líneas de mejora. La experiencia de este estudio concreto ha permitido esbozar una incipiente metodología de análisis de rendimiento, identificación de problemas y sintonización de algoritmos a nodos de cómputo multiprocesador de memoria compartida.
Resumo:
Las aplicaciones de alineamiento múltiple de secuencias son prototipos de aplicaciones que requieren elevada potencia de cómputo y memoria. Se destacan por la relevancia científica que tienen los resultados que brindan a investigaciones científicas en el campo de la biomedicina, genética y farmacología. Las aplicaciones de alineamiento múltiple tienen la limitante de que no son capaces de procesar miles de secuencias, por lo que se hace necesario crear un modelo para resolver la problemática. Analizando el volumen de datos que se manipulan en el área de las ciencias biológica y la complejidad de los algoritmos de alineamiento de secuencias, la única vía de solución del problema es a través de la utilización de entornos de cómputo paralelos y la computación de altas prestaciones. La investigación realizada por nosotros tiene como objetivo la creación de un modelo paralelo que le permita a los algoritmos de alineamiento múltiple aumentar el número de secuencias a procesar, tratando de mantener la calidad en los resultados para garantizar la precisión científica. El modelo que proponemos emplea como base la clusterización de las secuencias de entrada utilizando criterios biológicos que permiten mantener la calidad de los resultados. Además, el modelo se enfoca en la disminución del tiempo de cómputo y consumo de memoria. Para presentar y validar el modelo utilizamos T-Coffee, como plataforma de desarrollo e investigación. El modelo propuesto pudiera ser aplicado a cualquier otro algoritmo de alineamiento múltiple de secuencias.
Resumo:
La tecnologia GPGPU permet paral∙lelitzar càlculs executant operacions aritmètiques en els múltiples processadors de que disposen els xips gràfics. S'ha fet servir l'entorn de desenvolupament CUDA de la companyia NVIDIA, que actualment és la solució GPGPU més avançada del mercat. L'algorisme de neuroimatge implementat pertany a un estudi VBM desenvolupat amb l'eina SPM. Es tracta concretament del procés de segmentació d'imatges de ressonància magnètica cerebrals, en els diferents teixits dels quals es composa el cervell: matèria blanca, matèria grisa i líquid cefaloraquidi. S'han implementat models en els llenguatges Matlab, C i CUDA, i s'ha fet un estudi comparatiu per plataformes hardware diferents.
Resumo:
Aquest projecte tracta sobre la viabilitat de la construcció d’un sistema per al seguiment del pes d’una població de marmotes en alta muntanya. Bàsicament, es construeix una bàscula amb un sensor de força i un sensor de temperatura. Aquestes sortides analògiques es connecten a un microcontrolador ATmega8 que, mitjançant un algorisme desenvolupat en aquest projecte, està contínuament en escolta fins a detectar un canvi sobtat en el pes. Aleshores les dades s’enregistren i es guarden en una memòria SRAM per a, posteriorment, poder ser descarregades a un ordinador i analitzades per un programa que s’ha creat per a tal finalitat.
Resumo:
En aquest treball realitzem un estudi sobre la detecció y la descripció de punts característics, una tecnologia que permet extreure informació continguda en les imatges. Primerament presentem l'estat de l'art juntament amb una avaluació dels mètodes més rellevants. A continuació proposem els nous mètodes que hem creat de detecció i descripció, juntament amb l'algorisme òptim anomenat DART, el qual supera l'estat de l'art. Finalment mostrem algunes aplicacions on s'utilitzen els punts DART. Basant-se en l'aproximació de l'espai d'escales Gaussià, el detector proposat pot extreure punts de distint tamany invariants davant canvis en el punt de vista, la rotació i la iluminació. La reutilització de l'espai d'escales durant el procés de descripció, així com l'ús d'estructures simplificades i optimitzades, permeten realitzar tot el procediment en un temps computacional menor a l'obtingut fins al moment. Així s'aconsegueixen punts invariants i distingibles de forma ràpida, el qual permet la seva utilització en aplicacions com el seguiment d'objectes, la reconstrucció d'escenaris 3D i en motors de cerca visual.
Resumo:
Experts in the field of conversion disorder have suggested for the upcoming DSM-V edition to put less weight on the associated psychological factors and to emphasise the role of clinical findings. Indeed, a critical step in reaching a diagnosis of conversion disorder is careful bedside neurological examination, aimed at excluding organic signs and identifying 'positive' signs suggestive of a functional disorder. These positive signs are well known to all trained neurologists but their validity is still not established. The aim of this study is to provide current evidence regarding their sensitivity and specificity. We conducted a systematic search on motor, sensory and gait functional signs in Embase, Medline, PsycINfo from 1965 to June 2012. Studies in English, German or French reporting objective data on more than 10 participants in a controlled design were included in a systematic review. Other relevant signs are discussed in a narrative review. Eleven controlled studies (out of 147 eligible articles) describing 14 signs (7 motor, 5 sensory, 2 gait) reported low sensitivity of 8-100% but high specificity of 92-100%. Studies were evidence class III, only two had a blinded design and none reported on inter-rater reliability of the signs. Clinical signs for functional neurological symptoms are numerous but only 14 have been validated; overall they have low sensitivity but high specificity and their use should thus be recommended, especially with the introduction of the new DSM-V criteria.