402 resultados para Sistemes experts


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este estudio es contribuir al entendimiento, desde un punto de vista histórico, del papel que juega el cine en los procesos de popularización de la ciencia, la medicina y la tecnología. El punto de partida es la consideración de la medicina y del cine como conjuntos complejos y multidimensionales de “prácticas y discursos” de carácter científico-tecnológico y, por tanto, como formas particulares de acción e interacción cotidiana entre personas, colectivos e instituciones que juegan un papel básico en los procesos de construcción y funcionamiento de las sociedades contemporáneas. Así, mediante el análisis de la representación y articulación de las prácticas y los discursos médico-sanitarios en el cine documental colonial español del primer franquismo, es decir, en el caso particular de la construcción, legitimación y consolidación de un régimen totalitario, se aportan algunas claves explicativas sobre las múltiples relaciones entre diferentes colectivos (expertos y no-expertos) en cuanto a la naturaleza y el nivel de intervención en los procesos de generación y gestión de conocimiento científico-tecnológico. Como resultado, el cine se revela como un espacio no sólo de evasión y entretenimiento, sino también de ciencia y educación, donde la capacidad de definir y solucionar problemas cotidianos de la población, y por tanto, su impacto en la construcción de la arquitectura social, ideológica, económica, política y cultural de las sociedades contemporáneas, se fundamenta en la combinación de sus aspectos como espectáculo narrativo y científico-tecnológico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, la computación de altas prestaciones está siendo utilizada en multitud de campos científicos donde los distintos problemas estudiados se resuelven mediante aplicaciones paralelas/distribuidas. Estas aplicaciones requieren gran capacidad de cómputo, bien sea por la complejidad de los problemas o por la necesidad de solventar situaciones en tiempo real. Por lo tanto se debe aprovechar los recursos y altas capacidades computacionales de los sistemas paralelos en los que se ejecutan estas aplicaciones con el fin de obtener un buen rendimiento. Sin embargo, lograr este rendimiento en una aplicación ejecutándose en un sistema es una dura tarea que requiere un alto grado de experiencia, especialmente cuando se trata de aplicaciones que presentan un comportamiento dinámico o cuando se usan sistemas heterogéneos. En estos casos actualmente se plantea realizar una mejora de rendimiento automática y dinámica de las aplicaciones como mejor enfoque para el análisis del rendimiento. El presente trabajo de investigación se sitúa dentro de este ámbito de estudio y su objetivo principal es sintonizar dinámicamente mediante MATE (Monitoring, Analysis and Tuning Environment) una aplicación MPI empleada en computación de altas prestaciones que siga un paradigma Master/Worker. Las técnicas de sintonización integradas en MATE han sido desarrolladas a partir del estudio de un modelo de rendimiento que refleja los cuellos de botella propios de aplicaciones situadas bajo un paradigma Master/Worker: balanceo de carga y número de workers. La ejecución de la aplicación elegida bajo el control dinámico de MATE y de la estrategia de sintonización implementada ha permitido observar la adaptación del comportamiento de dicha aplicación a las condiciones actuales del sistema donde se ejecuta, obteniendo así una mejora de su rendimiento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Computer chips implementation technologies evolving to obtain more performance are increasing the probability of transient faults. As this probability grows and on-chip solutions are expensive or tend to degrade processor performance, the efforts to deal with these transient faults in higher levels (such as the operating system or even at the application level) are increasing. Mostly, these efforts are trying to avoid silent data corruptions using hardware, software and hybrid based techniques to add redundancy to detect the errors generated by the transient faults. This work presents our proposal to improve the robustness of applications with source code based transformation adding redundancy. Also, our proposal takes account of the tradeoff between the improved robustness and the overhead generated by the added redundancy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los servicios de salud son sistemas muy complejos, pero de alta importancia, especialmente en algunos momentos críticos, en todo el mundo. Los departamentos de urgencias pueden ser una de las áreas más dinámicas y cambiables de todos los servicios de salud y a la vez más vulnerables a dichos cambios. La mejora de esos departamentos se puede considerar uno de los grandes retos que tiene cualquier administrador de un hospital, y la simulación provee una manera de examinar este sistema tan complejo sin poner en peligro los pacientes que son atendidos. El objetivo de este trabajo ha sido el modelado de un departamento de urgencias y el desarrollo de un simulador que implementa este modelo con la finalidad de explorar el comportamiento y las características de dicho servicio de urgencias. El uso del simulador ofrece la posibilidad de visualizar el comportamiento del modelo con diferentes parámetros y servirá como núcleo de un sistema de ayuda a la toma de decisiones que pueda ser usado en departamentos de urgencias. El modelo se ha desarrollado con técnicas de modelado basado en agentes (ABM) que permiten crear modelos funcionalmente más próximos a la realidad que los modelos de colas o de dinámicas de sistemas, al permitir la inclusión de la singularidad que implica el modelado a nivel de las personas. Los agentes del modelo presentado, descritos internamente como máquinas de estados, representan a todo el personal del departamento de urgencias y los pacientes que usan este servicio. Un análisis del modelo a través de su implementación en el simulador muestra que el sistema se comporta de manera semejante a un departamento de urgencias real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, many of the health care systems are large and complex environments and quite dynamic, specifically Emergency Departments, EDs. It is opened and working 24 hours per day throughout the year with limited resources, whereas it is overcrowded. Thus, is mandatory to simulate EDs to improve qualitatively and quantitatively their performance. This improvement can be achieved modelling and simulating EDs using Agent-Based Model, ABM and optimising many different staff scenarios. This work optimises the staff configuration of an ED. In order to do optimisation, objective functions to minimise or maximise have to be set. One of those objective functions is to find the best or optimum staff configuration that minimise patient waiting time. The staff configuration comprises: doctors, triage nurses, and admissions, the amount and sort of them. Staff configuration is a combinatorial problem, that can take a lot of time to be solved. HPC is used to run the experiments, and encouraging results were obtained. However, even with the basic ED used in this work the search space is very large, thus, when the problem size increases, it is going to need more resources of processing in order to obtain results in an acceptable time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Current parallel applications running on clusters require the use of an interconnection network to perform communications among all computing nodes available. Imbalance of communications can produce network congestion, reducing throughput and increasing latency, degrading the overall system performance. On the other hand, parallel applications running on these networks posses representative stages which allow their characterization, as well as repetitive behavior that can be identified on the basis of this characterization. This work presents the Predictive and Distributed Routing Balancing (PR-DRB), a new method developed to gradually control network congestion, based on paths expansion, traffic distribution and effective traffic load, in order to maintain low latency values. PR-DRB monitors messages latencies on intermediate routers, makes decisions about alternative paths and record communication pattern information encountered during congestion situation. Based on the concept of applications repetitiveness, best solution recorded are reapplied when saved communication pattern re-appears. Traffic congestion experiments were conducted in order to evaluate the performance of the method, and improvements were observed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación de altas prestaciones es una área de la informática que evoluciona rápidamente, en la que actualmente aparecen nuevos computadores que llegan a los petaflops. Al principio del trabajo, se estudian los distintos tipos de redes de interconexión y los modelos de red que se utilizan para medir su latencia. El objetivo de este trabajo, es el diseño, implementación y simulación de un modelo de red de interconexión basado en enlace, que tiene en cuenta la información de topología y enrutamiento de la red de interconexión. Teniendo en cuenta que los modelos son una abstracción del sistema, en éste trabajo se hace la verificación y validación del modelo, para asegurar que éste se aproxima a lo planteado en el diseño y también que se parece al sistema que se quiere modelar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquest projecte estudia la implantació d’un sistema de posicionament a l’interior d’un edifici que compti amb una xarxa WiMAX. Per començar, s’analitzaran les característiques principals d’aquesta tecnología, la configuració de la xarxa amb la que treballarem i s’explicaran els mètodes de posicionament existents avui en dia. Més endavant s’estudiaran els aspectes més importants de la nostra aplicació: l’escenari, l’estimació de la distancia i l’estimació de la posició. Finalment, després d’analitzar els resultats de diverses mesures, es dissenyaran tres mètodes pel càlcul de la posició i s’aplicarà el nostre procediment en més de 15 escenaris de posicionament diferents, amb l’objectiu de comparar els resultats i definir quin dels mètodes aconsegueix un posicionament més precís.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El procés de fusió de dues o més imatges de la mateixa escena en una d'única i més gran és conegut com a Image Mosaicing. Un cop finalitzat el procés de construcció d'un mosaic, els límits entre les imatges són habitualment visibles, degut a imprecisions en els registres fotomètric i geomètric. L'Image Blending és l'etapa del procediment de mosaicing a la que aquests artefactes són minimitzats o suprimits. Existeixen diverses metodologies a la literatura que tracten aquests problemes, però la majoria es troben orientades a la creació de panorames terrestres, imatges artístiques d'alta resolució o altres aplicacions a les quals el posicionament de la càmera o l'adquisició de les imatges no són etapes rellevants. El treball amb imatges subaquàtiques presenta desafiaments importants, degut a la presència d'scattering (reflexions de partícules en suspensió) i atenuació de la llum i a condicions físiques extremes a milers de metres de profunditat, amb control limitat dels sistemes d'adquisició i la utilització de tecnologia d'alt cost. Imatges amb il·luminació artificial similar, sense llum global com la oferta pel sol, han de ser unides sense mostrar una unió perceptible. Les imatges adquirides a gran profunditat presenten una qualitat altament depenent de la profunditat, i la seva degradació amb aquest factor és molt rellevant. El principal objectiu del treball és presentar dels principals problemes de la imatge subaquàtica, seleccionar les estratègies més adequades i tractar tota la seqüència adquisició-procesament-visualització del procés. Els resultats obtinguts demostren que la solució desenvolupada, basada en una Estratègia de Selecció de Límit Òptim, Fusió en el Domini del Gradient a les regions comunes i Emfatització Adaptativa d'Imatges amb baix nivell de detall permet obtenir uns resultats amb una alta qualitat. També s'ha proposat una estratègia, amb possibilitat d'implementació paral·lela, que permet processar mosaics de kilòmetres d'extensió amb resolució de centímetres per píxel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La regeneració òssia és un procés estudiat per experts de tot el món. Aquests experts estudien materials capaços d’accelerar el procés de formació de teixit ossi en zones on s’han produït defectes ossis. Després d’un determinat període de temps de l’aplicació dels materials d’estudi en la zona on hi havia una manca de teixit ossi, s’obtenen imatges d’aquesta zona on l’expert mitjançant l’ inspecció visual d’aquestes imatges avalua si l’os s’ha regenerat bé o no. El problema d’aquest mètode d’avaluació es que requereix d’un expert on la valoració d’aquest és subjectiva i difícil de quantificar, el que pot provocar que hi hagi discordança entre experts. Amb la finalitat de aprofitar les imatges en que es basa l’expert per avaluar la capacitat de regeneració òssia dels materials d’estudi es proposa realitzar un anàlisi quantitatiu de la regeneració òssia basat en el processament d’imatge. L’algorisme dissenyat es capaç de classificar imatges de la mandíbula en: imatges de regeneració bona i dolenta mitjançant la parametrització de l’histograma de nivells de grisos de la imatge, solucionant la falta d’objectivitat del mètode d’avaluació de la regeneració òssia i la necessitat d’un expert per realitzar-la.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durant el període de gaudiment de la beca, des del dia 9 de març del 2007 fins el dia 8 de març del 2010, s’han dut a terme diferents tipus d’experiments amb sistemes bidimensionals com són les monocapes de Langmuir. Inicialment es va començar per l’estudi i la caracterització d’aquests sistemes experimentals, tant en repòs com en dinàmic, com és l’estudi de la reposta col•lectiva molecular de dominis d’un azoderivat fotosensible al rotar el pla de polarització mentre es mante sota il•luminació constant i els estudis de sistemes bidimensionals al collapse que es poden relacionar a les propietats viscoplàstiques dels sòlids. Una altra via d’estudi és la reologia d’aquests sistemes bidimensionals quan flueixen a través de canals. Arrel del sistema experimental més simple, una monocapa fluint per un canal, s’ha observat i estudiat l’efecte coll d’ampolla. Un cop assolit i estudiat el sistema més senzill, s’han aplicat tècniques més complexes de fabricació per fotolitografia per fer fluir monocapes de Langmuir per circuits on hi ha un gran contrast de mullat. Un cop aquests circuits es van implementar satisfactòriament en un sistema pel control de fluxos bidimensionals, es posen de manifest les possibles aplicacions futures d’aquests sistemes per l’estudi i el desenvolupament de la microfluídica bidimensional.