85 resultados para segmentazione immagini mediche algoritmo Canny algoritmo watershed edge detection
Resumo:
El presente trabajo tiene por objetivo ofrecer una solución para la creación de un índice espacial para la extensión JASPA (Java SPAtial) sobre la base de datos H2. El algoritmo de indexación elegido para la implementación del índice espacial ha sido el Rtree.La implementación se ha realizado con el lenguaje de programación Java lo que ha facilitado su integración con la extensión JASPA y la base de datos H2, dado que ambos proyectos están codificados en el mismo lenguaje. El índice es persistente en memoria secundaria en una tabla de la propia base de datos H2.La solución que se propone está limitada a operaciones espaciales en dos dimensiones y es lo suficientemente flexible como para que no se haya necesitado modificar ni el código fuente de JASPA, ni de H2. Además, se ha previsto que el algoritmo de indexación se pueda mejorar o sustituir fácilmente.Por último, se ha tenido en cuenta que el proceso de creación y manipulación de los índices espaciales sea intuitivo y fácil de usar.
Resumo:
Les limitacions en la capacitat d'emmagatzemament dels dispositius sensors sense fils o motes és consubstancial al seu disseny, però pot convertir-se en un problema en determinades situacions. Aquest projecte de fi de carrera ha esta motivat per l'interès en superar aquestes limitacions en una situació concreta: una mota dedicada a prendre mostres amb alguns dels seus sensors que passa un període llarg de temps sense poder comunicar amb la base. Per aconseguir aquest objectiu s'ha dissenyat i implementat un sistema que comprimeix les mostres en una mota només quan l'espai d'emmagatzemament està pròxim a exhaurir-se. Aquest procés de compressió pot repetir-se indefinidament i cada vegada que actua elimina només les mostres menys significatives, tot preservant la freqüència del mostreig.A continuació es descriu l'algorisme que s'ha dissenyat, respectuós amb les capacitats de processament de la mota, la implementació que s'ha fet en nesC per a una mota Cou24 amb TinyOS, el programari complementari que s'ha desenvolupat en Java per a PC, i el resultat de les proves que s'han fet de tot aquest conjunt.
Resumo:
La aparición de terminales de telefonía móvil cada vez más potentes abre un nuevo abanico de posibilidades en cuanto a usos y aplicaciones. Sin embargo, y dadas las limitaciones tanto de memoria como de CPU que tienen estos dispositivos, algunas de las aplicaciones potenciales resultan muy difíciles o incluso imposibles de llevar a la práctica. Este es el caso, por ejemplo, de aplicaciones de cálculo de rutas. En el contexto del proyecto Itiner@, un asistente para rutas turísticas completamente autónomo que debe funcionar incluso sin conexión a Internet, todos los procesos deben ejecutarse íntegramente de forma local en el dispositivo móvil. Dado que es un proyecto orientado al ocio, es importante que la experiencia del usuario sea satisfactoria, por lo que además de poder ejecutar el algoritmo de cálculo de rutas, el sistema debe hacerlo de forma rápida. En este sentido, los algoritmos recursivos habituales son demasiado costosos o lentos para su uso en Itiner@ y ha sido necesario reinventar este tipo de algoritmos en función de las limitaciones que tienen estos dispositivos. En el presente trabajo se presenta el proceso seguido y las dificultades encontradas para implementar un algoritmo recursivo de cálculo de rutas que se ejecute íntegramente en un dispositivo móvil Android de forma eficiente. Así, finalmente se llega a un algoritmo recursivo de cálculo de rutas para dispositivos móviles que se ejecuta de forma más eficiente frente a algoritmos directamente portados a dispositivos móviles. La principal contribución del trabajo es doble: por un lado ofrece algunas guías útiles al desarrollo de algoritmos más eficientes para dispositivos móviles; y por el otro, muestra un algoritmo de cálculo de rutas que funciona con un tiempo de respuesta aceptable, en un entorno exigente, como es el de las aplicaciones de turismo en móviles
Resumo:
TCP flows from applications such as the web or ftp are well supported by a Guaranteed Minimum Throughput Service (GMTS), which provides a minimum network throughput to the flow and, if possible, an extra throughput. We propose a scheme for a GMTS using Admission Control (AC) that is able to provide different minimum throughput to different users and that is suitable for "standard" TCP flows. Moreover, we consider a multidomain scenario where the scheme is used in one of the domains, and we propose some mechanisms for the interconnection with neighbor domains. The whole scheme uses a small set of packet classes in a core-stateless network where each class has a different discarding priority in queues assigned to it. The AC method involves only edge nodes and uses a special probing packet flow (marked as the highest discarding priority class) that is sent continuously from ingress to egress through a path. The available throughput in the path is obtained at the egress using measurements of flow aggregates, and then it is sent back to the ingress. At the ingress each flow is detected using an implicit way and then it is admission controlled. If it is accepted, it receives the GMTS and its packets are marked as the lowest discarding priority classes; otherwise, it receives a best-effort service. The scheme is evaluated through simulation in a simple "bottleneck" topology using different traffic loads consisting of "standard" TCP flows that carry files of varying sizes
Resumo:
Aquest estudi es centra en trobar la ruta que millor satisfaci les necessitats i preferències de l'usuari (personalització). Així, partint d'algorismes de routing existents, caldrà estudiar quin és el millor algorisme per implementar la funció de cost que doni la "bellesa" de la ruta per l'usuari.
Resumo:
La finalitat d'aquest projecte és la realització d'un estudi comparatiu de l'algoritme basat en una colònia artificial d'abelles, Artificial Bee Colony (ABC), comparat amb un conjunt d'algoritmes fonamentats en el paradigma de la computació evolutiva. S'utilitzarà l'eficàcia a l'hora d'optimitzar diverses funcions com a mesura comparativa. Els algoritmes amb els quals es comparara l'algoritme ABC són: algoritmes genètics, evolució diferencial i optimització amb eixam de partícules.
Resumo:
Implementación y evaluación de un algoritmo híbrido que selecciona el conjunto de nodos de menor coste que permite desplegar un servicio, con una disponibilidad determinada, en un entorno de computación voluntaria.
Resumo:
Algoritmo que optimiza y crea pairings para tripulaciones de líneas aéreas mediante la posterior programación en Java.
Resumo:
Uno de los problemas en los que se basa la seguridad de los criptosistemas de clave pública es el problema del logaritmo discreto. Para ello es necesario buscar conjuntos finitos con una estructura de grupo abeliano y determinar su orden. El problema del logaritmo discreto puede ser resuelto en tiempo polinomial usando el algoritmo de Shar para un ordenador cuántico. La mayoria de los criptosistemas actuales se volveran inseguros cuando el tamaño del registro cuántico sea suficiente. Se propone un problema matemático que hipotéticamente es fuerte frente a ordenadores cuánticos. Consiste en la búsqueda de una isogenia entre curvas elípticas sobre un cuerpo finito.
Resumo:
In this paper, we are proposing a methodology to determine the most efficient and least costly way of crew pairing optimization. We are developing a methodology based on algorithm optimization on Eclipse opensource IDE using the Java programming language to solve the crew scheduling problems.
Resumo:
En aquest treball es presenta una aplicació mòbil que, mitjançant l'ús de classificadors prèviament entrenats a un ordinador emprant l'algorisme Random Ferns, és capaç de detectar en temps real, i mitjançant la càmera del dispositiu mòbil, quadres i diferents parts dels quadres detectats. La informació dels elements detectats es presenta per pantalla, identificant el nom i autor de l'obra d'art, i assenyalant quines parts s'han detectat. L'usuari pot polsar sobre una de les parts assenyalades per tal de veure la informació relacionada.
Resumo:
Objetivos La anemia preoperatoria es frecuente en cirugía ortopédica mayor y es un factor predictivo de transfusión y de peor evolución postoperatoria. El objetivo de este estudio es evaluar la utilidad y seguridad del hierro endovenoso como tratamiento de la anemia preoperatoria y ferropenia en cirugía ortopédica mayor, y valorar la respuesta según el hierro utilizado y/o el tipo de anemia de acuerdo con el algoritmo de actuación de nuestro programa de ahorro de sangre. Material y métodos Análisis retrospectivo de una base de datos prospectiva de los pacientes programados para prótesis total de cadera (PTC) y de rodilla (PTR), en los últimos 5 años. Utilizamos la base de datos online PAS (Programa de Ahorro de Sangre) en www.awge.org que incluye: edad, sexo, peso, ASA, metabolismo del hierro, evolución de la hemoglobina (Hb), efectos adversos y transfusión. Resultados Se incluyeron en el PAS 3.488 pacientes de los cuales 612 (17,5%) presentaban anemia preoperatoria y 169 (27,6%) fueron tratados con hierro endovenoso (HE) De los pacientes tratados con HE (169), 35 recibieron hierro sacarosa (HS) y 134 hierro carboximaltosa (HCM). De acuerdo con el algoritmo de tratamiento, 101 lo recibieron por anemia por déficit de hierro (ADH), 26 por ferropenia sin anemia (DH), 21 por anemia de proceso crónico (APC) y 21 en otros tipos de anemia. El incremento de la Hb fue de 1 ± 09 g/dl en el DH, de 1.7± 1 g/dl en ADH y de 2.1 ± 1 g/dl en APC y otras anemias (P<0.001). El grupo del HCM la adherencia al tratamiento fue superior y necesitaron menos visitas (p<0.001). Los efectos adversos fueron leves y similares en ambos grupos. Conclusiones El hierro endovenoso (HS o HCM) es un tratamiento eficaz y seguro de la anemia preoperatoria en cirugia ortopédica mayor, aunque el HCM tiene la ventaja de conseguir el mismo resultado con sólo una administración.
Resumo:
Introducción y objetivos. Se ha señalado que, en la miocardiopatía hipertrófica (MCH), la desorganización de las fibras regionales da lugar a segmentos en los que la deformación es nula o está gravemente reducida, y que estos segmentos tienen una distribución no uniforme en el ventrículo izquierdo (VI). Esto contrasta con lo observado en otros tipos de hipertrofia como en el corazón de atleta o la hipertrofia ventricular izquierda hipertensiva (HVI-HT), en los que puede haber una deformación cardiaca anormal, pero nunca tan reducida como para que se observe ausencia de deformación. Así pues, proponemos el empleo de la distribución de los valores de strain para estudiar la deformación en la MCH. Métodos. Con el empleo de resonancia magnética marcada (tagged), reconstruimos la deformación sistólica del VI de 12 sujetos de control, 10 atletas, 12 pacientes con MCH y 10 pacientes con HVI-HT. La deformación se cuantificó con un algoritmo de registro no rígido y determinando los valores de strain sistólico máximo radial y circunferencial en 16 segmentos del VI. Resultados. Los pacientes con MCH presentaron unos valores medios de strain significativamente inferiores a los de los demás grupos. Sin embargo, aunque la deformación observada en los individuos sanos y en los pacientes con HVI-HT se concentraba alrededor del valor medio, en la MCH coexistían segmentos con contracción normal y segmentos con una deformación nula o significativamente reducida, con lo que se producía una mayor heterogeneidad de los valores de strain. Se observaron también algunos segmentos sin deformación incluso en ausencia de fibrosis o hipertrofia. Conclusiones. La distribución de strain caracteriza los patrones específicos de deformación miocárdica en pacientes con diferentes etiologías de la HVI. Los pacientes con MCH presentaron un valor medio de strain significativamente inferior, así como una mayor heterogeneidad de strain (en comparación con los controles, los atletas y los pacientes con HVI-HT), y tenían regiones sin deformación.
Resumo:
En este proyecto se estudia como generar un resumen de una colección de fotografías seleccionándolas automáticamente.Se construye un sistema capaz de permitir a un usuario subir una colección de imágenes a una plataforma web, que estás sean procesadas y posteriormente darle la opción de generar un resumen automático de su colección personal.Realizar la selección automática de imágenes es una tarea muy compleja debido a todos los factores a tener en cuenta a la hora de escogerlas. Eventos temporales, estética de las imágenes, personajes que deben o no aparecer en la selección son algunos de los factores importantes y que hay que tener muy en cuenta a la hora de realizar la selección automática.En este proyecto veremos cómo se ha construido el sistema, cómo se ha implementado el algoritmo de selección automática y las mejoras que se han llevado a cabo para mejorarlo en precisión y tiempo de ejecución.Para la evaluación del algoritmo implementado se han realizado pruebas con usuarios que nos han permitido detectar algunos de los problemas del algoritmo.Finalmente, se presentan las conclusiones y el trabajo futuro.
Resumo:
En este proyecto se va a realizar una evaluación a Google para encontrar los puntos débiles de la aplicación y proponer soluciones y/o mejoras.Empezaremos introduciendo la historia de Google para tener referencias de cómo y dónde surgió, el algoritmo de PageRank que es el núcleo del motor de búsqueda y el hardware y software que ha desarrollado con su propia tecnología.Previamente se introducirán los requisitos que se necesitarán para entender cómo se van a evaluar los cuestionarios, es decir, se explicará la escalera Likert y las dos aplicaciones desarrolladas para realizar el análisis de las queries obtenidas.A continuación se detallará como se realizará la evaluación y se propondrá un cuestionario para este fin. Una vez enviado el cuestionario, obtendremos los datos necesarios para poder evaluar Google.Al concluir la evaluación, se propondrán 5 mejoras para dar más control al usuario y para poder evaluarlas se creará otro cuestionario. Con los datos que se obtendrán de este, se realizará una evaluación de las mejoras y se analizará si tienen una buena acogidas por parte de los usuarios.Para finalizar el proyecto, se realizarán unas conclusiones globales de todos los datos analizados y de las propuestas de mejora.