1000 resultados para Minería de datos (Informática)
Resumo:
Aplicació web que pretén donar solució a les necessitats de caràcter organitzatiu d'un despatx tècnic d'una empresa. L'objectiu principal és el de crear una eina capaç d'automatitzar el seguiment de les incidències obertes en el despatx. L'ús d'aquesta eina va dirigida a tres perfils d'usuari: Amb aquesta aplicació, l'administrador podrà efectuar tasques de manteniment de dades, donar d'alta usuaris, punts de venda o empreses externes i també podrà fer el seguiment d'incidències obertes i saber quantes se'n gestiona en cada moment. Els gestors donaran solució a les incidències utilitzant l'eina i sabran en tot moment quantes sol·licituds tenen pendents, quantes incidències hi ha registrades i en quin estat es troben. Els usuaris amb permís de sol·licitud bàsicament el que podran fer és avisar de la incidència que volen solucionar.
Resumo:
Aquest document complementa les subtasques 2.4.2, 2.4.3 i 2.4.4 relacionades amb els Informes dels estudis de viabilitat constructiva, els resultats de la intervenció i la validació de la intervenció, proporcionant el nexe lògic entre la caracterització de les tècniques no-destructives i semidestructives realitzat en els documents I2.17 i I.2.18 i les millores de processos que s'aborden d'una forma més sistemàtica en el *SP4, en relació amb el desenvolupament i aplicació de models d'optimització multicriteri. Per a arribar a aquest objectiu i resoldre els problemes de interoperabilitat lligats a diferents bases de dades, ha estat necessari estendre l'Ontologia orientada inicialment en el SP6 per a usuaris amb algun tipus de discapacitat, a usuaris corresponents als tècnics que vagin a desenvolupar les intervencions d'acord amb les tècniques disponibles. Aquesta extensió inclou el diagrama entitat-relació que estén al cas dels tècnics l'esquema conceptual inicialment restringit als usuaris finals (ciutadans eventualment discapacitats). La major dificultat procedeix del caràcter excepcional de moltes de les intervencions realitzades, la qual cosa fa realment difícil l'estandardització dels processos orientats a resoldre el problema de l'accessibilitat al Patrimoni
Resumo:
En aquest projecte s’han unificat les dades de l’empresa Solmania i s’han generat estadístiques i informes a diferents formats mitjançant una aplicació RIA implementada amb Adobe Flex. D’aquesta manera es pot fer un control dels paràmetres clau del negoci per ajudar a la companyia a aconseguir els objectius marcats d’una manera eficient. L’aplicatiu permet analitzar des de diversos punts de vista qualsevol tipus d’informació que genera el negoci i fer-ne comparatives de rendiment.
Resumo:
Con la mayor capacidad de los nodos de procesamiento en relación a la potencia de cómputo, cada vez más aplicaciones intensivas de datos como las aplicaciones de la bioinformática, se llevarán a ejecutar en clusters no dedicados. Los clusters no dedicados se caracterizan por su capacidad de combinar la ejecución de aplicaciones de usuarios locales con aplicaciones, científicas o comerciales, ejecutadas en paralelo. Saber qué efecto las aplicaciones con acceso intensivo a dados producen respecto a la mezcla de otro tipo (batch, interativa, SRT, etc) en los entornos no-dedicados permite el desarrollo de políticas de planificación más eficientes. Algunas de las aplicaciones intensivas de E/S se basan en el paradigma MapReduce donde los entornos que las utilizan, como Hadoop, se ocupan de la localidad de los datos, balanceo de carga de forma automática y trabajan con sistemas de archivos distribuidos. El rendimiento de Hadoop se puede mejorar sin aumentar los costos de hardware, al sintonizar varios parámetros de configuración claves para las especificaciones del cluster, para el tamaño de los datos de entrada y para el procesamiento complejo. La sincronización de estos parámetros de sincronización puede ser demasiado compleja para el usuario y/o administrador pero procura garantizar prestaciones más adecuadas. Este trabajo propone la evaluación del impacto de las aplicaciones intensivas de E/S en la planificación de trabajos en clusters no-dedicados bajo los paradigmas MPI y Mapreduce.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
Computer chips implementation technologies evolving to obtain more performance are increasing the probability of transient faults. As this probability grows and on-chip solutions are expensive or tend to degrade processor performance, the efforts to deal with these transient faults in higher levels (such as the operating system or even at the application level) are increasing. Mostly, these efforts are trying to avoid silent data corruptions using hardware, software and hybrid based techniques to add redundancy to detect the errors generated by the transient faults. This work presents our proposal to improve the robustness of applications with source code based transformation adding redundancy. Also, our proposal takes account of the tradeoff between the improved robustness and the overhead generated by the added redundancy.
Resumo:
La E/S Paralela es un área de investigación que tiene una creciente importancia en el cómputo de Altas Prestaciones. Si bien durante años ha sido el cuello de botella de los computadores paralelos en la actualidad, debido al gran aumento del poder de cómputo, el problema de la E/S se ha incrementado y la comunidad del Cómputo de Altas Prestaciones considera que se debe trabajar en mejorar el sistema de E/S de los computadores paralelos, para lograr cubrir las exigencias de las aplicaciones científicas que usan HPC. La Configuración de la Entrada/Salida (E/S) Paralela tiene una gran influencia en las prestaciones y disponibilidad, por ello es importante “Analizar configuraciones de E/S paralela para identificar los factores claves que influyen en las prestaciones y disponibilidad de la E/S de Aplicaciones Científicas que se ejecutan en un clúster”. Para realizar el análisis de las configuraciones de E/S se propone una metodología que permite identificar los factores de E/S y evaluar su influencia para diferentes configuraciones de E/S formada por tres fases: Caracterización, Configuración y Evaluación. La metodología permite analizar el computador paralelo a nivel de Aplicación Científica, librerías de E/S y de arquitectura de E/S, pero desde el punto de vista de la E/S. Los experimentos realizados para diferentes configuraciones de E/S y los resultados obtenidos indican la complejidad del análisis de los factores de E/S y los diferentes grados de influencia en las prestaciones del sistema de E/S. Finalmente se explican los trabajos futuros, el diseño de un modelo que de soporte al proceso de Configuración del sistema de E/S paralela para aplicaciones científicas. Por otro lado, para identificar y evaluar los factores de E/S asociados con la disponibilidad a nivel de datos, se pretende utilizar la Arquitectura Tolerante a Fallos RADIC.
Resumo:
Este trabajo desarrolla el proceso de diseño e implementación de una interfaz web que permite la exploración en detalle de las relaciones entre genomas completos. La interfaz permite la comparación simultánea de nueve genomas, representando en cada gráfica las relaciones entre cada par de genomas junto los genes identificados de cada uno de ellos. Es capaz de trabajar con genomas del dominio Eukaryota y se adapta a la capacidad de cómputo de la máquina cliente. La información representada son MUMs (Maximal Unique Matching, secuencia máxima y única encontrada en ambos genomas) y SuperMUMs (agrupación de MUMs mediante Approximate String Matching). Los datos son previamente calculados y accesibles desde un servidor web.
Resumo:
El projecte consisteix en la captura de dades per mitjà del sistema GPS, mitjançant aquestes dades hem d'endevinar en quin vehicle ens desplacem per a portar el càlcul del consum del CO2 dels nostres desplaçaments. El programa ha estat desenvolupat per ser funcional a sobre de dispositius mòbils que tinguin targeta de memòria externa i Java J2ME, inclou interfície gràfica.
Resumo:
Con la creciente generación de resonancias magnéticas, los servicios de radiología necesitan aplicaciones que les faciliten el trabajo de acceso remoto a los datos y a las herramientas que utilicen para la extracción de datos para realizar sus diagnósticos. El objetivo de este proyecto es el de estudiar e integrar en la plataforma web del grupo de Imagen Médica del PIC llamada PICNIC (PIC NeuroImaging Center) un conjunto de aplicaciones para el estudio y procesamiento de neuroimagen con la implementación de herramientas software en la plataforma grid del PIC.
Resumo:
Aquest projecte mostra com les connexions dels usuaris d'una xarxa social suposen un risc afegit per a la privacitat dels usuaris que hi formen part. Aquestes connexions ofereixen informació suficient per a poder dur a terme processos d'agregació d'informació entre diferents xarxes socials, permetent a un atacant millorar el seu coneixement inicial sobre les xarxes. El projecte és un recorregut per totes les fases necessàries per dur a terme aquest procés, des de la recollida de la informació fins a l'agregació de les dades obtingudes.
Resumo:
L’èxit del Projecte Genoma Humà (PGH) l’any 2000 va fer de la “medicina personalitzada” una realitat més propera. Els descobriments del PGH han simplificat les tècniques de seqüenciació de tal manera que actualment qualsevol persona pot aconseguir la seva seqüència d’ADN complerta. La tecnologia de Read Mapping destaca en aquest tipus de tècniques i es caracteritza per manegar una gran quantitat de dades. Hadoop, el framework d’Apache per aplicacions intensives de dades sota el paradigma Map Reduce, resulta un aliat perfecte per aquest tipus de tecnologia i ha sigut l’opció escollida per a realitzar aquest projecte. Durant tot el treball es realitza l’estudi, l’anàlisi i les experimentacions necessàries per aconseguir un Algorisme Genètic innovador que utilitzi tot el potencial de Hadoop.
Resumo:
Degut a l'expansió de la nostra societat cada dia hi ha més fonts de dades públiques (mèdiques, financeres,...) per a realitzar-hi estudis estadístics. Aquestes fonts de dades són perilloses per a la informació confidencial de les persones o institucions ja que són accessibles per a tothom, per tant necessiten ser protegides abans de ser publicades. En aquest projecte es presenten els diferents mètodes de protecció corresponents a dades categòriques així com un anàlisi de cadascun per a determinar-ne la pèrdua d'informació i el risc de revelació. Finalment també s'ha desenvolupat un mètode per optimitzar els resultats obtinguts pel mètode PRAM.
Resumo:
Actualment és difícil no veure a gent de totes les edats amb algun tipus de Gadget electrònic. En forma de telèfons mòvils, GPS, agendes electròniques, reproductors de música, tablets o qualsevol altre dispositiu, el món digital ens aborda, la informació i les dades es digitalitzen i arriben fins a les nostres butxaques per ser accessibles en qualsevol moment. Es fa indispensable familiaritzar-se amb aquestes eines i per això s’introdueixen en els centres educatius de tot el món. En aquest projecte es combinen tots aquests fets per desenvolupar un herbari digital sobre un dispositiu mòbil, amb finalitat educativa i ús privat.
Resumo:
El Port d'Informació Científica és un centre de Computació Grid de referència que dona suport a comunitats científiques, com el LHC (CERN). Al PIC, trobem una gran varietat de tecnologies que proporcionen serveis al centre. Des de l'arquitectura i elements de la xarxa, fins a recursos informàtics de computació, sistemes d'emmagatzematge a disc i cinta magnètica, bases de dades (ORACLE/PostgreSQL). El projecte consisteix en el disseny i implementació d'una base de dades col·lectora de tota la informació rellevant dels diferents sistemes del centre, i un portal web on mostrar tots els valors i gràfiques, tot basat en programari lliure.