1000 resultados para Clasificación de tareas
Resumo:
La determinación no destructiva de la calidad interna de la fruta ha sido un objetivo prioritario en las investigaciones recientes (Abbott, 1999). La espectroscopia en el infrarrojo (NIR) es aplicable a la cuantificación de compuestos químicos en alimentos; por otro lado se ha comprobado que el uso de láseres es interesante para la estimación no destructiva de la firmeza de los frutos. Sin embargo estas técnicas ópticas más tradicionales tienen el inconveniente de que miden la intensidad de luz transmitida sin poder diferenciar el efecto de la absorción óptica del efecto de la dispersión espacial que sufre la luz en el interior de los tejidos, lo cual dificulta la estimación independiente de aspectos físicos y químicos. La espectroscopia con resolución temporal es una técnica óptica desarrollada para el diagnóstico en medicina, que permite diferenciar ambos fenómenos (absorción y dispersión), proporcionando una caracterización óptica completa de los tejidos. El objetivo del presente trabajo ha sido la aplicación de esta técnica a frutas y hortalizas, y el desarrollo de modelos matemáticos de estimación no destructiva de su calidad interna para su uso en procesos de clasificación.
Resumo:
Los melocotones objeto del estudio son amarillo de carne dura tipo pavía. Durante la campaña 1997, se analizaron muestras representativas de un número importante de variedades de melocotón que llegaban a cooperativas en la Región de Murcia y a un hipermercado de Madrid. Las variedades fueron Caterina, BabyGold, Sudanell, Vesubio y Miraflores. El número de frutos, melocotones amarillos de carne dura, fue de 224. Los ensayos que se realizaron fueron: 1-º Ensayo destructivo de estimación de firmeza por penetrometría Magness Taylor, realizado mediante punzón metálico de 8mm de diámetro, a una velocidad de 20 mm por minuto. 2-. Ensayos no destructivos: Impacto, realizado mediante el impactador del Laboratorio de Propiedades Físicas. 2.- Ensayo de deformación mediante el empleo de durómetro tipo Durofel-10. Posee un cilindro metálico que emerge 3 mm de superficie metálica y plana. Dicho cilindro se aplica perpendicularmente a la superficie del fruto; está conectado a un resorte que registra la fuerza correspondiente a la deformación máxima. Medida de reflectancia en el espectro visible desde 400 a 700 nm, mediante el uso del espectrofotómetro Minolta CM-508Í. Se consideraron las reflectancia correspondientes a 450 nm y a 680 nm, por ser las que mejor se correlacionan con la presencia de carotenoides y clorofila respectivamente. Ambos pigmentos están relacionados con el proceso de maduración, en el cual también se reblandecen los frutos.
Resumo:
La calidad de las planchas de corcho, entendida como su aptitud para la fabricación de tapones de corcho natural, determina la clase comercial de las mismas y, por tanto, su valor económico. Esta clasificación, llevada a cabo tradicionalmente en la industria preparadora por el escogedor, depende en gran medida de las anomalías presentes en la plancha. Con el objetivo de conocer qué variables entran en juego en la clasificación y cuál es el peso de cada una de ellas, se han realizado diferentes estudios. García de Ceca (2001) propone modelos de clasificación de piezas de corcho en plancha de 20 cm x 20 cm, elaborados con muestras procedentes de las principales regiones productoras de corcho a nivel global: Portugal, España y Marruecos En el presente estudio se lleva cabo la validación de los modelos propuestos por el citado autor, utilizando ahora piezas procedentes de las principales regiones productoras a nivel nacional (Andalucía, Extremadura y Cataluña), obtenidas en muestreos completamente independientes de los utilizados en la elaboración de los modelos. A la vista de los resultados obtenidos, se proponen medidas para la mejora y actualización de los modelos, atendiendo a criterios tecnológicos, normativos y científicos. Por último, se desarrolla un software para la clasificación de muestras de corcho por gestores y propietarios, al que se añade un breve manual metodológico. Los modelos de García de Ceca (2001) resultan aplicables para las procedencias españolas, obteniendo un 79,66% y un 75,39% de aciertos en la clasificación de piezas, para los modelos 2TC y 2TR respectivamente. Se han incluido modificaciones relativas a la presencia de mancha amarilla, los calibres demasiado delgados para la fabricación de tapones y la superficie ocupada por anomalías, consiguiendo elevar los resultados de acierto al 86,27% y 89,12%. Por último, se ha desarrollado una aplicación en Visual Basic® for Applications sobre Microsoft Excel® que permite la clasificación de corcho por personal no especializado, a partir de la metodología descrita en el manual.
Resumo:
El presente proyecto tiene como objetivo principal el análisis de la viabilidad de estacionamiento de vehículos propulsados por gas natural comprimido (GNC) desde el punto de vista de formación de atmosferas potencialmente explosivas en los garajes subterráneos. Además se ha realizado una breve introducción sobre el GNC explicando el origen, la composición y los diferentes usos que tiene. Se ha realizado la evaluación de riesgos asociados a la utilización de vehículos propulsados por gas natural y estimación de tasas de escape en el circuito de combustible de los vehículos propulsados por GNC. Para ello se ha aplicado la normativa UNE EN 60079-10 traspuesta en España mediante el Real Decreto del 681/2003 sobre la salud y la seguridad de los trabajadores y el Real Decreto 400/1996 sobre aparatos y sistemas de protección para su uso en atmósferas explosivas. Finalmente se han expuesto las medidas de prevención y protección necesarias para prevenir la generación de atmosferas potencialmente explosivas en los garajes subterráneos y se han detallado los procedimientos y las operaciones que han de realizarse. En las conclusiones se han explicado las acciones más importantes que deben emprenderse para mejorar la seguridad de personas e instalaciones en las áreas de riesgo por presencia de atmósferas potencialmente explosivas. ABSTRACT The main objective of this project is to analyze the viability of the parking of vehicles powered by compressed natural gas (CNG) in the underground garages from the point of view of generated of potentially explosive atmospheres in garages. A brief introduction about the CNG explaining the origin, composition and the different uses that it has is also included. An assessment of the risks associated with the use of vehicles powered by natural gas has been provided as well as an estimate of the exhaust rates on the gas circuit of CNG vehicles. In order to do that, the standard UNE EN 60079-10 transposed in Spain by the Royal Decree 681/2003 about the health and safety of workers and the Royal Decree 400/1996 about equipment and protection systems to be used in explosive atmospheres have been applied. Finally, the necessary preventive and protective measures to prevent the generation of potentially explosive atmospheres in underground garages have been presented and the procedures and operations to be performed have been detailed. In the conclusions, the most important actions to be taken in order to improve the safety of people and facilities in the areas at risk of having potentially explosive atmospheres have been described.
Resumo:
El documento es una aplicación informática, programada en Visual Basic® para Microsoft Excel®, y contiene un programa denominado CorkClass 1.0. Es un software de clasificación de corcho en plancha por calidades a partir de su calibre – grosor – y de las anomalías o singularidades apreciables en su sección transversal. CorkClass 1.0 trabaja con dos clases de calidad: corcho taponable y refugo. A partir de la valoración de las variables obtenida por el usuario, la aplicación decide a qué clase pertenece la pieza. Esta clasificación se realiza en base a dos modelos. Cuando disponemos de medida del coeficiente de porosidad (mediante métodos de análisis de imagen), podemos clasificar en base al modelo completo (2TC) o al reducido (2TR), aunque los resultados generales se mostrarán tomando la clasificación del modelo completo para cada pieza. En caso de no disponer de medida del coeficiente de porosidad, la clasificación se realizará únicamente en base al modelo reducido (2TR), cuya clasificación para cada pieza será tomada para el cálculo de los resultados generales . El programa ha sido desarrollado por la UPM y el INIA-CIFOR y validado para muestras procedentes tanto de las distintas regiones de España como del resto de regiones de procedencia del alcornoque (Quercus suber L.), por lo que su ámbito de aplicación es universal.
Resumo:
Este proyecto presenta un software para el análisis de imágenes dermatoscópicas correspondiente a lesiones melanocíticas, con el fin de clasificarlas entre lesiones benignas y melanoma. El sistema realiza una segmentación automática de la lesión y la procesa en varas etapas, extrayendo características de relevancia diagnóstica: asimetría, colores, irregularidad del borde, y la presencia de estructuras como redes pigmentadas atípicas o velo azul-blanquecino. Proporciona además una herramienta para el etiquetado manual de estructuras adicionales. La clasificación automática de las lesiones se realiza en base a los métodos de diagnóstico más comúnmente utilizados: las reglas ABCD, Menzies, 7-point checklist, CASH y CHAOS & CLUES. El sistema de clasificación se evalúa sobre una base de datos de imágenes dermatoscópicas, y se realiza una comparativa de los resultados obtenidos por cada método de diagnóstico. ABSTRACT. This project presents a software for the analysis of dermoscopic images of melanocytic lesions, and their classification into benign lesions and melanoma. The system performs automatic segmentation of the lesion and goes through several stages of extraction of certain characteristics relevant to the diagnosis, such as asymmetry, border irregularity, or presence of structures like atypical pigmented network or blue-whitish veil. Automatic classification of the lesions is accomplished by means of the most commonly used diagnostic methods, such as ABCD and Menzies's rules, the 7-point checklist, CASH, and CHAOS & CLUES. The classification system is evaluated by using a dermoscopic image database, and a comparison of the results yielded by the different diagnostic methods is performed.
Resumo:
La nanotecnología es un área de investigación de reciente creación que trata con la manipulación y el control de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. A escala nanométrica, los materiales exhiben fenómenos físicos, químicos y biológicos singulares, muy distintos a los que manifiestan a escala convencional. En medicina, los compuestos miniaturizados a nanoescala y los materiales nanoestructurados ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, así como una mejora en la focalización del medicamento hacia la diana terapéutica, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales (desde el nivel de población hasta el nivel de célula) y, por tanto, cualquier flujo de trabajo en nanomedicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Desafortunadamente, la informática biomédica todavía no ha proporcionado el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, ni ha adaptado sus métodos y herramientas a este nuevo campo de investigación. En este contexto, la nueva área de la nanoinformática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Las observaciones expuestas previamente determinan el contexto de esta tesis doctoral, la cual se centra en analizar el dominio de la nanomedicina en profundidad, así como en el desarrollo de estrategias y herramientas para establecer correspondencias entre las distintas disciplinas, fuentes de datos, recursos computacionales y técnicas orientadas a la extracción de información y la minería de textos, con el objetivo final de hacer uso de los datos nanomédicos disponibles. El autor analiza, a través de casos reales, alguna de las tareas de investigación en nanomedicina que requieren o que pueden beneficiarse del uso de métodos y herramientas nanoinformáticas, ilustrando de esta forma los inconvenientes y limitaciones actuales de los enfoques de informática biomédica a la hora de tratar con datos pertenecientes al dominio nanomédico. Se discuten tres escenarios diferentes como ejemplos de actividades que los investigadores realizan mientras llevan a cabo su investigación, comparando los contextos biomédico y nanomédico: i) búsqueda en la Web de fuentes de datos y recursos computacionales que den soporte a su investigación; ii) búsqueda en la literatura científica de resultados experimentales y publicaciones relacionadas con su investigación; iii) búsqueda en registros de ensayos clínicos de resultados clínicos relacionados con su investigación. El desarrollo de estas actividades requiere el uso de herramientas y servicios informáticos, como exploradores Web, bases de datos de referencias bibliográficas indexando la literatura biomédica y registros online de ensayos clínicos, respectivamente. Para cada escenario, este documento proporciona un análisis detallado de los posibles obstáculos que pueden dificultar el desarrollo y el resultado de las diferentes tareas de investigación en cada uno de los dos campos citados (biomedicina y nanomedicina), poniendo especial énfasis en los retos existentes en la investigación nanomédica, campo en el que se han detectado las mayores dificultades. El autor ilustra cómo la aplicación de metodologías provenientes de la informática biomédica a estos escenarios resulta efectiva en el dominio biomédico, mientras que dichas metodologías presentan serias limitaciones cuando son aplicadas al contexto nanomédico. Para abordar dichas limitaciones, el autor propone un enfoque nanoinformático, original, diseñado específicamente para tratar con las características especiales que la información presenta a nivel nano. El enfoque consiste en un análisis en profundidad de la literatura científica y de los registros de ensayos clínicos disponibles para extraer información relevante sobre experimentos y resultados en nanomedicina —patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.—, seguido del desarrollo de mecanismos para estructurar y analizar dicha información automáticamente. Este análisis concluye con la generación de un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento y de test anotados manualmente—, el cual ha sido aplicado a la clasificación de registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nanodrogas y nanodispositivos de aquellos enfocados a testear productos farmacéuticos tradicionales. El presente trabajo pretende proporcionar los métodos necesarios para organizar, depurar, filtrar y validar parte de los datos nanomédicos existentes en la actualidad a una escala adecuada para la toma de decisiones. Análisis similares para otras tareas de investigación en nanomedicina ayudarían a detectar qué recursos nanoinformáticos se requieren para cumplir los objetivos actuales en el área, así como a generar conjunto de datos de referencia, estructurados y densos en información, a partir de literatura y otros fuentes no estructuradas para poder aplicar nuevos algoritmos e inferir nueva información de valor para la investigación en nanomedicina. ABSTRACT Nanotechnology is a research area of recent development that deals with the manipulation and control of matter with dimensions ranging from 1 to 100 nanometers. At the nanoscale, materials exhibit singular physical, chemical and biological phenomena, very different from those manifested at the conventional scale. In medicine, nanosized compounds and nanostructured materials offer improved drug targeting and efficacy with respect to traditional formulations, and reveal novel diagnostic and therapeutic properties. Nevertheless, the complexity of information at the nano level is much higher than the complexity at the conventional biological levels (from populations to the cell). Thus, any nanomedical research workflow inherently demands advanced information management. Unfortunately, Biomedical Informatics (BMI) has not yet provided the necessary framework to deal with such information challenges, nor adapted its methods and tools to the new research field. In this context, the novel area of nanoinformatics aims to build new bridges between medicine, nanotechnology and informatics, allowing the application of computational methods to solve informational issues at the wide intersection between biomedicine and nanotechnology. The above observations determine the context of this doctoral dissertation, which is focused on analyzing the nanomedical domain in-depth, and developing nanoinformatics strategies and tools to map across disciplines, data sources, computational resources, and information extraction and text mining techniques, for leveraging available nanomedical data. The author analyzes, through real-life case studies, some research tasks in nanomedicine that would require or could benefit from the use of nanoinformatics methods and tools, illustrating present drawbacks and limitations of BMI approaches to deal with data belonging to the nanomedical domain. Three different scenarios, comparing both the biomedical and nanomedical contexts, are discussed as examples of activities that researchers would perform while conducting their research: i) searching over the Web for data sources and computational resources supporting their research; ii) searching the literature for experimental results and publications related to their research, and iii) searching clinical trial registries for clinical results related to their research. The development of these activities will depend on the use of informatics tools and services, such as web browsers, databases of citations and abstracts indexing the biomedical literature, and web-based clinical trial registries, respectively. For each scenario, this document provides a detailed analysis of the potential information barriers that could hamper the successful development of the different research tasks in both fields (biomedicine and nanomedicine), emphasizing the existing challenges for nanomedical research —where the major barriers have been found. The author illustrates how the application of BMI methodologies to these scenarios can be proven successful in the biomedical domain, whilst these methodologies present severe limitations when applied to the nanomedical context. To address such limitations, the author proposes an original nanoinformatics approach specifically designed to deal with the special characteristics of information at the nano level. This approach consists of an in-depth analysis of the scientific literature and available clinical trial registries to extract relevant information about experiments and results in nanomedicine —textual patterns, common vocabulary, experiment descriptors, characterization parameters, etc.—, followed by the development of mechanisms to automatically structure and analyze this information. This analysis resulted in the generation of a gold standard —a manually annotated training or reference set—, which was applied to the automatic classification of clinical trial summaries, distinguishing studies focused on nanodrugs and nanodevices from those aimed at testing traditional pharmaceuticals. The present work aims to provide the necessary methods for organizing, curating and validating existing nanomedical data on a scale suitable for decision-making. Similar analysis for different nanomedical research tasks would help to detect which nanoinformatics resources are required to meet current goals in the field, as well as to generate densely populated and machine-interpretable reference datasets from the literature and other unstructured sources for further testing novel algorithms and inferring new valuable information for nanomedicine.
Resumo:
El documento es una aplicación informática, programada en Visual Basic® para Microsoft Excel®, y contiene un programa denominado CorkClass 1.1. Es un software de clasificación de corcho en plancha por calidades a partir de su calibre – grosor – y de las anomalías o singularidades apreciables en su sección transversal. CorkClass 1.1 trabaja con dos clases de calidad: corcho taponable y refugo. A partir de la valoración de las variables obtenida por el usuario, la aplicación decide a qué clase pertenece la pieza. Esta clasificación se realiza en base a dos modelos. Cuando disponemos de medida del coeficiente de porosidad (mediante métodos de análisis de imagen), podemos clasificar en base al modelo completo (2TC) o al reducido (2TR), aunque los resultados generales se mostrarán tomando la clasificación del modelo completo para cada pieza. En caso de no disponer de medida del coeficiente de porosidad, la clasificación se realizará únicamente en base al modelo reducido (2TR), cuya clasificación para cada pieza será tomada para el cálculo de los resultados generales . El programa ha sido desarrollado por la UPM y el INIA-CIFOR y validado para muestras procedentes tanto de las distintas regiones de España como del resto de regiones de procedencia del alcornoque (Quercus suber L.), por lo que su ámbito de aplicación es universal.
Resumo:
El Malware es una grave amenaza para la seguridad de los sistemas. Con el uso generalizado de la World Wide Web, ha habido un enorme aumento en los ataques de virus, haciendo que la seguridad informática sea esencial para todas las computadoras y se expandan las áreas de investigación sobre los nuevos incidentes que se generan, siendo una de éstas la clasificación del malware. Los “desarrolladores de malware” utilizan nuevas técnicas para generar malware polimórfico reutilizando los malware existentes, por lo cual es necesario agruparlos en familias para estudiar sus características y poder detectar nuevas variantes de los mismos. Este trabajo, además de presentar un detallado estado de la cuestión de la clasificación del malware de ficheros ejecutables PE, presenta un enfoque en el que se mejora el índice de la clasificación de la base de datos de Malware MALICIA utilizando las características estáticas de ficheros ejecutables Imphash y Pehash, utilizando dichas características se realiza un clustering con el algoritmo clustering agresivo el cual se cambia con la clasificación actual mediante el algoritmo de majority voting y la característica icon_label, obteniendo un Precision de 99,15% y un Recall de 99,32% mejorando la clasificación de MALICIA con un F-measure de 99,23%.---ABSTRACT---Malware is a serious threat to the security of systems. With the widespread use of the World Wide Web, there has been a huge increase in virus attacks, making the computer security essential for all computers. Near areas of research have append in this area including classifying malware into families, Malware developers use polymorphism to generate new variants of existing malware. Thus it is crucial to group variants of the same family, to study their characteristics and to detect new variants. This work, in addition to presenting a detailed analysis of the problem of classifying malware PE executable files, presents an approach in which the classification in the Malware database MALICIA is improved by using static characteristics of executable files, namely Imphash and Pehash. Both features are evaluated through clustering real malware with family labels with aggressive clustering algorithm and combining this with the current classification by Majority voting algorithm, obtaining a Precision of 99.15% and a Recall of 99.32%, improving the classification of MALICIA with an F-measure of 99,23%.
Resumo:
Partimos de una colección de neuronas digitalizadas que descargaremos de la mayor base de datos libre y accesible vía web que existe actualmente llamada NeuroMorpho (Ascoli et al. (2007)) y ubicada en http://neuromorpho.org. A partir de los atributos que extraeremos de las células con el software L-Measure clasificaremos las distintas neuronas por especies, género, tipo de célula, región del cerebro y edad utilizando los algoritmos de aprendizaje automático disponibles en el software Weka. Por último estudiaremos los resultados obtenidos. En el capítulo de resultados obtenidos se describen los datos presentados por los distintos investigadores que han realizado los estudios manualmente, tratando las neuronas una a una y los compararemos con los que hemos obtenido computacionalmente. Veremos las diferencias y similitudes, y podremos verificar la robustez de nuestros resultados. Gracias a la capacidad actual de los ordenadores y a los avances en inteligencia artificial descubriremos atributos para diferenciar clases que no se conocían por las limitaciones humanas, además de poder ratificar aquellos que ya se utilizan.
Resumo:
La relación entre recursos intangibles y sistemas de innova- ción es un tema de discusión actual, dada su importancia en la generación de conocimientos que contribuyen al desarrollo de las naciones. La finalidad de este estudio, que se puede caracterizar como una investigación de tipo exploratoria y descriptiva, fue jerarquizar los recursos intangibles presentes en las instituciones de educación superior (IES) basándose en la teoría de los recursos y capacidades, y en investigaciones sobre innovación con base en los recursos. Para el logro del objetivo propuesto, se partió de la revisión de los últimos avances de la temática estudiada, analizando y contrastando los distintos enfoques teóricos y aplicando minería de datos. La presentación de resultados se realiza según un razonamiento que implica el contraste de los hallazgos empíricos con los referentes teóricos. Los resultados obtenidos muestran que las variables presentan el siguiente orden de jerarquía: primero, la reputación institucional; segundo, la formación y desarrollo del recurso humano; y por último, la capacidad de innovación.
Resumo:
La tesis doctoral "Contribución al estudio y clasificación de las funciones de implicación borrosas" constituye a la vez una revisión y un conjunto de aportaciones a la modelización de enunciados condicionales, o enunciados del tipo "Si P, entonces Q". Dentro del marco de la lógica borrosa, tradicionalmente, se considera que la mayor parte de las funciones de implicación, que modelizan los enunciados condicionales, deberían generalizar la implicación material booleana. En esta memoria se apoya el argumento de que la implicación material booleana no es siempre el modelo más adecuado para la modelización de los enunciados condicionales, por lo que se definen y estudian clases o grupos de funciones de implicación que se adecúen a las necesidades de cada caso de aplicación. Así pues, tras un capítulo introductorio, en el capítulo 2 se plantean clases de funciones de implicación que sirvan de apoyo en la definición de aplicaciones de carácter borroso más allá de las funciones de implicación borrosas derivadas de la implicación material booleana. Así se llega a la conclusión de que son necesarios, por lo menos, cuatro clases de funciones de implicación de las que se estudian sus propiedades. En el tercer capítulo se aborda el estudio de la verificación tanto de la regla del Modus Ponens como de la regla del Modus Tollens por parte de las funciones de implicación pertenecientes a cada una de las clases planteadas. Por último, en el capítulo 4 se presenta un estudio de los operadores citados como implicaciones borrosas en la literatura bajo el enfoque presentado en esta memoria, ampliándose estudios realizados por otros autores. ---ABSTRACT--- The Ph.D. Thesis "Contribution al estudio y clasificacion de las funciones de implication borrosas" is a revision and a set of contributions to the conditional statements or statements of the type "If P then Q" modelization. It has been usually considered in Fuzzy Logic, that implication functions that model conditional statements should generalize the boolean material implication. The present memory supports the argument that boolean material implication is not always the most appropiated model for conditional statements, so implication function groups or clusters are denned in order to fit in each application. Therefore, after an introductory chapter, in chapter 2 groups or clusters of implication functions are given in order to bear out fuzzy applications definitions further on from implication functions coming from boolean material implication. Then, it has been reached the conclusion that, at least, four types of implication functions are needed so their properties are studied.
Resumo:
En la actualidad, muchas son las iniciativas propuestas para mejorar la seguridad en el sector del transporte mediante el uso de Tecnologías de la Información. De manera particular, gracias al empleo de técnicas robustas basadas en Visión Artificial, es posible analizar de manera automática cualquier área de una infraestructura de transporte bajo videovigilancia que por su configuración requiera de mayor atención en las tareas de supervisión de los operadores en centros de control. Con esta motivación, dentro del proyecto HNPS (Redes Heterogéneas para la Seguridad Pública Europea) se ha desarrollado un sistema de vídeo analítico que permite identificar de manera individual cada persona que aparece en escena, registrar su trayectoria, así como llevar a cabo una clasificación de la misma en función de si porta o no determinados tipos de objetos. Además, para poder asociar un significado global al conjunto de eventos observados y definir la actividad llevada a cabo, se ha introducido una etapa más de procesamiento para detectar automáticamente eventos dinámicos en secuencias de vídeo, permitiendo al sistema comprender lo que está ocurriendo en la escena y lanzar una alarma si se detecta un comportamiento anómalo (acumulación de personas, riesgos de atraco o abandonos de objetos en zonas vulnerables). Igualmente interesante resulta la obtención de resultados en tiempo real, procesando directamente el flujo de vídeo de la cámara IP que da cobertura al área bajo videovigilancia. Además de la arquitectura del sistema y la funcionalidad completa ofrecida por el sistema, se demostrará la efectividad del mismo en la detección de los diferentes comportamientos definidos. Un entorno ideal para la experimentación de estos sistemas son los intercambiadores de Transporte que el Consorcio Regional de Transportes de Madrid ha puesto en servicio en estos últimos años. Así, respetando en todo momento la privacidad de los actores que son captados por las cámaras, resultados experimentales del sistema desarrollado sobre secuencias simuladas en el Intercambiador de Moncloa, demuestran la eficacia del sistema propuesto, permitiendo que la movilidad de los usuarios sea cada día más segura.
Resumo:
Formula Racing Team Manager (FRTM) se trata de un juego de un solo jugador, para Android, donde el jugador tendrá como objetivo principal ascender desde la quinta división inicial hasta la primera y lograr allí ganar la clasificación por equipos ante 19 equipos manejados por el sistema. Por el camino tendrá que gestionar una gran cantidad de tareas distintas en el juego, desde la gestión del equipo en sí a la gestión estratégica de las carreras. Para conseguir el objetivo será básico lograr una buena gestión económica, la fuente principal de ganancias son los patrocinadores, pudiendo contar con un total de cuatro simultáneamente. El dinero conseguido se utilizará en mejorar el equipo (empleados, coche y pilotos) lo máximo posible para conseguir mejores resultados en carrera. Hay una gran cantidad de circuitos disponibles, todos reales, combinando circuitos históricos del calendario de Fórmula 1 con actuales y con circuitos otros populares en otras categorías (a destacar la inclusión de carreras de resistencia como las 500 millas de Indianápolis o las 24 horas de Le Mans). Será importante entender bien los parámetros de cada circuito para lograr un buen resultado en todos ellos. La temporada se divide en 20 grandes premios, formado cada uno por tres sesiones (entrenamientos, clasificación y carrera). En los entrenamientos el jugador podrá, durante dos horas, dar todas las vueltas que cree oportuno hasta que su tiempo se agote, para encontrar así la mejor configuración posible para el coche, y obtener los datos de consumos y desgastes que encuentre necesarios para emplearlos en carrera. En la sesión de clasificación (separada en tres rondas), se decidirán las posiciones de salida en carrera Antes de la carrera el jugador deberá decidir qué estrategia utilizar en ella, escogiendo la configuración del coche, los compuestos de neumáticos y las cargas de combustible a utilizar en cada parada. Durante la carrera también podrá cambiar ciertos parámetros en caso de que la situación de carrera no se adapte a sus expectativas, teniendo así un control total de lo sucedido en carrera, como si de un director deportivo de un equipo real de Fórmula 1 se tratase. Durante la carrera, se irán simulando las vueltas cuando el jugador así lo desee y lo indique mediante un reproductor disponible. Posteriormente, al terminar la carrera volverá a predominar la gestión económica del equipo por parte del jugador, teniendo que controlar los desgastes de cada una de las diez piezas distintas del coche para evitar roturas, y volviendo a poder entrenar a pilotos y empleados. El juego está disponible tanto en español como en inglés. ABSTRACT. Formula Racing Team Manager (FRTM) is a single player game, for Android, where the player has the main objective of promoting from the initial fifth division to the first one, and winning there the championship against 19 teams managed by the system. On the way, the player will have to manage a different number of tasks in the game, from the team management to the race strategic management. To complete that objective a basic key is to achieve a good economic management, the main source of incomes are the sponsors; being able to have a total of four at the same time. The money received will have to be spent on improving the team (staff, car and drivers) the best as possible to try to achieve even better race results. There are a lot of available circuits throughout the game, all of them real, combining some historical from Formula 1 calendar with actual ones, and also with some popular circuits from other categories (to highlight the inclusion of endurance races like the 500miles from Indianapolis and the 24 hours of Le Mans). It will be basic to fully understand the parameters from each circuit to achieve a good result in all of them. The season is divided in 20 Grand Prix, every one of them composed by three sessions (free practice, qualifying and race). In the Free Practice session the player will get the chance to driver all the laps he can in two hours, to try to get the best possible setup for the car and to obtain data from tyres wear and fuel consumption. On the qualifying session (composed by three rounds), the starting grid for the race will be decided. Before the race, the player will have to choose the strategy to use, deciding the car setup, the tyres compound and the fuel inputs for every pit stop to do. Also, throughout the race, the player will get the chance to change some parameters of that strategy in case of the race not going as expected. On the race, every lap will be simulated when the player decides. And, after the race is finished, the player will have to work again on the economy and team management, controlling the wear of every car part to avoid malfunctions, and being able to train drivers and staff. The game is available in both spanish and english.
Resumo:
Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.