1000 resultados para Extracción de contextos definitorios
Resumo:
En la actualidad, las personas infectadas por el VIH con acceso a tratamiento retrasan indefinidamente su entrada en la fase SIDA de la enfermedad, convirtiéndose en pacientes crónicos. Un mayor conocimiento del comportamiento del virus y de cómo afecta a las personas infectadas podría conducirnos a optimizar el tratamiento y con ello mejorar la calidad de vida de los pacientes. En este contexto aparece la minería de datos, un conjunto de metodologías que, aplicadas a grandes bases de datos, nos permiten obtener información novedosa y potencialmente útil oculta en ellas. Este trabajo de investigación realiza una primera aproximación al problema mediante la búsqueda de asociaciones en una base de datos en la que se registran las historias clínicas electrónicas de personas infectadas que son tratadas en el Hospital Clínic de Barcelona.
Resumo:
Se propone una nueva implementación matricial de un algoritmo para la extracción automática de la línea central de estructuras tubulares. El algoritmo seleccionado calcula la línea central de estructuras complejas sin la necesidad de interacción con el usuario. En el trabajo se explica detalladamente cómo llevar a cabo la implementación matricial utilizando el lenguaje de computación de Matlab. La implementación matricial permite el cálculo de la línea central en pocos segundos, mejorando en varios grados de magnitud la implementación disponible en ITK.
Resumo:
En este Proyecto Fin de Carrera trata de dar a conocer de forma detallada el comportamiento real en frecuencia de una red de distribución SMATV y establecer un procedimiento que pueda permitir una predicción más o menos precisa de su funcionamiento. Se realizará una reflexión sobre los procedimientos de cálculo que se emplean en entornos profesionales para el diseño de estas redes y sus carencias. En concreto nos centraremos en el uso de conectores y kits de conexión que se utilizan frecuentemente en redes SMATV. A la hora de realizar un proyecto de una red de este tipo solo se tienen en cuenta las perdidas por inserción de los conectores, y en muchas ocasiones ni siquiera eso, se realiza una estimación al alza y con eso basta. Este proyecto pretende demostrar la relevancia de los conectores dentro de una red, y tratar de arrojar luz sobre los aspectos más importantes a tener en cuenta a la hora de elegir e instalar un conector. Abstract In this Thesis is to present in detail the actual behavior frequency SMATV distribution network and establish a procedure to allow more or less accurate prediction of its operation. There will be a reflection on the calculation procedures used in professional environments for the design of these networks and their shortcomings. In particular we will focus on the use of connectors and connection kits that are frequently used in SMATV networks. When a project of this type network only takes into account the insertion loss of the connectors, and often not even that, an estimate is made up and that's enough. This project aims to demonstrate the relevance of the connectors within a network, and try to shed light on the most important aspects to consider when choosing and installing a connector.
Resumo:
La ventilacion de tuneles urbanos presenta algunos problemas singulares especialmente en lo relativo a la evacuacion de humos provocados por un incendio. Generalmente la solucion adoptada es semi-transversal con trampillas de extraccion. Sin embargo en ciertas circunstancias puede ser preciso combinar estas con un sistema longitudinal basado en aceleradores. En este articulo se presenta la primera realizacion de este tipo proyectada en Espana y se describe el sistema de calculo. Se han preparado programas de calculo que permiten el estudio del acoplamiento de la accion de los ventiladores y el trafico. El modelo de trafico utilizado es macroscopico y corresponde a las curvas clasica que relacionan la intensidad, densidad y velocidad. Se extraen conclusiones relativas a la filosofia de actuacion en caso de incendio. Se muestran ecuaciones utilizadas y los graficos con los resultados obtenidos.
Resumo:
En este articulo se resumen las principales ideas relacionadas con la resolución de problemas elípticos mediante fórmulas de representación. El uso de una familia de funciones interpolantes jerarquizadas permite el establecimiento de un sistema de resolución autoadaptable a un nivel de exactitud prefijado. Se incluye también una comparación descriptiva con el método de los elementos finitos. La extracción de una mejor solución sin refinar la malla se obtiene en el Método de los Elementos de Contorno, gracias a la aplicación de la fórmula de representación para puntos de contorno. Ello permite diseñar una estrategia de indicadores y estimadores que mejora la eficacia de intentos anteriores y permite controlar el desarrollo de la solución tanto en las versiones p como en la h o mixtos.
Resumo:
El incremento experimentado por la construcción de grandes túneles ha provocado un renovado interés por el estudio de las diferentes situaciones de accidente que se pueden producir durante su vida de servicio. Entre ellos uno de los más complicados y peor conocidos es el caso de un accidente con fuego en el interior del túnel. Mediante el uso de un método numérico de volúmenes finitos este articulo presenta un estudio sobre las implicaciones del uso de trampillas de extracción de humos así como algunas conclusiones obtenidas tras el estudio de los resultados. La nueva red de carreteras es uno de los factores básicos de cohesión entre los países de la Unión Europea. Las estrictas condiciones impuestas en su proyecto para favorecer la rápida distribución de personas y bienes, tienen gran influencia en la construcción de túneles mayores y más largos que, además, sufren el paso de un numero de vehículos en continuo crecimiento. Este aumento de tráfico se ve acompañado por una demanda de confort y seguridad especialmente en lo que se refiere a la ventilación necesaria para mantener controlada la contaminación en el interior del túnel así como en las precauciones que deben establecerse para limitar el daño y las muertes que puedan surgir durante el desarrollo de un incendio. En túneles urbanos, donde la contaminación provocada por el trafico puede afectar al ambiente, tradicionalmente se ha tomado como factor dimensionante la situación de servicio en condiciones de intensidad nominal. Sin embargo, la reducción en la emisión de contaminantes como consecuencia de reglamentos mas estrictos ha inclinado la balanza hacia el esceiario de fuego como el más necesitado de estudio. En medio urbano esa situación se complica en caso de tráfico saturado. Puesto que esta condición "accidental" es independiente del tráfico que cruza el túnel (salvo a efectos de las filosofías de actuación sobre los sistemas de ventilación) se concluye que esta situación es la condición dimensionante del sistema. Existe una larga tradición en el estudio de estos temas que puede seguirse en la serie de Conferencias organizadas por la BHRA desde 1975 o las recomendaciones preparadas por el Grupo de túneles de la PIARC.
Resumo:
A la hora de utilizar las nuevas tecnologías de la información, y en concreto el hipermedia, para la actividad docente, pueden adoptarse dos posturas: o entrar en el debate de su aptitud para el aprendizaje en términos genéricos, o analizar la conveniencia o no del uso del hipermedia para una acción formativa específica. Ambos puntos de vista son complementarios, pues hay principios de esta tecnología validos en cualquier situación, y otros que tan sólo pueden ser evaluados cuando nos enfrentamos a un reto concreto. Lo que esta comunicación pretende es moverse en un punto medio, presentando de forma genérica una serie de principios a tener muy en cuenta a la hora de abordar proyectos docentes específicos. Se parte de que tres son los aspectos a considerar en el momento de abordar la conveniencia del hipermedia: la materia, el profesor y los alumnos. El grueso de la comunicación se empleará en el análisis pormenorizado de cada una de estas dimensiones. ¿Es la materia apta para la libre exploración? ¿Está el profesor abierto a nuevas formas de docencia? ¿Están los alumnos capacitados para hacerse responsables de su propio aprendizaje? Llegar a este tipo de preguntas es el objetivo del presente trabajo.
Resumo:
El proyecto TIMPANO tiene por objetivo profundizar en el desarrollo de sistemas de comunicación oral hombre-máquina atendiendo principalmente a la capacidad de dar respuesta a múltiples requerimientos de los usuarios, como pueden ser el acceso a información, la extracción de información, o el análisis de grandes repositorios de información en audio. En el proyecto se hace especial énfasis en la adaptación dinámica de los modelos a diversos contextos, tanto de tipo acústico, como semántico o de idioma.
Resumo:
El incremento experimentado por la construcción de grandes túneles ha provocado un renovado interés por el estudio de las diferentes situaciones de accidente que se pueden producir durante su vida de servicio. Entre ellos uno de los más complicados y peor conocidos es el caso de un accidente con fuego en el interior del túnel. Mediante el uso de un método numérico de volúmenes finitos este articulo presenta un estudio sobre las implicaciones del uso de trampillas de extracción de humos así como algunas conclusiones obtenidas tras el estudio de los resultados.
Resumo:
En esta ponencia se trata un aspecto del mecanismo proyectado para la extracción de humos generados en un posible incendio en el túnel de Somport. Tras una somera descripción del sistema de ventilación y extracción se comentan los métodos de modelado físico y numérico que han servido para dimensionar la solución y, en particular, se pone de manifiesto la utilidad que los simuladores numéricos (modelos monodimensionales, modelos zonales y modelos tridimensionales), dentro de todas las limitaciones que todavía presentan, pueden tener para la formación del personal encargado del control y para seleccionar estrategias de actuacion que puedan aplicarse de forma automática en caso de accidente. Se comenta brevemente la realización de ensayos in situ para completar los estudios anteriores. Una de las conclusiones, entre otras, es que la extracción de humos mediante trampillas es una solución excelente; sin embargo su éxito depende de la capacidad de desarrollar mecanismos capaces de funcionar con temperaturas muy altas.
Resumo:
El desarrollo del Proyecto consiste, por una parte, en el estudio sobre la respuesta de los materiales piezoeléctricos como generadores de energía en un entorno acuoso que está sometido a variaciones de potencial y, por otra, en el estudio técnico y económico de un equipo basado en la utilización esta fuente de energía y su comercialización en el mercado energético. Esta energía es la que se obtiene de la fuerza de arrastre del agua al desplazarse a causa del movimiento ondulatorio de las olas y que el elemento al flexionar es capaz de transformar. El proyecto contempla a partir de modelos, el funcionamiento eléctrico y mecánico de un generador piezoeléctrico, el sistema de electrónica necesaria para su inserción optimizada en la red eléctrica. A partir de esto se desarrolla una instalación que puede adaptarse a los requerimientos del estudio previo. Empleando un modelo de relación técnica y económica se establece una conexión entre estas dos secciones para hacerse una idea de la rentabilidad económica de un equipo de este estilo a día de hoy. El propósito final, es el de estudiar un nuevo tipo de energía, y comenzar una línea que puede llevar a un lugar muy interesante del sector energético. ABSTRACT This Project presents an analysis on the performance of piezoelectric materials as energy producer in an aquatic environment subject to potential variations. Additionally, the Project contains a technical and an economic analysis on the equipment based on the use of this energy source, as well as its commercialization. Energy is obtained by the water drag force when it is moved by the wave’s movement and by its transformation by the piezoelectric material. The Project studies the electric and mechanic functioning of a piezoelectric generator and the necessary electronic system for its optimized insertion on the electricity distribution network. Based on this, it is developed a system that can be adapted to the previous study requirements. The use of a technical and economic relation model allows the establishment of a connection among them in order to estimate the economic profitability of such equipment nowadays. The final objective of this Project is analyzing a new source of energy, which could start a new investigation line that may lead the energetic sector to a very interesting future.
Resumo:
La nanotecnología es un área de investigación de reciente creación que trata con la manipulación y el control de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. A escala nanométrica, los materiales exhiben fenómenos físicos, químicos y biológicos singulares, muy distintos a los que manifiestan a escala convencional. En medicina, los compuestos miniaturizados a nanoescala y los materiales nanoestructurados ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, así como una mejora en la focalización del medicamento hacia la diana terapéutica, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales (desde el nivel de población hasta el nivel de célula) y, por tanto, cualquier flujo de trabajo en nanomedicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Desafortunadamente, la informática biomédica todavía no ha proporcionado el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, ni ha adaptado sus métodos y herramientas a este nuevo campo de investigación. En este contexto, la nueva área de la nanoinformática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Las observaciones expuestas previamente determinan el contexto de esta tesis doctoral, la cual se centra en analizar el dominio de la nanomedicina en profundidad, así como en el desarrollo de estrategias y herramientas para establecer correspondencias entre las distintas disciplinas, fuentes de datos, recursos computacionales y técnicas orientadas a la extracción de información y la minería de textos, con el objetivo final de hacer uso de los datos nanomédicos disponibles. El autor analiza, a través de casos reales, alguna de las tareas de investigación en nanomedicina que requieren o que pueden beneficiarse del uso de métodos y herramientas nanoinformáticas, ilustrando de esta forma los inconvenientes y limitaciones actuales de los enfoques de informática biomédica a la hora de tratar con datos pertenecientes al dominio nanomédico. Se discuten tres escenarios diferentes como ejemplos de actividades que los investigadores realizan mientras llevan a cabo su investigación, comparando los contextos biomédico y nanomédico: i) búsqueda en la Web de fuentes de datos y recursos computacionales que den soporte a su investigación; ii) búsqueda en la literatura científica de resultados experimentales y publicaciones relacionadas con su investigación; iii) búsqueda en registros de ensayos clínicos de resultados clínicos relacionados con su investigación. El desarrollo de estas actividades requiere el uso de herramientas y servicios informáticos, como exploradores Web, bases de datos de referencias bibliográficas indexando la literatura biomédica y registros online de ensayos clínicos, respectivamente. Para cada escenario, este documento proporciona un análisis detallado de los posibles obstáculos que pueden dificultar el desarrollo y el resultado de las diferentes tareas de investigación en cada uno de los dos campos citados (biomedicina y nanomedicina), poniendo especial énfasis en los retos existentes en la investigación nanomédica, campo en el que se han detectado las mayores dificultades. El autor ilustra cómo la aplicación de metodologías provenientes de la informática biomédica a estos escenarios resulta efectiva en el dominio biomédico, mientras que dichas metodologías presentan serias limitaciones cuando son aplicadas al contexto nanomédico. Para abordar dichas limitaciones, el autor propone un enfoque nanoinformático, original, diseñado específicamente para tratar con las características especiales que la información presenta a nivel nano. El enfoque consiste en un análisis en profundidad de la literatura científica y de los registros de ensayos clínicos disponibles para extraer información relevante sobre experimentos y resultados en nanomedicina —patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.—, seguido del desarrollo de mecanismos para estructurar y analizar dicha información automáticamente. Este análisis concluye con la generación de un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento y de test anotados manualmente—, el cual ha sido aplicado a la clasificación de registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nanodrogas y nanodispositivos de aquellos enfocados a testear productos farmacéuticos tradicionales. El presente trabajo pretende proporcionar los métodos necesarios para organizar, depurar, filtrar y validar parte de los datos nanomédicos existentes en la actualidad a una escala adecuada para la toma de decisiones. Análisis similares para otras tareas de investigación en nanomedicina ayudarían a detectar qué recursos nanoinformáticos se requieren para cumplir los objetivos actuales en el área, así como a generar conjunto de datos de referencia, estructurados y densos en información, a partir de literatura y otros fuentes no estructuradas para poder aplicar nuevos algoritmos e inferir nueva información de valor para la investigación en nanomedicina. ABSTRACT Nanotechnology is a research area of recent development that deals with the manipulation and control of matter with dimensions ranging from 1 to 100 nanometers. At the nanoscale, materials exhibit singular physical, chemical and biological phenomena, very different from those manifested at the conventional scale. In medicine, nanosized compounds and nanostructured materials offer improved drug targeting and efficacy with respect to traditional formulations, and reveal novel diagnostic and therapeutic properties. Nevertheless, the complexity of information at the nano level is much higher than the complexity at the conventional biological levels (from populations to the cell). Thus, any nanomedical research workflow inherently demands advanced information management. Unfortunately, Biomedical Informatics (BMI) has not yet provided the necessary framework to deal with such information challenges, nor adapted its methods and tools to the new research field. In this context, the novel area of nanoinformatics aims to build new bridges between medicine, nanotechnology and informatics, allowing the application of computational methods to solve informational issues at the wide intersection between biomedicine and nanotechnology. The above observations determine the context of this doctoral dissertation, which is focused on analyzing the nanomedical domain in-depth, and developing nanoinformatics strategies and tools to map across disciplines, data sources, computational resources, and information extraction and text mining techniques, for leveraging available nanomedical data. The author analyzes, through real-life case studies, some research tasks in nanomedicine that would require or could benefit from the use of nanoinformatics methods and tools, illustrating present drawbacks and limitations of BMI approaches to deal with data belonging to the nanomedical domain. Three different scenarios, comparing both the biomedical and nanomedical contexts, are discussed as examples of activities that researchers would perform while conducting their research: i) searching over the Web for data sources and computational resources supporting their research; ii) searching the literature for experimental results and publications related to their research, and iii) searching clinical trial registries for clinical results related to their research. The development of these activities will depend on the use of informatics tools and services, such as web browsers, databases of citations and abstracts indexing the biomedical literature, and web-based clinical trial registries, respectively. For each scenario, this document provides a detailed analysis of the potential information barriers that could hamper the successful development of the different research tasks in both fields (biomedicine and nanomedicine), emphasizing the existing challenges for nanomedical research —where the major barriers have been found. The author illustrates how the application of BMI methodologies to these scenarios can be proven successful in the biomedical domain, whilst these methodologies present severe limitations when applied to the nanomedical context. To address such limitations, the author proposes an original nanoinformatics approach specifically designed to deal with the special characteristics of information at the nano level. This approach consists of an in-depth analysis of the scientific literature and available clinical trial registries to extract relevant information about experiments and results in nanomedicine —textual patterns, common vocabulary, experiment descriptors, characterization parameters, etc.—, followed by the development of mechanisms to automatically structure and analyze this information. This analysis resulted in the generation of a gold standard —a manually annotated training or reference set—, which was applied to the automatic classification of clinical trial summaries, distinguishing studies focused on nanodrugs and nanodevices from those aimed at testing traditional pharmaceuticals. The present work aims to provide the necessary methods for organizing, curating and validating existing nanomedical data on a scale suitable for decision-making. Similar analysis for different nanomedical research tasks would help to detect which nanoinformatics resources are required to meet current goals in the field, as well as to generate densely populated and machine-interpretable reference datasets from the literature and other unstructured sources for further testing novel algorithms and inferring new valuable information for nanomedicine.
Resumo:
La variación en calidad y cantidad de agua a lo largo del año en Tanzania provoca que la población de las zonas rurales se vea sometida a falta de acceso a agua potable. Según la Organización Mundial de la Salud, la distancia a la fuente de agua más próxima debe ser menor a 1000 metros y la espera para obtención del agua no mayor a 30 minutos. A lo largo del artículo se analiza la red de abastecimiento y se presentará el estudio de un sistema de tratamiento de potabilización de agua de bajo coste aplicado a pequeñas comunidades de países en desarrollo. La planta potabilizadora consistirá en un canal sedimentador, un filtro lento de arenas y un sistema de cloración en el depósito. Se analizará cada tratamiento realizado en la planta potabilizadora y su acción sobre la calidad del agua.
Resumo:
La introducción de las cirugías de mínima invasión en rutina clínica ha provocado la incorporación de los sistemas de vídeo dentro del quirófano. Así, estas técnicas proporcionan al cirujano imágenes que antes solo podían ser vistas mediante cirugía abierta. Los vídeos obtenidos en las intervenciones son almacenados en repositorios. El uso posterior de estos vídeos se ve limitado generalmente a su reproducción, debido a las dificultades de clasificación y gestión. La información que contienen estos repositorios puede ser explotada, reutilizando el conocimiento obtenido en cirugías similares. En este artículo de investigación se presenta el diseño de un módulo de gestión de conocimiento (MGC) para un repositorio de vídeos de cirugía de mínima invasión (CMI). El objetivo del módulo es gestionar y reutilizar la información contenida en el repositorio de vídeos laparoscópicos, para que puedan ser utilizadas con las experiencias previas en entornos de formación de nuevos cirujanos. Para este fin, se han implementado técnicas de recuperación de imagen y vídeo basadas en sus contenidos visuales (CBIR y CBVR). El MGC permite la recuperación de imágenes/vídeos, proporcionando información sobre la tarea que se está realizando en la escena quirúrgica. Los resultados obtenidos en este trabajo muestran la posibilidad de recuperar vídeos de CMI, a partir del instrumental presente en la escena quirúrgica.
Resumo:
El análisis del rendimiento en deportes juega un papel esencial en el fútbol profesional. Aunque el estudio del análisis del juego en fútbol se ha utilizado desde diferentes ámbitos y situaciones, todavía existen diferentes aspectos y componentes del juego que siguen sin estar estudiados. En este sentido existen diferentes aspectos que deben de superar los estudios previos centrados en el componente descriptivo tales como el uso de variables/ indicadores de rendimiento que no se han definido ni estudiado, la validez de los métodos observaciones que no han sido testados con los softwares específicos en fútbol, la aplicación y utilidad de los resultados, así como las limitaciones del estudio de las variables situacionales/contextuales. Con el objetivo de cubrir las citadas limitaciones se han diseñado 6 estudios independientes e inter-relacionados que tratan de estudiar los aspectos anteriormente referidos. El primer estudio evalua la fiabilidad inter-observadores de las estadísticas de juego de la empresa privada OPTA Sportsdata, estos datos son la muestra de estudio de la presente tesis doctoral. Dos grupos de observadores experimentados se requieren para analizar un partido de la liga española de manera independiente. Los resultados muestran que los eventos de equipos y porteros codificados por los inter-operadores alcanzan un acuerdo muy bueno (valores kappa entre 0.86 y 0.94). La validez inter-observadores de las acciones de juego y los datos de jugadores individuales se evaluó con elevados niveles de acuerdo (valores del coeficiente de correlación intraclase entre 0.88 hasta 1.00, el error típico estandarizado variaba entre 0.00 hasta 0.37). Los resultados sugieren que las estadísticas de juego registradas por los operadores de la empresa OPTA Sportsdata están bien entrenados y son fiables. El segundo, tercer y cuarto estudio se centran en resaltar la aplicabilidad del análisis de rendimiento en el fútbol así como para explicar en profundidad las influencias de las variables situacionales. Utilizando la técnica de los perfiles de rendimiento de jugadores y equipos de fútbol se puede evaluar y comparar de manera gráfica, fácil y visual. Así mismo, mediante esta técnica se puede controlar el efecto de las variables situacionales (localización del partido, nivel del equipo y del oponente, y el resultado final del partido). Los perfiles de rendimiento de porteros (n = 46 porteros, 744 observaciones) y jugadores de campo (n = 409 jugadores, 5288 observaciones) de la primera division professional de fútbol Española (La Liga, temporada 2012-13), los equipos (n = 496 partidos, 992 observaciones) de la UEFA Champions League (temporadas 2009-10 a 2012-13) fueron analizados registrando la media, desviación típica, mediana, cuartiles superior e inferior y el recuento de valores de cada indicador de rendimiento y evento, los cuales se presentaron en su forma tipificada y normalizada. Los valores medios de los porteros de los equipos de diferentes niveles de La Liga y de los equipos de diferente nivel de la UEFA Champions League cuando jugaban en diferentes contextos de juego y situaciones (variables situacionales) fueron comparados utilizando el ANOVA de un factor y la prueba t para muestras independientes (localización del partido, diferencias entre casa y fuera), y fueron establecidos en los perfiles de red después de unificar todos los registros en la misma escala derivada con valores estandarizados. Mientras que las diferencias de rendimiento entre los jugadores de los mejores equipos (Top3) y los peores (Bottom3) fueron comparados mediante el uso de diferencias en la magnitud del tamaño del efecto. El quinto y el sexto estudio analizaban el rendimiento del fútbol desde un punto de vista de predicción del rendimiento. El modelo linear general y el modelo lineal general mixto fue empleado para analizar la magnitud de las relaciones de los indicadores y estadísticas de juego con el resultado final del partido en función del tipo de partido (partidos ajustados o todos los partidos) en la fase de grupos de la Copa del Mundo 2014 de Brasil (n = 48 partidos, 38 partidos ajustados) y La Liga 2012-13 (n = 320 partidos ajustados). Las relaciones fueron evaluadas mediante las inferencias en la magnitud de las diferencias y se expresaron como partidos extra ganados o perdidos por cada 10 partidos mediante la variable calculada en 2 desviaciones típicas. Los resultados mostraron que, para los 48 partidos de la fase de grupos de la Copa del Mundo 2014, nueve variables tuvieron un efecto positive en la probabilidad de ganar (tiros, tiros a puerta, tiros de contraataque, tiros dentro del área, posesión de balón, pases en corto, media de secuencia de pases, duelos aéreos y entradas), cuatro tuvieron efectos negativos (tiros bloqueados, centros, regates y tarjetas amarillas), y otras 12 variables tenían efectos triviales o poco claros. Mientras que los 38 partidos ajustados, el efecto de duelos aéreos y tarjetas amarillas fueron triviales y claramente negativos respectivamente. En la La Liga, existió un efecto moderado positive para cada equipo para los tiros a puerta (3.4 victorias extras por cada 10 partidos; 99% IC ±1.0), y un efecto positivo reducido para tiros totales (1.7 victorias extrsa; ±1.0). Los efectos de la mayoría de los eventos se han relacionado con la posesión del balón, la cual obtuvo efectos negativos entre equipos (1.2 derrotas extras; ±1.0) pero un efecto positivo pequeño entra equipos (1.7 victorias extras; ±1.4). La localización del partido mostró un efecto positive reducido dentro de los equipos (1.9 victorias extras; ±0.9). Los resultados obtenidos en los perfiles y el modelado del rendimiento permiten ofrecer una información detallada y avanzada para el entrenamiento, la preparación previa a los partidos, el control de la competición y el análisis post-partido, así como la evaluación e identificación del talento de los jugadores. ABSTRACT Match performance analysis plays an important role in the modern professional football. Although the research in football match analysis is well-developed, there are still some issues and problems remaining in this field, which mainly include the lack of operational definitions of variables, reliability issues, applicability of the findings, the lack of contextual/situational variables, and focusing too much on descriptive and comparative analysis. In order to address these issues, six independent but related studies were conducted in the current thesis. The first study evaluated the inter-operator reliability of football match statistics from OPTA Sportsdata Company which is the data resourse of the thesis. Two groups of experienced operators were required to analyse a Spanish league match independently in the experiment. Results showed that team events and goalkeeper actions coded by independent operators reached a very good agreement (kappa values between 0.86 and 0.94). The inter-operator reliability of match actions and events of individual outfield players was also tested to be at a high level (intra-class correlation coefficients ranged from 0.88 to 1.00, standardised typical error varied from 0.00 to 0.37). These results suggest that the football match statistics collected by well-trained operators from OPTA Sportsdata Company are reliable. The second, third and fourth study aims to enhance the applicability of football match performance analysis and to explore deeply the influences of situational variables. By using a profiling technique, technical and tactical performances of football players and teams can be interpreted, evaluated and compared more easily and straightforwardly, meanwhile, influences and effects from situational variables (match location, strength of team and opposition, and match outcome) on the performances can be properly incorporated. Performance profiles of goalkeepers (n = 46 goalkeepers, 744 full match observations) and outfield players (n = 409 players, 5288 full match observations) from the Spanish First Division Professional Football League (La Liga, season 2012-13), teams (n = 496 matches, 992 observations) from UEFA Champions League (seasons 2009-10 to 2012-13) were set up by presenting the mean, standard deviation, median, lower and upper quartiles of the count values of each performance-related match action and event to represent their typical performances and spreads. Means of goalkeeper from different levels of team in La Liga and teams of different strength in UEFA Champions League when playing under different situational conditions were compared by using one-way ANOVA and independent sample t test (for match location, home and away differences), and were plotted into the same radar charts after unifying all the event counts by standardised score. While differences between the performances of outfield players from Top3 and from Bottom3 teams were compared by magnitude-based inferences. The fifth and sixth study aims to move from the descriptive and comparative football match analysis to a more predictive one. Generalised linear modelling and generalised mixed linear modelling were undertaken to quantify relationships of the performance-related match events, actions and variables with the match outcome in different types of games (close games and all games) in the group stage of 2014 Brazil FIFA World Cup (n = 48 games, 38 close games) and La Liga 2012-13 (n = 320 close games). Relationships were evaluated with magnitude-based inferences and were expressed as extra matches won or lost per 10 matches for an increase of two standard deviations of a variable. Results showed that, for all the 48 games in the group stage of 2014 FIFA World Cup, nine variables had clearly positive effects on the probability of winning (shot, shot on target, shot from counter attack, shot from inside area, ball possession, short pass, average pass streak, aerial advantage, and tackle), four had clearly negative effects (shot blocked, cross, dribble and red card), other 12 variabless had either trivial or unclear effects. While for the 38 close games, the effects of aerial advantage and yellow card turned to trivial and clearly negative, respectively. In the La Liga, there was a moderate positive within-team effect from shots on target (3.4 extra wins per 10 matches; 99% confidence limits ±1.0), and a small positive within-team effect from total shots (1.7 extra wins; ±1.0). Effects of most other match events were related to ball possession, which had a small negative within-team effect (1.2 extra losses; ±1.0) but a small positive between-team effect (1.7 extra wins; ±1.4). Game location showed a small positive within-team effect (1.9 extra wins; ±0.9). Results from the established performance profiles and modelling can provide detailed and straightforward information for training, pre-match preparations, in-match tactical approaches and post-match evaluations, as well as for player identification and development. 摘要 比赛表现分析在现代足球中起着举足轻重的作用。尽管如今对足球比赛表现分析的研究已经相对完善,但仍有很多不足之处。这些不足主要体现在:研究中缺乏对研究变量的清晰定义、数据信效度缺失、研究结果的实用性受限、比赛情境因素缺失以及过于集中在描述性和对比性分析等。针对这些问题,本论文通过六个独立而又相互联系的研究,进一步对足球比赛表现分析进行完善。 第一个研究对本论文的数据源--OPTA Sportsdata公司的足球比赛数据的信效度进行了实验检验。实验中,两组数据收集人员被要求对同一场西班牙足球甲级联赛的比赛进行分析。研究结果显示,两组收集人员记录下的球队比赛事件和守门员比赛行为具有高度的一致性(卡帕系数介于0.86和0.94)。收集人员输出的外场球员的比赛行为和比赛事件也具有很高的组间一致性(ICC相关系数介于0.88和1.00,标准化典型误差介于0.00和0.37)。实验结果证明了OPTA Sportsdata公司收集的足球比赛数据具有足够高的信效度。 第二、三、四个研究旨在提升足球比赛表现分析研究结果的实用性以及深度探讨比赛情境因素对足球比赛表现的影响。通过对足球运动员和运动队的比赛技战术表现进行档案创建,可以对运动员和运动队的比赛表现进行简直接而直观的呈现、评价和对比,同时,情境变量(比赛场地、球队和对手实力、比赛结果)对比赛表现的影响也可以被整合到表现档案中。本部分对2012-13赛季西班牙足球甲级联赛的参赛守门员(n = 46球员人次,744比赛场次)和外场球员(n = 409球员人次, 5288比赛场次)以及2009-10至2012-13赛季欧洲足球冠军联赛的参赛球队(n = 496比赛场次)的比赛技战术表现进行了档案创建。在表现档案中,各项比赛技战术指标的均值、标准差、中位数和大小四分位数被用来展现守门员、外场球员和球队的普遍表现和表现浮动性。方差分析(ANOVA)被用来对西甲不同水平球队的守门员、欧冠中不同水平球队在不同比赛情境下的普遍表现(各项指标的均值)进行对比,独立样本t检验被用来对比主客场比赛普遍表现的差异。数据量级推断(magnitude-based inferences)的方法则被用来对西甲前三名和最后三名球队外场球员的普遍表现进行对比分析。所有来自不同水平球队的运动员和不同水平运动队的各项比赛指标皆被转换成了标准分数,从而能把他们在各种不同比赛情境下的普遍表现(各项比赛指标的均值)投到相同的雷达图中进行直观的对比。 第五和第六个研究目的在于进行预测性足球比赛表现分析,从而跨越之前固有的描述性和对比性分析。广义线性模型和广义混合线性模型被用来对2014年巴西世界杯小组赛(n = 48 比赛场次,38小分差场次)和2012-13赛季西甲联赛(n = 320小分差场次)的比赛中各表现相关比赛事件、行为和变量与比赛结果(胜、平、负)的关系进行建模。模型中的关系通过数据量级推断(magnitude-based inferences)的方法来界定,具体表现为某个变量增加两个标准差对比赛结果的影响(每10场比赛中额外取胜或失利的场数)。研究结果显示,在2014年巴西世界杯小组赛的所有48场比赛中,9个变量(射门、射正、反击中射门、禁区内射门、控球、短传、连续传球平均次数、高空球争抢成功率和抢断)与赢球概率有清晰的正相关关系,4个变量(射门被封堵、传中、过人和红牌)与赢球概率有清晰的负相关关系,其他12个被分析的变量与赢球概率的相关关系微小或不清晰。而在38场小分差比赛中,高空球争抢成功率由正相关变为微小关系,黄牌则由微小关系变为清晰的负相关。在西甲联赛中,每一支球队增加两个标准差的“射正球门”可以给每10场比赛带来3.4场额外胜利(99%置信区间±1.0场),而所有球队作为一个整体,每增加两个标准差的“射正球门”可以给每10场比赛带来1.7场额外胜利(99%置信区间±1.0场)。其他大多数比赛相关事件与比赛结果的相关关系与“控球”相关联。每一支球队增加两个标准差的“控球”将会给每10场比赛带来1.2场额外失利(99%置信区间±1.0场),而所有球队作为一个整体,每增加两个标准差的“控球”可以给每10场比赛带来1.7场额外胜利(99%置信区间±1.4场)。与客场比赛相对,主场能给球队带来1.9 /10场额外胜利(99%置信区间±0.9场)。 比赛表现档案和模型中得出的研究结果可以为俱乐部、足球队、教练组、表现分析师和运动员提供详细而直接的参考信息。这些信息可用于训练指导、赛前备战、赛中技战术调整和赛后技战术表现分析,也可运用于足球运动员选材、培养和发展。