649 resultados para Alvos Codificados


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente proyecto se realiza un estudio para la construcción de una cabecera de televisión por cable. Se trata de un proyecto puramente teórico en el que se especifican cada una de las partes que forman una cabecera de televisión y cómo funciona cada una de ellas. En un principio, se sitúa la cabecera de televisión dentro de una plataforma general de transmisión, para indicar sus funciones. Posteriormente, se analizan las distintas tecnologías que implementan esta transmisión y los estándares DVB que las rigen, como son DVB-C y DVB-C2 para las transmisiones por cable propiamente dichas y DVB-IPTV para las transmisiones por IP, para elegir cuál de las opciones es la más acertada y adaptar la cabecera de televisión a la misma. En cuanto al desarrollo teórico de la cabecera, se estudia el proceso que sigue la señal dentro de la misma, desde la recepción de los canales hasta el envío de los mismos hacia los hogares de los distintos usuarios, pasando previamente por las etapas de codificación y multiplexación. Además, se especifican los equipos necesarios para el correcto funcionamiento de cada una de las etapas. En la recepción, se reciben los canales por cada uno de los medios posibles (satélite, cable, TDT y estudio), que son demodulados y decodificados por el receptor. A continuación, son codificados (en este proyecto en MPEG-2 o H.264) para posteriormente ser multiplexados. En la etapa de multiplexación, se forma una trama Transport Stream por cada canal, compuesta por su flujo de video, audio y datos. Estos datos se trata de una serie de tablas (SI y PSI) que guían al set-topbox del usuario en la decodificación de los programas (tablas PSI) y que proporcionan información de cada uno de los mismos y del sistema (tablas SI). Con estas últimas el decodificador forma la EPG. Posteriormente, se realiza una segunda multiplexación, de forma que se incluyen múltiples programas en una sola trama Transport Stream (MPTS). Estos MPTS son los flujos que les son enviados a cada uno de los usuarios. El mecanismo de transmisión es de dos tipos en función del contenido y los destinatarios: multicast o unicast. Por último, se especifica el funcionamiento básico de un sistema de acceso condicional, así como su estructura, el cual es imprescindible en todas las cabeceras para asegurar que cada usuario solo visualiza los contenidos contratados. In this project, a study is realized for the cable television head-end construction . It is a theoretical project in which there are specified each of the parts that form a television headend and how their works each of them. At first, the television head-end places inside a general platform of transmission, to indicate its functions. Later, the different technologies that implement this transmission and the standards DVB that govern them are analyzed, since the standards that govern the cable transmissions (DVB-C and DVB-C2) to the standard that govern the IP transmissions (DVB-IPTV), to choose which of the options is the most guessed right and to adapt the television head-end to the same one. The theoretical development of the head-end, there is studied the process that follows the sign inside the same one, from the receipt of the channels up to the sending of the same ones towards the homes of the different users, happening before for the stages of codification and multiplexación. In addition, there are specified the equipments necessary for the correct functioning of each one of the stages. In the reception, the channels are receiving for each of the possible systems(satellite, cable, TDT and study), and they are demodulated and decoded by the receiver. Later, they are codified (in this project in MPEG-2 or H.264). The next stage is the stage of multiplexing. In the multiplexing stage, the channels are packetized in Transport Stream, composed by his video flow, audio and information. The information are composed by many tables(SI and PSI). The PSI tables guide the set-top-box of the user in the programs decoding and the SI tables provide information about the programs and system. With the information mentioned the decoder forms the EPG. Later, a second multiplexación is realized, so that there includes multiple programs in an alone Transport Stream (MPTS). These MPTS are the flows that are sent to each of the users. Two types of transmission are possible: unicast (VoD channels) and multicast (live channels). Finally, the basic functioning of a conditional access system is specified and his structure too, which is indispensable in all the head-end to assure that every users visualizes the contracted contents only.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este artículo tratamos algunas cuestiones fundamentales de una pedagogía basada en el uso creativo de las manos: cómo impulsar y potenciar las aptitudes creativas básicas, la capacidad heurística, transformadora e innovadora de esos miembros de los que comienzan a estudiar arquitectura. Observamos las manos como órganos vitales para la percepción, la comunicación y la transformación del entorno cognitivo y artificial. Analizamos y comparamos en los aprendizajes del dibujar y modelar para proyectar, procesos manuales y procesos digitales. Estudiamos la relación que mantiene el dibujar con el cuerpo, con sus estados emocionales comprobando las condiciones en que el cuerpo se convierte en generador del espacio arquitectónico como espacio para habitar. Los procesos digitales constituyen, sin embargo, procesos de abstracción codificados, basados fundamentalmente en la comunicación visual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto fin de carrera, realizado por el ingeniero técnico en telecomunicaciones Pedro M. Matamala Lucas, es la fase final de desarrollo de un proyecto de mayor magnitud correspondiente al software de vídeo forense SAVID. El propósito del proyecto en su totalidad es la creación de una herramienta informática capacitada para realizar el análisis de ficheros de vídeo, codificados y comprimidos por el sistema DV –Digital Video-. El objetivo del análisis, es aportar información acerca de si la cinta magnética presenta indicios de haber sido manipulada con una edición posterior a su grabación original, además, de mostrar al usuario otros datos de interés como las especificaciones técnicas de la señal de vídeo y audio. Por lo tanto, se facilitará al usuario, analista de vídeo forense, información que le ayude a valorar la originalidad del contenido del soporte que es sujeto del análisis. El objetivo específico de esta fase final, es la creación de la interfaz de usuario del software, que informa tanto del código binario de los sectores significativos, como de su interpretación tras el análisis. También permitirá al usuario el reporte de los resultados, además de otras funcionalidades que le permitan la navegación por los sectores del código que han sido modificados como efecto colateral de la edición de la cinta magnética original. Otro objetivo importante del proyecto ha sido la investigación de metodologías y técnicas de desarrollo de software para su posterior implementación, buscando con esto, una mayor eficiencia en la gestión del tiempo y una mayor calidad de software con el fin de garantizar su evolución y sostenibilidad en el futuro. Se ha hecho hincapié en las metodologías ágiles que han ido ganando relevancia en el sector de las tecnologías de la información en las últimas décadas, sustituyendo a metodologías clásicas como el desarrollo en cascada. Su flexibilidad durante el ciclo de vida del software, permite obtener mejores resultados cuando las especificaciones no están del todo definidas, ajustándose de este modo a las condiciones del proyecto. Resumiendo las especificaciones técnicas del software, C++ es el lenguaje de programación orientado a objetos con el que se ha desarrollado, utilizándose la tecnología MFC -Microsoft Foundation Classes- para la implementación. Es un proyecto MFC de tipo cuadro de dialogo,creado, compilado y publicado, con la herramienta de desarrollo integrado Microsoft Visual Studio 2010. La arquitectura con la que se ha estructurado es la arquetípica de tres capas, compuesta por la interfaz de usuario, capa de negocio y capa de acceso a datos. Se ha visto necesario configurar el proyecto con compatibilidad con CLR –Common Languages Runtime- para poder implementar la funcionalidad de creación de reportes. Acompañando a la aplicación informática, se presenta la memoria del proyecto y sus anexos correspondientes a los documentos EDRF –Especificaciones Detalladas de Requisitos funcionales-, EIU –Especificaciones de Interfaz de Usuario , DT -Diseño Técnico- y Guía de Usuario. SUMMARY. This dissertation, carried out by the telecommunications engineer Pedro M. Matamala Lucas, is in its final stage and is part of a larger project for the software of forensic video called SAVID. The purpose of the entire project is the creation of a software tool capable of analyzing video files that are coded and compressed by the DV -Digital Video- System. The objective of the analysis is to provide information on whether the magnetic tape shows signs of having been tampered with after the editing of the original recording, and also to show the user other relevant data and technical specifications of the video signal and audio. Therefore the user, forensic video analyst, will have information to help assess the originality of the content of the media that is subject to analysis. The specific objective of this final phase is the creation of the user interface of the software that provides information about the binary code of the significant sectors and also its interpretation after analysis. It will also allow the user to report the results, and other features that will allow browsing through the sections of the code that have been modified as a secondary effect of the original magnetic tape being tampered. Another important objective of the project is the investigation of methodologies and software development techniques to be used in deployment, with the aim of greater efficiency in time management and enhanced software quality in order to ensure its development and maintenance in the future. Agile methodologies, which have become important in the field of information technology in recent decades, have been used during the execution of the project, replacing classical methodologies such as Waterfall Development. The flexibility, as the result of using by agile methodologies, during the software life cycle, produces better results when the specifications are not fully defined, thus conforming to the initial conditions of the project. Summarizing the software technical specifications, C + + the programming language – which is object oriented and has been developed using technology MFC- Microsoft Foundation Classes for implementation. It is a project type dialog box, created, compiled and released with the integrated development tool Microsoft Visual Studio 2010. The architecture is structured in three layers: the user interface, business layer and data access layer. It has been necessary to configure the project with the support CLR -Common Languages Runtime – in order to implement the reporting functionality. The software application is submitted with the project report and its annexes to the following documents: Functional Requirements Specifications - Detailed User Interface Specifications, Technical Design and User Guide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis estudia la monitorización y gestión de la Calidad de Experiencia (QoE) en los servicios de distribución de vídeo sobre IP. Aborda el problema de cómo prevenir, detectar, medir y reaccionar a las degradaciones de la QoE desde la perspectiva de un proveedor de servicios: la solución debe ser escalable para una red IP extensa que entregue flujos individuales a miles de usuarios simultáneamente. La solución de monitorización propuesta se ha denominado QuEM(Qualitative Experience Monitoring, o Monitorización Cualitativa de la Experiencia). Se basa en la detección de las degradaciones de la calidad de servicio de red (pérdidas de paquetes, disminuciones abruptas del ancho de banda...) e inferir de cada una una descripción cualitativa de su efecto en la Calidad de Experiencia percibida (silencios, defectos en el vídeo...). Este análisis se apoya en la información de transporte y de la capa de abstracción de red de los flujos codificados, y permite caracterizar los defectos más relevantes que se observan en este tipo de servicios: congelaciones, efecto de “cuadros”, silencios, pérdida de calidad del vídeo, retardos e interrupciones en el servicio. Los resultados se han validado mediante pruebas de calidad subjetiva. La metodología usada en esas pruebas se ha desarrollado a su vez para imitar lo más posible las condiciones de visualización de un usuario de este tipo de servicios: los defectos que se evalúan se introducen de forma aleatoria en medio de una secuencia de vídeo continua. Se han propuesto también algunas aplicaciones basadas en la solución de monitorización: un sistema de protección desigual frente a errores que ofrece más protección a las partes del vídeo más sensibles a pérdidas, una solución para minimizar el impacto de la interrupción de la descarga de segmentos de Streaming Adaptativo sobre HTTP, y un sistema de cifrado selectivo que encripta únicamente las partes del vídeo más sensibles. También se ha presentado una solución de cambio rápido de canal, así como el análisis de la aplicabilidad de los resultados anteriores a un escenario de vídeo en 3D. ABSTRACT This thesis proposes a comprehensive approach to the monitoring and management of Quality of Experience (QoE) in multimedia delivery services over IP. It addresses the problem of preventing, detecting, measuring, and reacting to QoE degradations, under the constraints of a service provider: the solution must scale for a wide IP network delivering individual media streams to thousands of users. The solution proposed for the monitoring is called QuEM (Qualitative Experience Monitoring). It is based on the detection of degradations in the network Quality of Service (packet losses, bandwidth drops...) and the mapping of each degradation event to a qualitative description of its effect in the perceived Quality of Experience (audio mutes, video artifacts...). This mapping is based on the analysis of the transport and Network Abstraction Layer information of the coded stream, and allows a good characterization of the most relevant defects that exist in this kind of services: screen freezing, macroblocking, audio mutes, video quality drops, delay issues, and service outages. The results have been validated by subjective quality assessment tests. The methodology used for those test has also been designed to mimic as much as possible the conditions of a real user of those services: the impairments to evaluate are introduced randomly in the middle of a continuous video stream. Based on the monitoring solution, several applications have been proposed as well: an unequal error protection system which provides higher protection to the parts of the stream which are more critical for the QoE, a solution which applies the same principles to minimize the impact of incomplete segment downloads in HTTP Adaptive Streaming, and a selective scrambling algorithm which ciphers only the most sensitive parts of the media stream. A fast channel change application is also presented, as well as a discussion about how to apply the previous results and concepts in a 3D video scenario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años el consumo de servicios de vídeo se ha incrementado de forma notable y se espera que dicha tendencia continúe en los próximos años. Los servicios de streaming de vídeo Over-The-Top (OTT), en los que se centra esta tesis, constituyen uno de los principales motores de dicho crecimiento. A diferencia de los servicios Internet Protocol Television (IPTV), que utilizan una red controlada en la que se pueden implementar mecanismos de Quality of Service (QoS), los servicios de streaming de vídeo OTT se prestan sobre Internet, por lo que llevan asociados interesantes desafíos desde un punto de vista técnico. Uno de los mayores desafíos técnicos a los que se enfrentan los servicios de streaming de vídeo OTT es mantener un nivel de Quality of Experience (QoE) que satisfaga a sus usuarios, por lo que es necesario contar con técnicas y herramientas que permitan monitorizar la calidad percibida por los usuarios de estos servicios. El streaming de vídeo OTT supone un cambio de filosofía en comparación con otras técnicas de streaming más tradicionales como RTP/RTSP. Los servicios de vídeo OTT suelen seguir el paradigma Dynamic Adaptive Streaming over HTTP (DASH), que se basa en sustituir los servidores de streaming tradicionales por servidores web que ponen a disposición de los clientes los contenidos de vídeo codificados en varias versiones con distinto nivel de calidad. Cada una de estas versiones o representaciones está dividida en pequeños fragmentos o segmentos que los clientes pueden solicitar mediante el protocolo HTTP. Los clientes pueden solicitar diferentes niveles de calidad en función de los parámetros que consideren más adecuados (ancho de banda de la red, resolución de pantalla, tipo de códec, etc.), lo que les permite adaptarse a condiciones cambiantes del entorno. Como se puede ver, el paradigma DASH ha trasladado el control de la sesión del servidor al cliente y ha sustituido los servidores de streaming por servidores web que simplemente sirven los segmentos de vídeo que los clientes solicitan. Además se esta simplificación de los servidores de streaming, existen otras ventajas asociadas a DASH, como son la utilización de Content Delivery Network (CDN), la compatibilidad con NATs y firewalls, etc. En esta tesis doctoral se lleva a cabo la propuesta de un conjunto de modelos cuyo objetivo es estimar la calidad percibida por los usuarios de los servicios de vídeo basados en DASH. Más concretamente, partiendo de la definición del servicio como un conjunto de componentes de servicio, se desarrollan modelos parciales que estiman la calidad percibida asociada a cada uno de estos componentes: calidad de vídeo, calidad de audio, degradaciones asociadas a la transmisión, etc. Cada una de estas estimaciones de calidad percibida se combinan en un modelo global que estima la calidad percibida total del servicio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis del rendimiento en deportes juega un papel esencial en el fútbol profesional. Aunque el estudio del análisis del juego en fútbol se ha utilizado desde diferentes ámbitos y situaciones, todavía existen diferentes aspectos y componentes del juego que siguen sin estar estudiados. En este sentido existen diferentes aspectos que deben de superar los estudios previos centrados en el componente descriptivo tales como el uso de variables/ indicadores de rendimiento que no se han definido ni estudiado, la validez de los métodos observaciones que no han sido testados con los softwares específicos en fútbol, la aplicación y utilidad de los resultados, así como las limitaciones del estudio de las variables situacionales/contextuales. Con el objetivo de cubrir las citadas limitaciones se han diseñado 6 estudios independientes e inter-relacionados que tratan de estudiar los aspectos anteriormente referidos. El primer estudio evalua la fiabilidad inter-observadores de las estadísticas de juego de la empresa privada OPTA Sportsdata, estos datos son la muestra de estudio de la presente tesis doctoral. Dos grupos de observadores experimentados se requieren para analizar un partido de la liga española de manera independiente. Los resultados muestran que los eventos de equipos y porteros codificados por los inter-operadores alcanzan un acuerdo muy bueno (valores kappa entre 0.86 y 0.94). La validez inter-observadores de las acciones de juego y los datos de jugadores individuales se evaluó con elevados niveles de acuerdo (valores del coeficiente de correlación intraclase entre 0.88 hasta 1.00, el error típico estandarizado variaba entre 0.00 hasta 0.37). Los resultados sugieren que las estadísticas de juego registradas por los operadores de la empresa OPTA Sportsdata están bien entrenados y son fiables. El segundo, tercer y cuarto estudio se centran en resaltar la aplicabilidad del análisis de rendimiento en el fútbol así como para explicar en profundidad las influencias de las variables situacionales. Utilizando la técnica de los perfiles de rendimiento de jugadores y equipos de fútbol se puede evaluar y comparar de manera gráfica, fácil y visual. Así mismo, mediante esta técnica se puede controlar el efecto de las variables situacionales (localización del partido, nivel del equipo y del oponente, y el resultado final del partido). Los perfiles de rendimiento de porteros (n = 46 porteros, 744 observaciones) y jugadores de campo (n = 409 jugadores, 5288 observaciones) de la primera division professional de fútbol Española (La Liga, temporada 2012-13), los equipos (n = 496 partidos, 992 observaciones) de la UEFA Champions League (temporadas 2009-10 a 2012-13) fueron analizados registrando la media, desviación típica, mediana, cuartiles superior e inferior y el recuento de valores de cada indicador de rendimiento y evento, los cuales se presentaron en su forma tipificada y normalizada. Los valores medios de los porteros de los equipos de diferentes niveles de La Liga y de los equipos de diferente nivel de la UEFA Champions League cuando jugaban en diferentes contextos de juego y situaciones (variables situacionales) fueron comparados utilizando el ANOVA de un factor y la prueba t para muestras independientes (localización del partido, diferencias entre casa y fuera), y fueron establecidos en los perfiles de red después de unificar todos los registros en la misma escala derivada con valores estandarizados. Mientras que las diferencias de rendimiento entre los jugadores de los mejores equipos (Top3) y los peores (Bottom3) fueron comparados mediante el uso de diferencias en la magnitud del tamaño del efecto. El quinto y el sexto estudio analizaban el rendimiento del fútbol desde un punto de vista de predicción del rendimiento. El modelo linear general y el modelo lineal general mixto fue empleado para analizar la magnitud de las relaciones de los indicadores y estadísticas de juego con el resultado final del partido en función del tipo de partido (partidos ajustados o todos los partidos) en la fase de grupos de la Copa del Mundo 2014 de Brasil (n = 48 partidos, 38 partidos ajustados) y La Liga 2012-13 (n = 320 partidos ajustados). Las relaciones fueron evaluadas mediante las inferencias en la magnitud de las diferencias y se expresaron como partidos extra ganados o perdidos por cada 10 partidos mediante la variable calculada en 2 desviaciones típicas. Los resultados mostraron que, para los 48 partidos de la fase de grupos de la Copa del Mundo 2014, nueve variables tuvieron un efecto positive en la probabilidad de ganar (tiros, tiros a puerta, tiros de contraataque, tiros dentro del área, posesión de balón, pases en corto, media de secuencia de pases, duelos aéreos y entradas), cuatro tuvieron efectos negativos (tiros bloqueados, centros, regates y tarjetas amarillas), y otras 12 variables tenían efectos triviales o poco claros. Mientras que los 38 partidos ajustados, el efecto de duelos aéreos y tarjetas amarillas fueron triviales y claramente negativos respectivamente. En la La Liga, existió un efecto moderado positive para cada equipo para los tiros a puerta (3.4 victorias extras por cada 10 partidos; 99% IC ±1.0), y un efecto positivo reducido para tiros totales (1.7 victorias extrsa; ±1.0). Los efectos de la mayoría de los eventos se han relacionado con la posesión del balón, la cual obtuvo efectos negativos entre equipos (1.2 derrotas extras; ±1.0) pero un efecto positivo pequeño entra equipos (1.7 victorias extras; ±1.4). La localización del partido mostró un efecto positive reducido dentro de los equipos (1.9 victorias extras; ±0.9). Los resultados obtenidos en los perfiles y el modelado del rendimiento permiten ofrecer una información detallada y avanzada para el entrenamiento, la preparación previa a los partidos, el control de la competición y el análisis post-partido, así como la evaluación e identificación del talento de los jugadores. ABSTRACT Match performance analysis plays an important role in the modern professional football. Although the research in football match analysis is well-developed, there are still some issues and problems remaining in this field, which mainly include the lack of operational definitions of variables, reliability issues, applicability of the findings, the lack of contextual/situational variables, and focusing too much on descriptive and comparative analysis. In order to address these issues, six independent but related studies were conducted in the current thesis. The first study evaluated the inter-operator reliability of football match statistics from OPTA Sportsdata Company which is the data resourse of the thesis. Two groups of experienced operators were required to analyse a Spanish league match independently in the experiment. Results showed that team events and goalkeeper actions coded by independent operators reached a very good agreement (kappa values between 0.86 and 0.94). The inter-operator reliability of match actions and events of individual outfield players was also tested to be at a high level (intra-class correlation coefficients ranged from 0.88 to 1.00, standardised typical error varied from 0.00 to 0.37). These results suggest that the football match statistics collected by well-trained operators from OPTA Sportsdata Company are reliable. The second, third and fourth study aims to enhance the applicability of football match performance analysis and to explore deeply the influences of situational variables. By using a profiling technique, technical and tactical performances of football players and teams can be interpreted, evaluated and compared more easily and straightforwardly, meanwhile, influences and effects from situational variables (match location, strength of team and opposition, and match outcome) on the performances can be properly incorporated. Performance profiles of goalkeepers (n = 46 goalkeepers, 744 full match observations) and outfield players (n = 409 players, 5288 full match observations) from the Spanish First Division Professional Football League (La Liga, season 2012-13), teams (n = 496 matches, 992 observations) from UEFA Champions League (seasons 2009-10 to 2012-13) were set up by presenting the mean, standard deviation, median, lower and upper quartiles of the count values of each performance-related match action and event to represent their typical performances and spreads. Means of goalkeeper from different levels of team in La Liga and teams of different strength in UEFA Champions League when playing under different situational conditions were compared by using one-way ANOVA and independent sample t test (for match location, home and away differences), and were plotted into the same radar charts after unifying all the event counts by standardised score. While differences between the performances of outfield players from Top3 and from Bottom3 teams were compared by magnitude-based inferences. The fifth and sixth study aims to move from the descriptive and comparative football match analysis to a more predictive one. Generalised linear modelling and generalised mixed linear modelling were undertaken to quantify relationships of the performance-related match events, actions and variables with the match outcome in different types of games (close games and all games) in the group stage of 2014 Brazil FIFA World Cup (n = 48 games, 38 close games) and La Liga 2012-13 (n = 320 close games). Relationships were evaluated with magnitude-based inferences and were expressed as extra matches won or lost per 10 matches for an increase of two standard deviations of a variable. Results showed that, for all the 48 games in the group stage of 2014 FIFA World Cup, nine variables had clearly positive effects on the probability of winning (shot, shot on target, shot from counter attack, shot from inside area, ball possession, short pass, average pass streak, aerial advantage, and tackle), four had clearly negative effects (shot blocked, cross, dribble and red card), other 12 variabless had either trivial or unclear effects. While for the 38 close games, the effects of aerial advantage and yellow card turned to trivial and clearly negative, respectively. In the La Liga, there was a moderate positive within-team effect from shots on target (3.4 extra wins per 10 matches; 99% confidence limits ±1.0), and a small positive within-team effect from total shots (1.7 extra wins; ±1.0). Effects of most other match events were related to ball possession, which had a small negative within-team effect (1.2 extra losses; ±1.0) but a small positive between-team effect (1.7 extra wins; ±1.4). Game location showed a small positive within-team effect (1.9 extra wins; ±0.9). Results from the established performance profiles and modelling can provide detailed and straightforward information for training, pre-match preparations, in-match tactical approaches and post-match evaluations, as well as for player identification and development. 摘要 比赛表现分析在现代足球中起着举足轻重的作用。尽管如今对足球比赛表现分析的研究已经相对完善,但仍有很多不足之处。这些不足主要体现在:研究中缺乏对研究变量的清晰定义、数据信效度缺失、研究结果的实用性受限、比赛情境因素缺失以及过于集中在描述性和对比性分析等。针对这些问题,本论文通过六个独立而又相互联系的研究,进一步对足球比赛表现分析进行完善。 第一个研究对本论文的数据源--OPTA Sportsdata公司的足球比赛数据的信效度进行了实验检验。实验中,两组数据收集人员被要求对同一场西班牙足球甲级联赛的比赛进行分析。研究结果显示,两组收集人员记录下的球队比赛事件和守门员比赛行为具有高度的一致性(卡帕系数介于0.86和0.94)。收集人员输出的外场球员的比赛行为和比赛事件也具有很高的组间一致性(ICC相关系数介于0.88和1.00,标准化典型误差介于0.00和0.37)。实验结果证明了OPTA Sportsdata公司收集的足球比赛数据具有足够高的信效度。 第二、三、四个研究旨在提升足球比赛表现分析研究结果的实用性以及深度探讨比赛情境因素对足球比赛表现的影响。通过对足球运动员和运动队的比赛技战术表现进行档案创建,可以对运动员和运动队的比赛表现进行简直接而直观的呈现、评价和对比,同时,情境变量(比赛场地、球队和对手实力、比赛结果)对比赛表现的影响也可以被整合到表现档案中。本部分对2012-13赛季西班牙足球甲级联赛的参赛守门员(n = 46球员人次,744比赛场次)和外场球员(n = 409球员人次, 5288比赛场次)以及2009-10至2012-13赛季欧洲足球冠军联赛的参赛球队(n = 496比赛场次)的比赛技战术表现进行了档案创建。在表现档案中,各项比赛技战术指标的均值、标准差、中位数和大小四分位数被用来展现守门员、外场球员和球队的普遍表现和表现浮动性。方差分析(ANOVA)被用来对西甲不同水平球队的守门员、欧冠中不同水平球队在不同比赛情境下的普遍表现(各项指标的均值)进行对比,独立样本t检验被用来对比主客场比赛普遍表现的差异。数据量级推断(magnitude-based inferences)的方法则被用来对西甲前三名和最后三名球队外场球员的普遍表现进行对比分析。所有来自不同水平球队的运动员和不同水平运动队的各项比赛指标皆被转换成了标准分数,从而能把他们在各种不同比赛情境下的普遍表现(各项比赛指标的均值)投到相同的雷达图中进行直观的对比。 第五和第六个研究目的在于进行预测性足球比赛表现分析,从而跨越之前固有的描述性和对比性分析。广义线性模型和广义混合线性模型被用来对2014年巴西世界杯小组赛(n = 48 比赛场次,38小分差场次)和2012-13赛季西甲联赛(n = 320小分差场次)的比赛中各表现相关比赛事件、行为和变量与比赛结果(胜、平、负)的关系进行建模。模型中的关系通过数据量级推断(magnitude-based inferences)的方法来界定,具体表现为某个变量增加两个标准差对比赛结果的影响(每10场比赛中额外取胜或失利的场数)。研究结果显示,在2014年巴西世界杯小组赛的所有48场比赛中,9个变量(射门、射正、反击中射门、禁区内射门、控球、短传、连续传球平均次数、高空球争抢成功率和抢断)与赢球概率有清晰的正相关关系,4个变量(射门被封堵、传中、过人和红牌)与赢球概率有清晰的负相关关系,其他12个被分析的变量与赢球概率的相关关系微小或不清晰。而在38场小分差比赛中,高空球争抢成功率由正相关变为微小关系,黄牌则由微小关系变为清晰的负相关。在西甲联赛中,每一支球队增加两个标准差的“射正球门”可以给每10场比赛带来3.4场额外胜利(99%置信区间±1.0场),而所有球队作为一个整体,每增加两个标准差的“射正球门”可以给每10场比赛带来1.7场额外胜利(99%置信区间±1.0场)。其他大多数比赛相关事件与比赛结果的相关关系与“控球”相关联。每一支球队增加两个标准差的“控球”将会给每10场比赛带来1.2场额外失利(99%置信区间±1.0场),而所有球队作为一个整体,每增加两个标准差的“控球”可以给每10场比赛带来1.7场额外胜利(99%置信区间±1.4场)。与客场比赛相对,主场能给球队带来1.9 /10场额外胜利(99%置信区间±0.9场)。 比赛表现档案和模型中得出的研究结果可以为俱乐部、足球队、教练组、表现分析师和运动员提供详细而直接的参考信息。这些信息可用于训练指导、赛前备战、赛中技战术调整和赛后技战术表现分析,也可运用于足球运动员选材、培养和发展。

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta tesis es el estudio de la respuesta estructural de los gasoductos sometidas a solicitaciones estáticas y dinámicas, enfocando prioritariamente en la respuesta sísmica. Los gasoductos, como las tuberías en general, se utilizan principalmente para la transportación de fluidos, como agua, gas o petróleo, de ahí la importancia de que el diseño y la estructura se realicen adecuadamente. La tubería debe ser capaz de soportar tanto los efectos de cargas estáticas como las debidas al peso propio o de la presión de la tierra, así como los diferentes tipos de cargas dinámicas ocurridas durante un evento sísmico, como los debidos a las ondas o el desplazamiento de fallas. En la primera parte de la tesis se describen aspectos generales de la tubería y su uso, y se da una breve historia de uso en la industria y las redes de abastecimiento urbano. Aparte de otros aspectos, se discuten las ventajas y desventajas de los diferentes materiales de las tuberías. En la segunda parte de la tesis se desarrollan las ecuaciones de equilibrio de una sección transversal de la tubería bajo cargas estáticas, tales como la presión interna, peso propio, presión de la tierra y las cargas externas. Un número de diferentes combinaciones de carga es analizado por medio de programas codificados como Matlab, los cuales se han desarrollado específicamente para este propósito. Los resultados se comparan con los obtenidos en Ansys utilizando un código de elementos finitos. En la tercera parte se presenta la respuesta dinámica de las tuberías, que abarca los efectos de las ondas y los desplazamientos de fallas. Se presentan las características relevantes del suelo como las velocidades de ondas, así como los métodos para estimar el desplazamiento máximo de las fallas. Un estudio paramétrico se emplea para ilustrar la influencia de estos parámetros en la respuesta estructural de la tubería. Con este fin se han utilizado dos métodos, el Pseudoestático y el Simplificado. En la última parte de la tesis son desarrollados los modelos de elementos finitos que permiten simular adecuadamente el comportamiento no lineal del suelo y la tubería. Los resultados se comparan con los obtenidos por un método simplificado utilizado con frecuencia que fue propuesto por Kennedy en 1977. Estudios paramétricos se presentan con el fin de examinar la validez de las hipótesis del método de Kennedy. La tesis concluye con recomendaciones que indican en qué casos los resultados obtenidos por el método de Kennedy son conservadores y cuando es preferible utilizar modelos de elementos finitos para estimar la respuesta de las tuberías durante los terremotos. ABSTRACT The subject of this thesis is the study of the structural response of pipelines subjected to static and dynamic loads with special attention to seismic design loads. Pipelines, as pipes in general, are used primarily for the transportation of fluids like water, gas or oil, hence the importance of an adequate design and structural behaviour. The pipe must be able to withstand both the effects of static loads like those due to self-weight or earth pressure as well as the different types of dynamic loads during a seismic event like those due to wave passing or fault displacements. In the first part of the thesis general aspects of pipelines and their use are described and a brief history of their usage in industry and for urban supply networks is given. Apart from other aspects, the advantages and disadvantages of different pipe materials are discussed. In the second part of the thesis the equilibrium equations of a transverse section of the pipe under static loads such as internal pressure, self-weight, earth pressure and external loads are developed. A number of different load combinations is analysed by means of programs coded in Matlab that have been specifically developed for this purpose. The results are compared to those obtained with the commercial Finite Element code Ansys. In the third part the dynamic response of pipelines during earthquakes is presented, covering the effects of passing waves and fault displacements. Relevant soil characteristics like wave propagation velocities as well as methods to estimate the maximum fault displacements are presented. A parametric study is employed to illustrate the influences of these parameters on the structural response of the pipe. To this end two methods have been used, the Pseudostatic and the Simplified method. In the last part of the thesis Finite Element models are developed which allow to adequately simulate the nonlinear behaviour of the soil and the pipe. The results are compared to those obtained by a frequently used simplified method which was proposed by Kennedy in 1977. Parametric studies are presented in order to examine the validity of the hypotheses Kennedys’ method is based on. The thesis concludes with recommendations indicating in which cases the results obtained by Kennedy’s method are conservative and when it is preferable to use Finite Element models to estimate the response of pipelines during earthquakes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obtener la información deseada de la lista de ingredientes de un producto alimenticio no siempre es fácil. Muchas personas necesitan obtener datos muy concretos de una lista de ingredientes y en un tiempo razonable para poder decidir si ese producto es apto para su dieta. Personas con alergias, intolerancias, celíacos, diabéticos, vegetarianos o que sigan cualquier otro tipo de dieta o normativa como por ejemplo la normativa islámica (alimentos Halal) necesitan saber exactamente qué contiene lo que se van a comer. Además existe el problema del idioma, algunos productos de importación no tienen la lista de ingredientes traducida correctamente, suelen llevar una pegatina con los ingredientes en el idioma del país y ésta, cuando existe, no siempre tiene la información exacta. El problema del idioma se presenta también cuando estamos de viaje o viviendo en un país en el que no dominamos el idioma. Y por último también existen a menudo problemas físicos para leer los ingredientes. En la mayoría de los casos el tipo de letra es demasiado pequeño y en muchos la combinación de colores usada hace que la lectura sea difícil. Si además el consumidor tiene algún problema de visión la lectura de la lista de ingredientes se vuelve muy complicada o imposible. Por tanto, no siempre podemos llegar a la conclusión de si se puede o no consumir un producto por su lista de ingredientes. Para poder leer una lista de ingredientes sin importar donde nos encontremos o el idioma y el modo en que esté escrita, y ser capaces de obtener toda la información deseada en un idioma que entendamos y todo esto en pocos segundos necesitamos un Lector de Ingredientes. El lector de ingredientes que se describe en este proyecto tiene por objeto exactamente eso, leer automáticamente la lista de ingredientes de cualquier producto alimenticio y darnos la información deseada. Esta información puede simple “es apto”/”no es apto” para nuestra dieta. Esta idea nos obliga a diseñar una nueva manera de escribir y de leer la lista de ingredientes. Para que la lista de ingredientes pueda ser entendida por todo el mundo ésta debe estar escrita en un idioma universal. Se va a crear pues una Base de Datos de Ingredientes con todos los ingredientes posibles. Estos ingredientes vendrán identificados con un código y será este código el que aparezca en la nueva lista de ingredientes. De esta manera este código puede ser traducido al idioma deseado en el proceso de lectura de la lista de ingredientes. El fabricante, en el momento de crear la etiqueta, deberá elegir los ingredientes de la Base de Datos de Ingredientes, especificándolos lo más posible. Para poder leer la lista de ingredientes de forma automática necesitamos codificar la nueva lista de ingredientes (donde cada ingrediente ha sido sustituido por su código universal) con alguno de los métodos de identificación automática (RFID, códigos de barras, etc.). El método seleccionado ha sido QR-Code. QR-Code (Quick Response Code) es un código de dos dimensiones o de matriz con alta capacidad para el almacenamiento de datos. El sistema, una vez especificada la lista de ingredientes y obtenidos los códigos de estos ingredientes, generara el QR-Code correspondiente que será imprimido en la etiqueta del producto. Para leer esta lista de ingredientes codificada en QR-Code se utilizará la cámara del teléfono móvil. Muchos teléfonos modernos ya vienen con el lector de QR-Code preinstalado. El lector de QR-Code lee el código y lo decodifica, es decir nos daría la lista de ingredientes con los ingredientes codificados. Los programas del Lector de Ingredientes que también estarían instalados en el teléfono móvil traducen, con ayuda de la Base de Datos de Ingredientes, esta lista al idioma deseado. Además será posible predefinir nuestra dieta para que el lector de ingredientes nos diga si el producto es apto o no para ella. La Base de Datos de Ingredientes está diseñada de tal manera que cada usuario podrá instalarla en su teléfono en el idioma que desee. Para este proyecto se ha creado la Base de Datos de Ingredientes en inglés. La Base de Datos ha sido generada con Metakit, contiene 2885 ingredientes diferentes con sus códigos identificativos, nombre y otras informaciones sobre las dietas más habituales y solo ocupa 256 KB. También se han desarrollado programas para el prototipo: lectura de la Lista de Ingredientes, traducir esta lista a inglés o a español, comprobar si es apto para las dietas vegetarianas, dieta celíaca, halal y kosher. Estos programas están escritos en Tcl y en total ocupan 24 KB. Las medidas de tiempo de ejecución del prototipo para funciones que acceden a la BDI han dado como resultado tiempos inferiores al medio segundo. Estos datos de ocupación de memoria y de tiempo de ejecución demuestran la viabilidad del proyecto ya que el objetivo final es que la aplicación esté empotrada en teléfonos móviles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal objetivo deste estudo é análise da eficiência Econômica-Financeira das empresas siderúrgicas brasileiras no biênio 2004/2005, as quais foram fortemente influenciadas pela reestruturação produtiva do setor siderúrgico provocado pelo programa de privatização na década de 90 seguido de volumosos investimentos com ênfase na eliminação dos gargalos na produção, aumentando a capacidade produtiva do setor, além de aquisições em tecnologia. Portanto indaga-se: A) Os grandes investimentos ocorridos no setor siderúrgico pós-privatizações proporcionaram homogeneidade na eficiência Econômica-Financeira das empresas? B) Quais as empresas que apresentaram os melhores indicadores de eficiência Econômica Financeira no período estudado? Optou-se pelo método de Análise Envoltória de Dados (DEA) para a análise da eficiência proposta, que demonstrou facilidade quando a operabilidade e eficácia para a análise. Os resultados identificaram que os investimentos realizados não levaram a uma distribuição homogênea na eficiência Econômica-Financeira nas empresas estudadas, também foi identificado que as empresas do grupo Arcelor/Belgo e a empresa Villlares Metals dominaram a fronteira de eficiência, as demais empresas foram consideradas ineficientes, sendo que a V&M do Brasil obteve os menores índices de eficiência no setor. O DEA identificou, ainda focos de ineficiência e propôs alvos a serem atingidos pelas empresas em cada variável estudada com objetivo das mesmas alcançarem a fronteira de eficiência.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal objetivo deste estudo é análise da eficiência Econômica-Financeira das empresas siderúrgicas brasileiras no biênio 2004/2005, as quais foram fortemente influenciadas pela reestruturação produtiva do setor siderúrgico provocado pelo programa de privatização na década de 90 seguido de volumosos investimentos com ênfase na eliminação dos gargalos na produção, aumentando a capacidade produtiva do setor, além de aquisições em tecnologia. Portanto indaga-se: A) Os grandes investimentos ocorridos no setor siderúrgico pós-privatizações proporcionaram homogeneidade na eficiência Econômica-Financeira das empresas? B) Quais as empresas que apresentaram os melhores indicadores de eficiência Econômica Financeira no período estudado? Optou-se pelo método de Análise Envoltória de Dados (DEA) para a análise da eficiência proposta, que demonstrou facilidade quando a operabilidade e eficácia para a análise. Os resultados identificaram que os investimentos realizados não levaram a uma distribuição homogênea na eficiência Econômica-Financeira nas empresas estudadas, também foi identificado que as empresas do grupo Arcelor/Belgo e a empresa Villlares Metals dominaram a fronteira de eficiência, as demais empresas foram consideradas ineficientes, sendo que a V&M do Brasil obteve os menores índices de eficiência no setor. O DEA identificou, ainda focos de ineficiência e propôs alvos a serem atingidos pelas empresas em cada variável estudada com objetivo das mesmas alcançarem a fronteira de eficiência.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse trabalho examina a relação da Comunicação com o Turismo discutindo a importância dos produtos de comunicação junto ao negócio do turismo no Brasil. Tem como corpus da pesquisa o Núcleo de Turismo da Editora Abril, formado pelas publicações Guia 4 Rodas, revistas Viagem e Turismo e National Geographic Brasil, e o portal de viagens www.viajeaqui.com.br. Investiga o peso e o amadurecimento do setor de turismo na economia brasileira, o crescimento e a consolidação do mercado editorial neste segmento. Discute o papel do Cluster na área de Turismo e seus efeitos no Jornalismo. Por meio da análise de conteúdo avalia os processos de produção das publicações do Núcleo, o caminho das informações compartilhadas pelos profissionais envolvidos e o impacto dessas informações nos públicos-alvos de cada veículo. Faz ainda uma reflexão sobre os limites entre Jornalismo e Publicidade em mídias segmentadas dentro de um Cluster.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse trabalho examina a relação da Comunicação com o Turismo discutindo a importância dos produtos de comunicação junto ao negócio do turismo no Brasil. Tem como corpus da pesquisa o Núcleo de Turismo da Editora Abril, formado pelas publicações Guia 4 Rodas, revistas Viagem e Turismo e National Geographic Brasil, e o portal de viagens www.viajeaqui.com.br. Investiga o peso e o amadurecimento do setor de turismo na economia brasileira, o crescimento e a consolidação do mercado editorial neste segmento. Discute o papel do Cluster na área de Turismo e seus efeitos no Jornalismo. Por meio da análise de conteúdo avalia os processos de produção das publicações do Núcleo, o caminho das informações compartilhadas pelos profissionais envolvidos e o impacto dessas informações nos públicos-alvos de cada veículo. Faz ainda uma reflexão sobre os limites entre Jornalismo e Publicidade em mídias segmentadas dentro de um Cluster.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os microRNAs (miRNAs) são pequenos RNAs não codificadores de proteínas presentes na maioria dos eucariotos. Esses RNAs regulam a expressão gênica em nível pós-transcricional através do silenciamento de mRNAs-alvo que possuem sítios complementares às suas sequências, atuando em praticamente todos os processos celulares. Embora a estrutura e função dos miRNAs estejam bem caracterizadas, aspectos relacionados à sua organização genômica, evolução e atuação em doenças são tópicos que apresentam enormes lacunas. Nesta tese, utilizamos abordagens computacionais para investigar estes temas em três trabalhos. No primeiro, processamos e integramos um vasto volume de dados publicamente disponíveis referentes aos miRNAs e genes codificadores de proteínas para cinco espécies de vertebrados. Com isso, construimos uma ferramenta web que permite a fácil inspeção da organização genômica dos miRNAs em regiões inter e intragênicas, o acesso a dados de expressão de miRNAs e de genes codificadores de proteínas (classificados em genes hospedeiros e não hospedeiros de miRNAs), além de outras informações pertinentes. Verificamos que a ferramenta tem sido amplamente utilizada pela comunidade científica e acreditamos que ela possa facilitar a geração de hipóteses associadas à regulação dos miRNAs, principalmente quando estão inseridos em genes hospedeiros. No segundo estudo, buscamos compreender como o contexto genômico e a origem evolutiva dos genes hospedeiros influenciam a expressão e evolução dos miRNAs humanos. Nossos achados mostraram que os miRNAs intragênicos surgem preferencialmente em genes antigos (origem anterior à divergência de vertebrados). Observamos que os miRNAs inseridos em genes antigos têm maior abrangência de expressão do que os inseridos em genes novos. Surpreendentemente, miRNAs jovens localizados em genes antigos são expressos em um maior número de tecidos do que os intergênicos de mesma idade, sugerindo uma vantagem adaptativa inicial que pode estar relacionada com o controle da expressão dos genes hospedeiros, e como consequência, expondo-os a contextos celulares e conjuntos de alvos diversos. Na evolução a longo prazo, vimos que genes antigos conferem maior restrição nos padrões de expressão (menor divergência de expressão) para miRNAs intragênicos, quando comparados aos intergênicos. Também mostramos possíveis associações funcionais relacionadas ao contexto genômico, tais como o enriquecimento da expressão de miRNAs intergênicos em testículo e dos intragênicos em tecidos neurais. Propomos que o contexto genômico e a idade dos genes hospedeiros são fatores-chave para a evolução e expressão dos miRNAs. Por fim, buscamos estabelecer associações entre a expressão diferencial de miRNAs e a quimioresistência em câncer colorretal utilizando linhagens celulares sensíveis e resistentes às drogas 5-Fluoruracil e Oxaliplatina. Dentre os miRNAs identificados, o miR-342 apresentou níveis elevados de expressão nas linhagens sensíveis à Oxaliplatina. Com base na análise dos alvos preditos, detectamos uma significativa associação de miR-342 com a apoptose. A superexpressão de miR-342 na linhagem resistente SW620 evidenciou alterações na expressão de genes da via apoptótica, notavelmente a diminuição da expressão do fator de crescimento PDGFB, um alvo predito possivelmente sujeito à regulação direta pelo miR-342.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A terapia antiagregante é comumente indicada na prevenção e tratamento de doenças cardiovasculares. A dupla antiagregação com clopidrogrel e ácido acetilsalicílico (AAS) tem sido frequentemente adotada em pacientes com Doença Arterial Coronariana (DAC), mas apresenta ineficácia em uma parcela significativa da população com genótipo de respondedores. Essa falha terapêutica nos leva a questionar se outros mecanismos moleculares podem estar influenciando na resposta a esses fármacos. Recentes estudos sugerem que pequenas sequências de RNA não codificantes denominadas microRNAs (miRNAs) podem estar fortemente relacionadas com resposta ao tratamento fármaco-terapêutico, controlando as proteínas envolvidas na farmacocinética e farmacodinâmica. Entretanto, os principais miRNAs que atuam na dinâmica da resposta medicamentosa ainda não foram bem definidos. O objetivo deste estudo foi avaliar o perfil de miRNAs no sangue total periférico, procurando melhor esclarecer os mecanismos envolvidos na resposta aos antiagregantes plaquetários AAS e clopidogrel. Para isso, selecionou-se pacientes com DAC, os quais apresentavam diferentes respostas à dupla terapia de antiagregação determinadas pelo teste de agregação plaquetária. Baseados nos fenótipos, os perfis de expressão de miRNAs foram comparados entre os valores da taxa de agregação categorizados em tercis (T) de resposta. O grupo T1 foi constituído de pacientes respondedores, o T2 de respondedores intermediários e o T3 de não respondedores. Os perfis de miRNAs foram obtidos após sequenciamento de última geração e os dados obtidos foram analisados pelo pacote Deseq2. Os resultados mostraram 18 miRNAs diferentemente expressos entre os dois tercis extremos. Dentre esses miRNAs, 10 deles apresentaram importantes alvos relacionados com vias de ativação e agregação plaquetária quando analisados pelo software Ingenuity®. Dos 10 miRNAs, 4 deles, os quais apresentaram-se menos expressos no sequenciamento, demonstraram os mesmos perfis de expressão quando analisados pela reação em cadeia pela polimerase quantitativa (qPCR): hsa-miR-423-3p, hsa-miR-744-5p, hsa-miR- 30a-5p e hsa-let-7g-5p. A partir das análises de predição de alvos, pôde-se observar que os quatro miRNAs, quando menos expressos simultaneamente, predizem ativação da agregação plaquetária. Além disso, os miRNAs hsa-miR- 423-5p, hsa-miR-744-5p e hsa-let-7g-5p mostraram correlação com o perfil lipídico dos pacientes que, por sua vez, apresentou influência nos valores de agregação compreendidos no T3 de resposta a ambos os medicamentos. Sendo assim, conclui-se que maiores taxas de agregação plaquetária podem estar indiretamente relacionadas com os padrões de expressão de hsa-miR- 423-3p, hsa-miR-744-5p e hsa-let-7g-5p. Sugere-se que a avaliação do perfil de expressão destes 3 miRNAs no sangue periférico de pacientes com DAC possa predizer resposta terapêutica inadequada ao AAS e ao clopidogrel

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A doença de Alzheimer (DA) é a forma mais comum de demência, representando cerca de 80% dos casos. A DA é caracterizada por um processo de declínio progressivo e irreversível das funções cognitivas e da memória, que se estende para a desorganização do comportamento. Atualmente, 46,8 milhões de pessoas em todo o mundo foram diagnosticadas com demência. Embora vários fatores tenham sido implicados na DA, sua etiologia ainda não é completamente conhecida. Do ponto de vista neuropatológico, é observado no cérebro de indivíduos com DA atrofia cortical difusa, presença de grande número de placas senis, emaranhados neurofibrilares, processo inflamatório e perda neuronal. A progressão dos sintomas está associada a mudanças estruturais nas sinapses colinérgicas em certas regiões do cérebro, que consequentemente, apresentam neurotransmissão colinérgica reduzida. Os vários eventos patológicos interligados contribuem para o avanço da doença e direcionam diversas pesquisas na busca por tratamentos multialvos com base no processo multifatorial de DA. Assim o presente trabalho descreve a síntese de derivados híbridos dual binding site de donepezila-tacrina (fármacos inibidores de acetilcolinesterase), com potencial para agir em dois alvos terapêuticos pela (i) inibição da acetilcolinesterase em ambos os sítios ativo e periférico, como demonstrado pelos estudos de modelagem molecular, e (ii) na agregação do peptídeo A? neurotóxico induzido pela acetilcolinesterase, na tentativa de interromper a progressão da doença. A estratégia sintética envolveu a condensação da 5,6-dimetóxiindanona com a unidade 4-piperidinil carbaldeído, a qual forneceu o intermediário 5,6- dimetóxindan-1-ona-4-piperidinil-metileno-1-[(4-cloroquinolin-2-il)metil], seguido de redução da dupla ligação, gerada na reação de condensação anterior, e substituição do átomo de cloro-quinolina por amino para obtenção do produto final, ou manutenção da função olefina, seguido de substituição do átomo de cloro-quinolina por azido ou amino, gerando cinco híbridos estruturalmente correlacionados. Os híbridos foram testados em ensaio de inibição de acetilcolinesterase e butirilcolinesterase pelo método de Ellman, e o híbrido insaturado, contendo a função amino-quinolina foi o mais ativo da série com IC50 na faixa de nanomolar (0,014 ?M). Futuramente, os intermediários da reação e produto final serão submetidos ao ensaio de inibição da agregação do peptídeo A? neurotóxico pelo método da tioflavina T. Neste trabalho, também são descritos os testes de predição in vitro para permeação pela barreira hematoencefálica, bem como sua absorção intestinal, pelo método PAMPA.