945 resultados para Video Performance


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto está basado en la investigación y desarrollo de sistemas de comunicaciones digitales inalámbricos, dentro del campo de las telecomunicaciones, encarando como aspecto distintivo la prestación de servicios integrados es decir, la posibilidad de acceder a voz, video y datos a través de un solo medio. Este tipo de comunicaciones se denomina multimedio y es posible debido a adelantos tecnológicos en el área de integración de circuitos, la difusión en el uso de computadoras y el creciente avance de los servicios de las empresas prestadoras. Los sistemas inalámbricos de comunicaciones multimedio requieren frecuentemente la transmisión de señales codificadas, las cuales pueden representar audio, video, imágenes estáticas, datos, etc. (...) El desvanecimiento de Rayleigh y las multitrayectorias de la señal en un sistema inalámbrico de comunicaciones, causa la pérdida de componentes de esa señal. Técnicas tales como el uso de códigos de corrección de errores, requisición automática de repeticiones entrelazado y las múltiples formas de diversidad, pueden proveer protección contra los desvanecimientos de Rayleigh. Sin embargo, en muchos casos, en particular en la transmisión de imágenes o video, estas técnicas pueden no ser suficientemente eficaces, o bien pueden introducir un retardo excesivo que resulta altamente objetable. Durante el desarrollo del proyecto se investigarán y aplicarán estas técnicas de avanzada para llegar a una transmisión confiable de multimedios, en forma inalámbrica, perfeccionando métodos existentes o implementando nuevos. Objetivos Generales El objetivo a lograr en el presente proyecto será la evaluación exhaustiva de esquemas propuestos, utilizando como herramientas la simulación por computadora y el análisis teórico. Se buscará generalizar resultados previamente establecidos para el caso de canales Gaussianos en Teoría de la Información, al caso de canales con desvanecimiento de Rayleigh con las siguientes condiciones de contorno: 1) Retardo de transmisión limitado; 2) Uso de criterios perceptivos para juzgar la calidad de transmisión. (...)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objeto de estudio de este proyecto son los sistemas de calentamiento de agua mediante energía solar que funcionan termosifónicamente. En particular se tratará con dos diseños particulares generados por fabricantes de la Provincia de Córdoba y que han solicitado el asesoramiento del Grupo de Energía Solar (GES) para el mejoramiento de la performance térmica de dichos equipos. Se trata de dos sistemas que tienen materiales no tradicionales y se diferencian además por tener una distinta disposición del tanque de almacenamiento: uno es en forma vertical y el otro en forma horizontal. Basados en los resultados de un ensayo bajo norma internacional, donde se detectaron algunas puntos factibles de mejora, se propone en este proyecto el análisis en detalle de los equipos, para lo cual se les debe desarmar completos, para realizar un estudio analítico y experimental de los mismos con el objeto de hacer un planteo teórico-analítico del comportamiento de los mismos, con la implementación de propuestas de mejora y chequeo de los resultados. Se propone entonces como objetivo lograr un mejoramiento de la performance térmica de los citados equipos a partir de un estudio experimental y analítico. Asumiendo esta posibilidad de mejora, se plantea la hipótesis de que es posible representar el funcionamiento de estos equipos mediante modelos físico-matemáticos desarrollados a partir de ecuaciones y correlaciones conocidas y procesos a interpretar mediante resoluciones numéricas y softwares específicos de simulación. De esta manera, se plantea el despieze completo de los equipos para estudiar en detalle su estructura y conexiones internas y a partir de la geometría, dimensiones y propiedades termofísicas de materiales constructivos y fluidos de trabajo, realizar modelos físico-matemáticos que permitan realizar variaciones de propiedades y geometría y así buscar las mejores combinaciones que produzcan equipos más eficientes térmicamente. Los modelos físico-matemáticos serán codificados en lenguajes de alto nivel para poder luego de una validación de los modelos, correr simulaciones en un software de reconocimiento internacional que permite sumar dichos modelos mediante un protocolo de comunicación, haciendo que las poderosas prestaciones del software se puedan aplicar a nuestros modelos. Se complementará el estudio con un análisis exergético para identificar los puntos críticos en que se producen las pérdidas de oportunidad de aprovechar la energía disponible, para así analizar cómo solucionar los problemas en dichos puntos. Los materiales a utilizar serán los propios equipos provistos por los fabricantes, que serán modificados convenientemente para operarlos como prototipos Se espera obtener un conocimiento acabado de los procesos y principios de funcionamiento de los equipos, que permita plantear las mejoras, las cuales se implementarán en los prototipos, realizándose una medición mediante norma igual a la inicial para ver en que magnitud se logran las mejoras esperadas. Se pretende además que las mejoras a implementar, en la etapa de transferencia a las empresas involucradas, redunden no sólo en un beneficio técnico, sino que también los sea desde el punto de vista económico. Para ello se trabajará también sobre los procesos y métodos de fabricación para que los equipos mejorados no sean mas caros que los originales y de ser posible sean aún más económicos, todo esto apuntando a la difusión de la energía solar térmica y poner al alcance de todos estos equipos tan convenientes para la propagación de las energías limpias. El proyecto redundará también en un importante beneficio para el conocimiento de la comunidad científica en general, con el aporte de nuevos resultados en diseños novedosos y con nuevos materiales. Además, la institución se beneficiará con la formación que obtendrán los integrantes del proyecto, muchos de ellos en etapa de realización de sus estudios de posgrado y en una etapa importante de su vida como investigadores. The main goal of this project is the improvement of two thermosyphonic solar water heating systems, made of non conventional materials and with different arrangement of their storage tanks: one is vertical and the other one horizontal. The thermosyphonic systems are provided by manufacturers of the Córdoba Province, who came to the Solar Energy Group (GES) of the National University of Río Cuarto looking for help for the design of their products. In an agreement with these manufacturers, it was proposed this project in order to work analytically and experimentally in order to obtain physical-mathematical models of these two systems, which allow for changes to look by means of simulations the best changes to implement on the equipments for the improvement of their thermal performance. Then, the materials to be used are the proper systems provided by the manufacturers, which will be disarmed to be studied in detail. After the analytical study the proposals of improvement will be implemented in a high level language of programming to perform simulations in the environment of a well-known software for energy simulations (TRNSYS). After the simulations, the best modifications will be physically implemented in the prototypes to perform finally the same normalized test of the beginning and check the magnitude of the implemented improvements. The importance of this project is based on the offer of better systems the companies would make, which would benefit the deployment of the thermal solar energy. Another relevant point is to make the new equipments at the same cost of the previous ones or cheaper, in order to achieve a good deployment of the solar water heating systems; then, the manufacture processes and methods must be studied to obtain not only good technical solutions, but also economical equipments. In addition, this project will contribute to the increasing of the knowledge in the area of thermosyphonic solar systems and the training of postgraduate students.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The objectives of this thesis are three. Firstly, finding and analyzing the differences of performance management system in SMEs in Ireland and China. Secondly, finding the cultural differences between China and Ireland and thirdly, integrating the research outcomes of the above research objectives, and then analyzing the effect of these cultural differences on performance management system in SMEs in China and Ireland.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Spread spectrum, Automotive Radar, Indoor Positioning Systems, Ultrasonic and Microwave Imaging, super resolution technique and wavelet transform

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Performance monitoring, ERN, CRN, Pe, Memory, Llist learning, Emotion, IAPS, N2, Reinforcement Learning Hypothesis, Conflict Monitoring Hypothesis

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Category, frequency contour, monkey, auditory cortex, neuron, spike

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Social intelligence

Relevância:

20.00% 20.00%

Publicador:

Resumo:

AbstractBackground:Predicting mortality in patients undergoing transcatheter aortic valve implantation (TAVI) remains a challenge.Objectives:To evaluate the performance of 5 risk scores for cardiac surgery in predicting the 30-day mortality among patients of the Brazilian Registry of TAVI.Methods:The Brazilian Multicenter Registry prospectively enrolled 418 patients undergoing TAVI in 18 centers between 2008 and 2013. The 30-day mortality risk was calculated using the following surgical scores: the logistic EuroSCORE I (ESI), EuroSCORE II (ESII), Society of Thoracic Surgeons (STS) score, Ambler score (AS) and Guaragna score (GS). The performance of the risk scores was evaluated in terms of their calibration (Hosmer–Lemeshow test) and discrimination [area under the receiver–operating characteristic curve (AUC)].Results:The mean age was 81.5 ± 7.7 years. The CoreValve (Medtronic) was used in 86.1% of the cohort, and the transfemoral approach was used in 96.2%. The observed 30-day mortality was 9.1%. The 30-day mortality predicted by the scores was as follows: ESI, 20.2 ± 13.8%; ESII, 6.5 ± 13.8%; STS score, 14.7 ± 4.4%; AS, 7.0 ± 3.8%; GS, 17.3 ± 10.8%. Using AUC, none of the tested scores could accurately predict the 30-day mortality. AUC for the scores was as follows: 0.58 [95% confidence interval (CI): 0.49 to 0.68, p = 0.09] for ESI; 0.54 (95% CI: 0.44 to 0.64, p = 0.42) for ESII; 0.57 (95% CI: 0.47 to 0.67, p = 0.16) for AS; 0.48 (95% IC: 0.38 to 0.57, p = 0.68) for STS score; and 0.52 (95% CI: 0.42 to 0.62, p = 0.64) for GS. The Hosmer–Lemeshow test indicated acceptable calibration for all scores (p > 0.05).Conclusions:In this real world Brazilian registry, the surgical risk scores were inaccurate in predicting mortality after TAVI. Risk models specifically developed for TAVI are required.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Magdeburg, Univ., Fak. für Elektrotechnik und Informationstechnik, Diss., 2010

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Magdeburg, Univ., Fak. für Informatik, Diss., 2012

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Magdeburg, Univ., Fak. für Wirtschaftswiss., Diss., 2013

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gegenstand der hier vorliegenden Arbeit ist die Untersuchung der Auswirkung der MAC-Zugriffsverfahren CSMA/CA auf das Transportschicht-Protokoll in WLAN-Netzen. Zum Erreichen des Ziels dieser Arbeit wurde es zuerst nachgewiesen, dass CSMA/CA zum TCP-Retransmission führen könnte. Dann die kumulative Verteilung der OWDs auf jedem Szena-rio analysiert. Am Ende wurde die kumulative Verteilung der Abstände zwischen den Spitzenwerten der OWD nach der Datenverarbeitung auf jedem Szenario analysiert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In IP networks, most of packets, that have been dropped, are recovered after the expiration of retransmission timeouts. These can result in unnecessary retransmissions and needless reduction of congestion window. An inappropriate retransmission timeout has a huge impact on TCP performance. In this paper we have proved that CSMA/CA mechanism can cause TCP retransmissions due to CSMA/CA effects. For this we have observed three wireless connections that use CSMA/CA: with good link quality, poor link quality and in presence of cross traffic. The measurements have been performed using real devices. Through tracking of each transmitted packet it is possible to analyze the relation between one-way delay and packet loss probability and the cumulative distribution of distances between peaks of OWDs. The distribution of OWDs and the distances between peaks of OWDs are the most important parameters of tuning TCP retransmission timeout on CSMA/CA networks. A new perspective through investigating the dynamical relation between one-way delay and packet loss ratio depending on the link quality to enhance the TCP performance has been provided.