12 resultados para emisión de televisión

em Universidad Politécnica de Madrid


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este proyecto se propone un entorno de producción para televisión en alta definición donde las cintas magnéticas para la captura, modificación, gestión y transferencia de los contenidos audiovisuales, quedan sustituidas por servidores informáticos y sistemas de almacenamiento basados en las tecnologías de la información. Dicho entorno sin cintas tiene como misión la realización de la fase de la producción de los contenidos televisivos. Se trata de un centra independiente, en una ubicación remota respecto a las instalaciones centrales de la empresa emisora de televisión. La conexión del entorno sin cinta con los servicios centrales de la cadena se realiza por medio de redes de datos de alta velocidad y por enlace de radiofrecuencia. Por estos medios los sistemas de redacción comunican datos y escaletas, se reciben las señales de contribución que intervienen en los programas, se envía la serial realizada para emisión y se transfieren los materiales grabados al área de Postproducción para su elaboración final. Se plantean dos estudios de televisión dotados de servidores de video y de un almacenamiento compartido para una gestión ágil, unificada y flexible de las demandas de los programas. Además de la eliminación del lento y pesado trabajo de manipulación de las cintas, la producción resulta mucho mas ágil porque se eliminan tiempos de espera por la posibilidad de acceso simultaneo de varios usuarios a un mismo contenido. También se suprimen los tiempos de digitalización y descarga del material grabado, porque los sistemas implementados permiten la ingesta directa de las señales recibidas. Los contenidos de varias jornadas de grabación, en calidad HD, se conservan en el sistema de almacenamiento para la elaboración de materiales en el propio centra y para su transferencia al departamento central correspondiente. Mediante aplicaciones software se busca la integración del trabajo de la redacción de los programas con los procesos de producción de los estudios. El diseño que se propone para los diferentes subsistemas técnicos de los estudios esta orientado a lograr una alta fiabilidad, operatividad y adaptabilidad a las demandas técnicas de la producción audiovisual de los diferentes tipos de programas. Al tratarse de una propuesta conceptual, de manera general no se basa en equipos de marcas o fabricantes concretos sino mas bien en las metodologías concretas de trabajo. Cuando se ejemplifica algún dispositivo en particular es debido a que el concepto tecnológico del mismo es novedoso destaca de manera especial sobre la generalidad de los equipos existentes para esa funcionalidad. ABSTRACT. This project hopes to propose a television production platform that uses computers, servers and storage systems based on information technologies, rather than video tape recorders for ingesting, editing and making TV programs. This tapeless system has as its mission the production of all kind of television contents, employing IT systems, without the use of magnetic tapes. We envision an independent TV production center located in a remote location, in relation to the main broadcaster facilities, where all communications between this broadcasting center and the remote independent tapeless center would occur via high speed internet and a radiofrequency link as a back up. In this way, the Newsroom systems communicate data and rundowns; contribution feeds are received; PGM signal are codified and transmitted; and stored media are transferred to the post production area for final editing, playout and archive. Two TV studios are proposed, equipped with video servers and sharing media storage for agile, unified and flexible management of the production requirements. Apart from completely eliminating the slow and hard work resulting from handling a lot of traditional magnetic tapes, the production ends up being much quicker due to the fact that there is no waiting time between recording and viewing. This also enables several users to access and view the same material at the same time. The digitalization and downloading time is also greatly reduced due to the direct ingestion of contribution feeds to the system. The HD content of various days of recording, are stored for future use for whichever department needs the footage in the future. Through software applications, there will be complete integration between the Newsroom work and the production process of the studios. The proposed design for the various technical subsystems in the recording studio is directed towards achieving optimum reliability and operational capability: they are easily adaptable to the technical demands of the audiovisual production of the different programs. Because we are dealing with a conceptual proposal, in general terms, we are not defining the brands or manufacturers of the technical equipment, but rather we are specifying the methods which we plan to implement. When some equipment is highlighted, it's only because that specific brand exemplifies a higher performance than any other equipment in the range.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artículo detalla el diseño, implementación y validación de un sistema abierto de Televisión Digital accesible para personas con deficiencia visual. La solución facilita que este colectivo pueda acceder a los contenidos de la guía electrónica de programación recibidos a través de la TDT, pudiendo configurar a demanda la interfaz de usuario gráfica (IGU) y la síntesis de voz (TTS). Se presenta el análisis de sistemas existentes, requisitos demandados por este colectivo y tecnologías disponibles, tanto de TDT como de TTS, con el fin de elegir las más apropiadas con criterios de accesibilidad, interoperabilidad y bajo coste. Los resultados obtenidos en la investigación demuestran que el sistema desarrollado es congruente con los criterios del Diseño para Todos según constata la validación realizada. El sistema ofrece combinaciones de colores y fuentes (contraste, tamaño) para diferentes necesidades de la deficiencia visual, y utiliza TTS local y adaptable para las personas con ceguera.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las ruedas de ferrocarril con avanzado estado de desgaste o poligonalización pueden ser una fuente transmisora de ruidos y vibraciones, lo que supone un serio inconveniente para los vecinos próximos a la línea ferroviaria. Se han adoptado distintas soluciones para mitigar este efecto, entre las que las ruedas elásticas desempeñan un papel importante.Las ruedas elásticas convencionales presentan un anillo de goma, en forma de V, que se encuentra ligeramente comprimido entre el cubo y la banda de rodadura, construidos en acero. Esta capa elástica favorece la supresión del ruido y vibraciones transmitidos, al tiempo que reduce los impactos sobre la vía. En este estudio se ha valorado la eficacia de las ruedas elásticas en líneas metropolitanas, comparándolas con las ruedas monobloque. Se ha utilizado para ello el método de los elementos finitos. Se han llevado a cabo diversas simulaciones para estudiar el comportamiento vibratorio de las ruedas elásticas y monobloque, incluyendo análisis modal, respuesta en frecuencia y análisis de vibraciones estocásticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Actualmente los entornos de televisión manejan gran cantidad de señales procedentes de diferentes fuentes y suministradas en diferentes estándares: SD-SDI,HD-SDI, 3G, DVB-ASI, señales moduladas en banda L. En la gran mayoría de los centros de radiodifusión es necesario al menos en alguno de los pasos del transporte de señales o de su explotación, la replicación de las diferentes señales de entrada a sus diferentes destinos. En el siguiente PFC se tratará de dar a conocer, los principales sistemas que se emplean en los entornos de televisión para la distribución de las señales que se utilizan en los mismos. Los sistemas distributivos se encargan de distribuir y replicar la señal de entrada a ellos hacia diferentes destinos. La principal idea con la que se diseñan estos sistemas es que la señal de entrada no sufra ningún tipo de degradación como fruto de la replicación o división, siendo incluso aconsejable que determinados sistemas regeneren la señal de entrada a sus salidas. El proyecto se divide en tres capítulos: - Capítulo de conceptos teóricos: En el que se presentarán, los fundamentos teóricos que justifican la tecnología utilizada por los diferentes sistemas. - Capítulo de distribución de señales SDI y ASI: En el cual se presentarán los principales sistemas utilizados, para la distribución de señales SD-SDI, HDSDI, 3G y DVB-ASI. - Capítulo de distribución de señales en banda-L: Donde se mostrarán, los principales sistemas de distribución de señales moduladas en banda-L. Al finalizar la lectura del mismo, el lector debería conocer los principales sistemas que se utilizan en la distribución de señales SDI y ASI y en la distribución de señales en banda L. Comprender mediante la teoría expuesta, y los sistemas presentados, las diferentes problemáticas que afrontan los diferentes equipos y la tecnología que subyace en un segundo plano para solventar las problemáticas. Nowadays, broadcast environments, manage an extensive amount of signals from several sources, using differents standards: SD-SDI, HD-SDI, 3G, DVBASI, modulated L band signals. In most of the broadcast infraestructures, it´s usually needed, at any of the transmissions steps, to replicate the source signal to many destinations. This PFC is intended to shown the main systems used to distribute and replicate signals in broadcast environments. Distributive Systems are used to distribute and replicate the source signals to as many destinations as are needed. The main idea behind the design of those systems is to preserve the integrity of the original signal, due to replications or division classical pathologies. Even it is recomendad that those systems are able to regenerate the original signal, trying to avoid or compesate those pathologies. The PFC is divided in three chapters: - Chapter 1: Theorical concepts: In this chapter is presented the minimal theory needed to understand the complex of the tecnology, for those distributive systems. - Chapter 2: Distribution of SDI and ASI signals: It is shown the main systems used to replicate and distribution of the SDI and ASI signals. It will also treatment the state of the art of the actually new systems. - Chapter 3: Distribution of L band signals. It will be shown the main systems used for L band signals At the end of reading this PFC, the reader must known the main systems used for distribution SDI and ASI signals, also L band signals. It is important to understand the contents of the PFC, the systems, the several problems and the background tecnology that is needed to afront the replication known patologies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente proyecto se realiza un estudio para la construcción de una cabecera de televisión por cable. Se trata de un proyecto puramente teórico en el que se especifican cada una de las partes que forman una cabecera de televisión y cómo funciona cada una de ellas. En un principio, se sitúa la cabecera de televisión dentro de una plataforma general de transmisión, para indicar sus funciones. Posteriormente, se analizan las distintas tecnologías que implementan esta transmisión y los estándares DVB que las rigen, como son DVB-C y DVB-C2 para las transmisiones por cable propiamente dichas y DVB-IPTV para las transmisiones por IP, para elegir cuál de las opciones es la más acertada y adaptar la cabecera de televisión a la misma. En cuanto al desarrollo teórico de la cabecera, se estudia el proceso que sigue la señal dentro de la misma, desde la recepción de los canales hasta el envío de los mismos hacia los hogares de los distintos usuarios, pasando previamente por las etapas de codificación y multiplexación. Además, se especifican los equipos necesarios para el correcto funcionamiento de cada una de las etapas. En la recepción, se reciben los canales por cada uno de los medios posibles (satélite, cable, TDT y estudio), que son demodulados y decodificados por el receptor. A continuación, son codificados (en este proyecto en MPEG-2 o H.264) para posteriormente ser multiplexados. En la etapa de multiplexación, se forma una trama Transport Stream por cada canal, compuesta por su flujo de video, audio y datos. Estos datos se trata de una serie de tablas (SI y PSI) que guían al set-topbox del usuario en la decodificación de los programas (tablas PSI) y que proporcionan información de cada uno de los mismos y del sistema (tablas SI). Con estas últimas el decodificador forma la EPG. Posteriormente, se realiza una segunda multiplexación, de forma que se incluyen múltiples programas en una sola trama Transport Stream (MPTS). Estos MPTS son los flujos que les son enviados a cada uno de los usuarios. El mecanismo de transmisión es de dos tipos en función del contenido y los destinatarios: multicast o unicast. Por último, se especifica el funcionamiento básico de un sistema de acceso condicional, así como su estructura, el cual es imprescindible en todas las cabeceras para asegurar que cada usuario solo visualiza los contenidos contratados. In this project, a study is realized for the cable television head-end construction . It is a theoretical project in which there are specified each of the parts that form a television headend and how their works each of them. At first, the television head-end places inside a general platform of transmission, to indicate its functions. Later, the different technologies that implement this transmission and the standards DVB that govern them are analyzed, since the standards that govern the cable transmissions (DVB-C and DVB-C2) to the standard that govern the IP transmissions (DVB-IPTV), to choose which of the options is the most guessed right and to adapt the television head-end to the same one. The theoretical development of the head-end, there is studied the process that follows the sign inside the same one, from the receipt of the channels up to the sending of the same ones towards the homes of the different users, happening before for the stages of codification and multiplexación. In addition, there are specified the equipments necessary for the correct functioning of each one of the stages. In the reception, the channels are receiving for each of the possible systems(satellite, cable, TDT and study), and they are demodulated and decoded by the receiver. Later, they are codified (in this project in MPEG-2 or H.264). The next stage is the stage of multiplexing. In the multiplexing stage, the channels are packetized in Transport Stream, composed by his video flow, audio and information. The information are composed by many tables(SI and PSI). The PSI tables guide the set-top-box of the user in the programs decoding and the SI tables provide information about the programs and system. With the information mentioned the decoder forms the EPG. Later, a second multiplexación is realized, so that there includes multiple programs in an alone Transport Stream (MPTS). These MPTS are the flows that are sent to each of the users. Two types of transmission are possible: unicast (VoD channels) and multicast (live channels). Finally, the basic functioning of a conditional access system is specified and his structure too, which is indispensable in all the head-end to assure that every users visualizes the contracted contents only.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis analiza los elementos que afectan a la evaluación del rendimiento dentro de la técnica de radiodiagnóstico mediante tomografía por emisión de positrones (PET), centrándose en escáneres preclínicos. Se exploran las posibilidades de los protocolos estándar de evaluación sobre los siguientes aspectos: su uso como herramienta para validar programas de simulación Montecarlo, como método para la comparación de escáneres y su validez en el estudio del efecto sobre la calidad de imagen al utilizar radioisótopos alternativos. Inicialmente se estudian los métodos de evaluación orientados a la validación de simulaciones PET, para ello se presenta el programa GAMOS como entorno de simulación y se muestran los resultados de su validación basada en el estándar NEMA NU 4-2008 para escáneres preclínicos. Esta validación se ha realizado mediante la comparación de los resultados simulados frente a adquisiciones reales en el equipo ClearPET, describiendo la metodología de evaluación y selección de los parámetros NEMA. En este apartado también se mencionan las aportaciones desarrolladas en GAMOS para aplicaciones PET, como la inclusión de herramientas para la reconstrucción de imágenes. Por otro lado, la evaluación NEMA del ClearPET es utilizada para comparar su rendimiento frente a otro escáner preclínico: el sistema rPET-1. Esto supone la primera caracterización NEMA NU 4 completa de ambos equipos; al mismo tiempo que se analiza cómo afectan las importantes diferencias de diseño entre ellos, especialmente el tamaño axial del campo de visión y la configuración de los detectores. El 68Ga es uno de los radioisótopos no convencionales en imagen PET que está experimentando un mayor desarrollo, sin embargo, presenta la desventaja del amplio rango o distancia recorrida por el positrón emitido. Además del rango del positrón, otra propiedad física característica de los radioisótopos PET que puede afectar a la imagen es la emisión de fotones gamma adicionales, tal como le ocurre al isótopo 48V. En esta tesis se evalúan dichos efectos mediante estudios de resolución espacial y calidad de imagen NEMA. Finalmente, se analiza el alcance del protocolo NEMA NU 4-2008 cuando se utiliza para este propósito, adaptándolo a tal fin y proponiendo posibles modificaciones. Abstract This thesis analyzes the factors affecting the performance evaluation in positron emission tomography (PET) imaging, focusing on preclinical scanners. It explores the possibilities of standard protocols of assessment on the following aspects: their use as tools to validate Monte Carlo simulation programs, their usefulness as a method for comparing scanners and their validity in the study of the effect of alternative radioisotopes on image quality. Initially we study the methods of performance evaluation oriented to validate PET simulations. For this we present the GAMOS program as a simulation framework and show the results of its validation based on the standard NEMA NU 4-2008 for preclinical PET scanners. This has been accomplished by comparing simulated results against experimental acquisitions in the ClearPET scanner, describing the methodology for the evaluation and selection of NEMA parameters. This section also mentions the contributions developed in GAMOS for PET applications, such as the inclusion of tools for image reconstruction. Furthermore, the evaluation of the ClearPET scanner is used to compare its performance against another preclinical scanner, specifically the rPET-1 system. This is the first complete NEMA NU 4 based characterization study of both systems. At the same time we analyze how do the significant design differences of these two systems, especially the size of the axial field of view and the detectors configuration affect their performance characteristics. 68Ga is one of the unconventional radioisotopes in PET imaging the use of which is currently significantly increasing; however, it presents the disadvantage of the long positron range (distance traveled by the emitted positron before annihilating with an electron). Besides the positron range, additional gamma photon emission is another physical property characteristic of PET radioisotopes that can affect the reconstructed image quality, as it happens to the isotope 48V. In this thesis we assess these effects through studies of spatial resolution and image quality. Finally, we analyze the scope of the NEMA NU 4-2008 to carry out such studies, adapting it and proposing possible modifications.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La norma UNE 153010:2003 recogía requisitos para el subtitulado para personas sordas a través de teletexto. Fue el resultado de varios años de trabajo en el Subcomité 5 del Comité Técnico de Normalización (CTN) 153 de AENOR. Los cambios en los últimos años en cuanto a los medios audiovisuales llevaron a dicho Subcomité a plantearse en el año 2008 la posibilidad de actualizar los contenidos de esta norma, con el fin de adaptarse a nuevas tecnologías, como los DVD, la televisión digital o la televisión emitida a través de Internet. Inicialmente se planteó la posibilidad de realizar normas específicas de subtitulado para cada tecnología de emisión, pero finalmente se decidió desarrollar una norma general de subtitulado que fuera de aplicación general. Tras un largo periodo de trabajo, la nueva versión de la norma UNE 153010 está a punto de ver la luz, dado que se encuentra en periodo de información pública. En este artículo se narra el proceso de desarrollo de esta norma y se describe los aspectos más importantes de la misma, resultado de una intensa labor con gran voluntad de consenso por parte de las entidades implicadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde hace ya muchos años, uno de los servicios de telecomunicaciones más demandado por los españoles ha sido la televisión de pago, complementando y ampliando la oferta de contenidos audiovisuales que habitualmente son ofrecidos de manera gratuita por la televisión analógica y recientemente por la televisión digital terrestre o TDT. Estos servicios de video, han sido tradicionalmente ofrecidos por operadores satélites, operadores de cable u otros operadores de telecomunicaciones con los que a través de una conexión de datos (ADSL, VDSL o fibra óptica), ofrecían sus contenidos a través de IP. La propia evolución y mejora de la tecnología utilizada para la emisión de contenidos sobre IP, ha permitido que a día de hoy, la televisión se conciba como un servicio Over The Top (OTT) ajeno al medio de transmisión, permitiendo a cualquier agente, distribuir sus contenidos audiovisuales de manera sencilla y a todos sus clientes en todas las partes del mundo; siendo solamente necesario disponer de una conexión a internet. De esta manera, el proyecto desarrollado va a girar en torno a la herramienta StormTest de la empresa S3Group, comprada por CENTUM Solutions (empresa especializada en ofrecer servicio de ingeniería para sistema de comunicaciones, control e inteligencia de señal) con el objetivo de satisfacer las necesidades de sus clientes y con la que en definitiva se ha contado para la realización de este proyecto. El principal objetivo de este proyecto es la definición e implementación de un banco de pruebas que permita optimizar los procesos de validación técnica, mejorando los tiempos de ejecución y concentrando la actividad de los ingenieros en tareas de mayor valor. Para la realización de este proyecto, se han fijado diversos objetivos necesarios para el desarrollo de este tipo de actividades. Los principales son los siguientes:  Análisis de la problemática actual: donde en los procesos de aceptación técnica se dedica muchas horas de trabajo para la realización de pruebas repetitivas y de poco valor las cuales se pueden automatizar por herramientas existentes en el mercado.  Búsqueda y selección de una herramienta que satisfaga las necesidades de pruebas.  Instalación en los laboratorios.  Configuración y adaptación de la herramienta a las necesidades y proyectos específicos. Con todo ello, este proyecto cubrirá los siguientes logros:  Reducir los tiempos de ejecución de las campañas de pruebas, gracias a la automatización de gran parte ellas.  Realizar medidas de calidad subjetiva y objetiva complejas, imposibles de ejecutar a través de las personas. Mejorar y automatizar los sistemas de reporte de resultados. Abstract: Many years ago, one of the telecommunications services most demanded in Spain has been pay television, complementing and extending the offer of audiovisual content which are usually offered for free by analog tv and recently by digital terrestrial televisión or TDT. These video services, have been traditionally offered by satellite operators, cable operators or other telecommunications operators that through a data connection (ADSL,VDSL or fiber optic), offered its content over IP. The evolution and improvement of the technology used for broadcasting over IP, has allowed that to date, television is conceived as a service Over The Top (OTT), not dependent on the transmission medium, allowing any agent to distribute audiovisual content in a very simple way and to all its customers in all parts of the world; being only necessary to have an decent internet connection. In this way, the project will have relation with S3Group’s StormTest tool, bought by CENTUM Solutions (company specialized in engineering services for communications, control and signal intelligence system) with the aim of satisfying the needs of its customers and which ultimately has counted for the realization of this project. The main objective of this project is the definition and implementation of a test bench that allows to optimize the processes of technical validation, improving execution times and concentrating the activities of engineers on higher value tasks. For the realization of this project, it has been defined several objectives necessary for the development of this type of activity. The most important tones are listed below:  Analysis of the current situation: where in technical acceptance processes it is dedicated many hours of work for the completion of repetitive testing and without value which can be automated by tools available on the market  Search and selection of a tool that meets the needs of testing.  Installation on the laboratories.  Configuration and customization of the tool to specific projects. With all this, this project will cover the following achievements: Reduce the execution time of the testing campaigns, thanks to the automation of many of them.  Measurements of subjective and objective quality tests, impossible to run with engineers (due to subjective perception). Improve and automate reporting of results systems

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El cultivo de café es de gran importancia a nivel mundial (ICO, 2011), y en el Ecuador ha sido uno de los cultivos más importantes en la generación de divisas (COFENAC, 2011). Sin embargo en los sistemas productivos de este país se puede apreciar el uso inapropiado de fertilizantes, lo que conlleva a una pérdida de nutrientes, por lo que es importante estudiar las dosis adecuadas para la fertilización tanto mineral como orgánica. El objetivo del trabajo fue evaluar el efecto de la fertilización mineral y orgánica en diferentes dosis en un monocultivo de café en la provincia de Loja, sobre las propiedades del suelo, la emisión de los principales gases que provocan el efecto invernadero y la fenología y productividad del cultivo. En la provincia de Loja (Ecuador) se seleccionó un área de 2.520 m2 en la que se establecieron 21 parcelas de café arábigo (Coffea arabica L.) var. caturra y se aplicó tres tratamientos con tres repeticiones de fertilización mineral y tres orgánicos con dosis: bajas minerales (MIN 1= 157 Kg NPK ha-1 año-1 para el primer año y 425 Kg NPK ha-1 año-1 para el segundo año), medias minerales (MIN 2= 325 Kg NPK ha-1 año-1 para el primer año y 650 Kg NPK ha-1 año-1 en el segundo año) y altas minerales (MIN 3= 487 y 875 Kg NPK ha-1 año-1 para el primer y segundo año respectivamente), bajas orgánicas (ORG 1= 147 Kg NPK ha-1 año-1 en el primer año y 388 Kg NPK ha-1 año-1 en el año dos), medias orgánicas (ORG 2= 265 Kg NPK ha-1 año-1 para el primer año y 541 Kg NPK ha-1 año-1 en el segundo año), altas orgánicas (ORG 3= 368 Kg NPK ha-1 año-1 para el primer año y 727 Kg NPK ha-1 año-1 en el segundo año) y fertilización cero (TES = sin fertilización). Se usó urea, roca fosfórica y muriato de potasio en la fertilización mineral y humus (Bioabor) en la orgánica, más un tratamiento testigo, cada tratamiento tuvo tres repeticiones. El tiempo de evaluación de los fertilizantes aplicados fue de dos años consecutivos, la fertilización se la realizó dos veces por año y en base a análisis del suelo y demandas nutricionales del cultivo. para determinar las características del suelo se realizó muestreos de suelos en cada parcela a una profundidad de 20 cm de estas muestras los parámetro iniciales determinados fueron: color (Munsell), textura (método del hidrómetro), pH (relación 1:2,5 suelo-agua), Materia orgánica (Walkey y Black), Nitrógeno (Micro Kjendahl), Fósforo (Bray y Kurtz), Potasio (Olsen), estos procesos se repitieron cada seis meses para poder evaluar los cambios de que se producen debido a la fertilización mineral y orgánica en el cultivo. Las emisiones de gases efecto invernadero desde el suelo al ambiente se determinaron por el método de cámara cerrada (Rondón, 2000) y la concentración por cromatografía de gases. Las mediciones fisiológicas (altura de planta, ancho de copa, grosor de tallo y producción) se las evaluó cada dos meses, a excepción de la producción que fue anual al término de cada cosecha. Además se realizó el análisis económico de la productividad del cultivo. El análisis estadístico de datos se lo realizó con el programa SPSS v. 17.0. Las medias fueron comprobadas mediante ANOVAS de un factor con test de Tukey (P < 0,05). El beneficio económico se estimó en términos de ingresos y gastos totales que se presentaron en el ensayo. Los resultados obtenidos al término del ensayo indican que los tratamientos MIN 2 y MIN 3 produjeron cambios más significativos en comparación con los otros tratamientos establecidos en la mejora de fertilidad del suelo, el pH ha sido menos afectado en la acidificación en comparación con los tratamientos orgánicos que se han acidificado mayormente; la materia orgánica (MO) tuvo incrementos considerablemente bueno en estos dos tratamientos, sin embargo fueron superados por los tratamientos de fertilización orgánica; el nitrógeno total (Nt )y el potasio (K) también presentaron mejores valores al termino del ensayo y el fósforo (P) mostro incrementos buenos aunque un poco menores que los de los tratamientos ORG 2 y ORG 3. En lo que respecta a las emisiones de gases efecto invernadero, los flujos acumulados de óxido nitroso (N2O) en los dos años han aumentado en todos los tratamientos en comparación con el tratamiento Testigo, pero de manera considerable y con mayores flujos en el tratamiento MIN 3 y MIN 2 que se podrían considerarse los de mayor contaminación por N2O al ambiente lo que se le atribuye a las dosis de fertilización mineral aplicadas en el periodo de investigación, los tratamiento MIN 1 y todos los tratamientos orgánicos muestran menores emisiones al ambiente. Las emisiones de metano (CH4) no muestran mayores diferencias de emisiones entre tratamientos, siendo los mayores emisores los tratamientos ORG 3 y ORG 2 posiblemente debido al abono orgánico y añadido al suelo; para las emisiones de dióxido de carbono (CO2) de manera similar al CH4 el tratamiento ORG 3 fue el que presento mayores emisiones, los flujos de CO2 al ambiente de los otros tratamientos fueron menores y no presentaron diferencias significativas entre ellos. La variables fisiológicas en todos los casos apoyaron al desarrollo de las plantas de café, esto al ser comparadas con el tratamiento Testigo, sin embargo las que alcanzaron las mayores altitudes, anchos de copas y diámetro de tallo fueron las plantas del tratamiento MIN 3, seguido del MIN 3, no mostrando significancia entre ellos, y para los tratamientos orgánicos el que presento muy buenos resultados en estas variables ha sido el ORG 3, el cual no presento diferencias significativas con el MIN 2, lo cual comprueba que la fertilización mineral es más efectiva en este caso frente a la orgánica. Para el primer año de producción el tratamiento mineral con fertilización MIN 3 es el que obtuvo mayor producción no presentando diferencia estadística con el tratamiento con el MIN 2, no obstante fueron significativamente mayores que los otros tratamientos. Vale indicar que también el tratamiento MIN 1 y el tratamiento ORG 3 han presentado una producción considerable de café no mostrando diferencias estadísticas entre ellos. Para el segundo año la producción el cultivo mostró mayores rendimientos que el primer año de evaluación en todos los tratamientos, esto debido a la fisiología propia del cultivo y por otra parte se atribuye a la adición de fertilizantes que se ha realizado durante todo el ensayo; de manera similar al anterior los tratamientos MIN 3 y MIN 2 obtuvieron mejores rendimientos, no enseñando diferencias estadísticas significativas entre ellos, no obstante el tratamiento mineral dosis MEDIA no presentó significancia estadística con el ORG 3. El benéfico económico ha resultado mayor en el tratamiento MIN 3 y MIN 2, aunque el tratamiento MIN 2, es el que obtiene la mejor relación costo-beneficio; los tratamientos ORG 2 y ORG 3 y Testigo has producido beneficios negativos para el productor. En cuanto a la parte ambiental se considera que los mejores tratamientos en cuanto ha cuidado ambiental serían los tratamientos MIN 1 y ORG 1, sin embargo a nivel de producción y rentabilidad para el productor baja. ABSTRACT Coffee growing has great importance worldwide (ICO, 2011), and in Ecuador, it has been one of the most important crops to generate income (COFENAC, 2011). However, in the productive systems of this country, the inappropriate use of fertilizers has been observed which produces loss of nutrients, thus it is important to study suitable doses for mineral and organic fertilizing. The purpose of the study was to evaluate the effect of mineral and organic fertilizing at different doses in a coffee monoculture in the province of Loja on soil characteristics, emission of the main gasses that produce the greenhouse effect and the phenology and productivity of crops. In the province of Loja (Ecuador) an area of 2.520 m2 was chosen, where 21 plots of Arabica coffee (Coffea arabica L.), the caturra variety were cultivated and three treatments with three repetitions each one for mineral and organic fertilization were used with doses that ranged from: mineral low (MIN 1= 157 Kg NPK ha-1 año-1 for the first year y 425 Kg NPK ha-1 año-1 for the second year), mineral medium (MIN 2= 325 Kg NPK ha-1 año-1 for the first year y 650 Kg NPK ha-1 año-1 I the second year) y mineral high (MIN 3= 487 y 875 Kg NPK ha-1 año-1 for the first and second year respectively), organic low (ORG 1= 147 Kg NPK ha-1 año-1 in the first year y 388 Kg NPK ha-1 año-1 in the second year), organics medium (ORG 2= 265 Kg NPK ha-1 año-1 for the first year y 541 Kg NPK ha-1 año-1 in the second year), organics high (ORG 3= 368 Kg NPK ha-1 año-1 for the first year and 727 Kg NPK ha-1 año-1 in the second year) y fertilization zero (TES = no fertilization).; urea, phosphoric rock and muriate of potash were used in the mineral fertilization and humus (Bioabor) in the organic, plus a blank treatment. Time to evaluate the applied fertilizers was for two consecutive years, fertilization was done twice per year based on soil analysis and nutritional requirements of the crops. In order to determine the characteristics of the soil, samples of soil in each plot with a depth of 20 cm were done; from these samples, the determined initial parameters were: color (Munsell), texture (hydrometer method), pH (soil-water 1:2,5 relation), organic matter (Walkey y Black), nitrogen (Micro Kjendahl), phosphorus (Bray y Kurtz), potassium (Olsen); these processes were repeated each six months in order to evaluate the changes that are produced due to mineral and organic fertilization in the crops. The emissions of greenhouse gasses from the soil to the atmosphere were determined by using enclosure method (Rondón, 2000) and the concentration, by using gas chromatography during the whole testing. The physiological measures (plant height, width of the top of the tree, thickness of the stem and production) were evaluated each two months, except for production which was annual at the end of each harvest. Moreover, the economic analysis of the productivity of the crops was done. The statistical analysis of the data was done using SPSS v. 17.0. The means were proved by ANOVAS with a factor of a Tukey test (P < 0,05). The economic benefit was estimated in terms of incomes and total expenses which were presented in the essay. The results obtained at the end of the essay show that the MIN 2 and MIN 3 treatments produced more meaningful changes in comparison with the other treatments used to improve soil fertility; pH was less affected in the acidification compared with the organic treatments which were greatly acidified; organic matter (MO) had increased considerably in these two treatments; however, they were surpassed by the organic treatments of fertilization; total nitrogen (Nt) and potassium (K) also presented better results at the end of the essay and phosphorus (P) showed good increasing figures although a little lower compared with ORG 2 and ORG 3 treatments. Regarding the emission of the greenhouse gasses, the fluxes accumulated from nitrous oxide (N2O) in two years increased in all the treatments in comparison with the blank treatment, but in a greater form and with higher fluxes in the MIN 3 and MIN 2 treatments which can be considered as the ones with greater contamination of N2O in the atmosphere, this can be due to the applied mineral doses to fertilize during the process; MIN 1 treatments and all the organic ones showed lower emission to the atmosphere. Methane emissions (CH4) did not show major differences in emissions in the treatments, being the greater emissions the ORG 3 and ORG 2 treatments; this is possibly due to the organic compost added to the soil; regarding carbon dioxide (CO2) emissions, in a similar way to CH4, the ORG 3 treatment was the one that presented greater emissions, the CO2 emissions to the atmosphere in the other treatments were lower and did not present meaningful differences among them. The physiological variables in all the cases helped coffee crops grow, this was observed when compared with the blank treatment; however, plants that reached the greatest height, width of top and diameter of stem were the plants of the MIN 3 treatment, followed by MIN 3, which did not show much significance among them, and for the organic treatments, the one that presented great results in these variables was ORG 3, which did not show meaningful differences compared with MIN 2, which proves that mineral fertilization is more effective in this case compared with the organic. In the first year of production, the mineral treatment with MIN 3 fertilization obtained greater production and thus did not show statistical difference with MIN 2 treatment, although the other treatments were greater. It is worth mentioning that MIN 1 treatment and ORG 3 treatment presented a meaningful production of coffee, not showing statistical differences among them. For the second year, the production of the crops showed greater profits than in the first year of evaluation in all the treatments, this was due to the physiological properties of the crops and on the other hand, it might be due to the addition of fertilizers during the whole essay; in a similar way, MIN 3 and MIN 2 performed better, not showing greater statistical differences among them, although the mineral treatment MEDIUM doses did not show statistical difference compared with ORG 3. The economic benefit was greater in the MIN 3 and MIN 2 treatments, although MIN 2 treatment is the one that shows the best cost-benefit ratios; ORG 2 and ORG 3 treatments and the blank produced negative benefits for the producer. Regarding the environment, the best treatments to care for the atmosphere are considered to be MIN 1 and ORG 1 treatments; however, regarding production volume and profitability they were low for the producer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis recoje un trabajo experimental centrado en profundizar sobre el conocimiento de los bloques detectores monolíticos como alternativa a los detectores segmentados para tomografía por emisión de positrones (Positron Emission Tomography, PET). El trabajo llevado a cabo incluye el desarrollo, la caracterización, la puesta a punto y la evaluación de prototipos demostradores PET utilizando bloques monolíticos de ortosilicato de lutecio ytrio dopado con cerio (Cerium-Doped Lutetium Yttrium Orthosilicate, LYSO:Ce) usando sensores compatibles con altos campos magnéticos, tanto fotodiodos de avalancha (Avalanche Photodiodes, APDs) como fotomultiplicadores de silicio (Silicon Photomultipliers, SiPMs). Los prototipos implementados con APDs se construyeron para estudiar la viabilidad de un prototipo PET de alta sensibilidad previamente simulado, denominado BrainPET. En esta memoria se describe y caracteriza la electrónica frontal integrada utilizada en estos prototipos junto con la electrónica de lectura desarrollada específicamente para los mismos. Se muestran los montajes experimentales para la obtención de las imágenes tomográficas PET y para el entrenamiento de los algoritmos de red neuronal utilizados para la estimación de las posiciones de incidencia de los fotones γ sobre la superficie de los bloques monolíticos. Con el prototipo BrainPET se obtuvieron resultados satisfactorios de resolución energética (13 % FWHM), precisión espacial de los bloques monolíticos (~ 2 mm FWHM) y resolución espacial de la imagen PET de 1,5 - 1,7 mm FWHM. Además se demostró una capacidad resolutiva en la imagen PET de ~ 2 mm al adquirir simultáneamente imágenes de fuentes radiactivas separadas a distancias conocidas. Sin embargo, con este prototipo se detectaron también dos limitaciones importantes. En primer lugar, se constató una falta de flexibilidad a la hora de trabajar con un circuito integrado de aplicación específica (Application Specific Integrated Circuit, ASIC) cuyo diseño electrónico no era propio sino comercial, unido al elevado coste que requieren las modificaciones del diseño de un ASIC con tales características. Por otra parte, la caracterización final de la electrónica integrada del BrainPET mostró una resolución temporal con amplio margen de mejora (~ 13 ns FWHM). Tomando en cuenta estas limitaciones obtenidas con los prototipos BrainPET, junto con la evolución tecnológica hacia matrices de SiPM, el conocimiento adquirido con los bloques monolíticos se trasladó a la nueva tecnología de sensores disponible, los SiPMs. A su vez se inició una nueva estrategia para la electrónica frontal, con el ASIC FlexToT, un ASIC de diseño propio basado en un esquema de medida del tiempo sobre umbral (Time over Threshold, ToT), en donde la duración del pulso de salida es proporcional a la energía depositada. Una de las características más interesantes de este esquema es la posibilidad de manejar directamente señales de pulsos digitales, en lugar de procesar la amplitud de las señales analógicas. Con esta arquitectura electrónica se sustituyen los conversores analógicos digitales (Analog to Digital Converter, ADCs) por conversores de tiempo digitales (Time to Digital Converter, TDCs), pudiendo implementar éstos de forma sencilla en matrices de puertas programmable ‘in situ’ (Field Programmable Gate Array, FPGA), reduciendo con ello el consumo y la complejidad del diseño. Se construyó un nuevo prototipo demostrador FlexToT para validar dicho ASIC para bloques monolíticos o segmentados. Se ha llevado a cabo el diseño y caracterización de la electrónica frontal necesaria para la lectura del ASIC FlexToT, evaluando su linealidad y rango dinámico, el comportamiento frente a ruido así como la no linealidad diferencial obtenida con los TDCs implementados en la FPGA. Además, la electrónica presentada en este trabajo es capaz de trabajar con altas tasas de actividad y de discriminar diferentes centelleadores para aplicaciones phoswich. El ASIC FlexToT proporciona una excelente resolución temporal en coincidencia para los eventos correspondientes con el fotopico de 511 keV (128 ps FWHM), solventando las limitaciones de resolución temporal del prototipo BrainPET. Por otra parte, la resolución energética con bloques monolíticos leidos por ASICs FlexToT proporciona una resolución energética de 15,4 % FWHM a 511 keV. Finalmente, se obtuvieron buenos resultados en la calidad de la imagen PET y en la capacidad resolutiva del demostrador FlexToT, proporcionando resoluciones espaciales en el centro del FoV en torno a 1,4 mm FWHM. ABSTRACT This thesis is focused on the development of experimental activities used to deepen the knowledge of monolithic detector blocks as an alternative to segmented detectors for Positron Emission Tomography (PET). It includes the development, characterization, setting up, running and evaluation of PET demonstrator prototypes with monolithic detector blocks of Cerium-doped Lutetium Yttrium Orthosilicate (LYSO:Ce) using magnetically compatible sensors such as Avalanche Photodiodes (APDs) and Silicon Photomultipliers (SiPMs). The prototypes implemented with APDs were constructed to validate the viability of a high-sensitivity PET prototype that had previously been simulated, denominated BrainPET. This work describes and characterizes the integrated front-end electronics used in these prototypes, as well as the electronic readout system developed especially for them. It shows the experimental set-ups to obtain the tomographic PET images and to train neural networks algorithms used for position estimation of photons impinging on the surface of monolithic blocks. Using the BrainPET prototype, satisfactory energy resolution (13 % FWHM), spatial precision of monolithic blocks (~ 2 mm FWHM) and spatial resolution of the PET image (1.5 – 1.7 mm FWHM) in the center of the Field of View (FoV) were obtained. Moreover, we proved the imaging capabilities of this demonstrator with extended sources, considering the acquisition of two simultaneous sources of 1 mm diameter placed at known distances. However, some important limitations were also detected with the BrainPET prototype. In the first place, it was confirmed that there was a lack of flexibility working with an Application Specific Integrated Circuit (ASIC) whose electronic design was not own but commercial, along with the high cost required to modify an ASIC design with such features. Furthermore, the final characterization of the BrainPET ASIC showed a timing resolution with room for improvement (~ 13 ns FWHM). Taking into consideration the limitations obtained with the BrainPET prototype, along with the technological evolution in magnetically compatible devices, the knowledge acquired with the monolithic blocks were transferred to the new technology available, the SiPMs. Moreover, we opted for a new strategy in the front-end electronics, the FlexToT ASIC, an own design ASIC based on a Time over Threshold (ToT) scheme. One of the most interesting features underlying a ToT architecture is the encoding of the analog input signal amplitude information into the duration of the output signals, delivering directly digital pulses. The electronic architecture helps substitute the Analog to Digital Converters (ADCs) for Time to Digital Converters (TDCs), and they are easily implemented in Field Programmable Gate Arrays (FPGA), reducing the consumption and the complexity of the design. A new prototype demonstrator based on SiPMs was implemented to validate the FlexToT ASIC for monolithic or segmented blocks. The design and characterization of the necessary front-end electronic to read-out the signals from the ASIC was carried out by evaluating its linearity and dynamic range, its performance with an external noise signal, as well as the differential nonlinearity obtained with the TDCs implemented in the FPGA. Furthermore, the electronic presented in this work is capable of working at high count rates and discriminates different phoswich scintillators. The FlexToT ASIC provides an excellent coincidence time resolution for events that correspond to 511 keV photopeak (128 ps FWHM), resolving the limitations of the poor timing resolution of the BrainPET prototype. Furthermore, the energy resolution with monolithic blocks read by FlexToT ASICs provides an energy resolution of 15.4 % FWHM at 511 keV. Finally, good results were obtained in the quality of the PET image and the resolving power of the FlexToT demonstrator, providing spatial resolutions in the centre of the FoV at about 1.4 mm FWHM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto versa sobre un modelo de evaluación de calidad de imagen aplicado a la optimización del ancho de banda del multiplex de televisión, mediante la realización de ensayos con distintas configuraciones de cabecera. Dicho modelo se basa en las medidas PQR y DMOS de Tektronix, destinadas a medir la percepción de las diferencias entre una secuencia antes y después de sufrir un procesado digital. Dado que actualmente, el modo de trabajo de una cabecera de televisión digital, es la multiplexación estadística (consistente en la codificación de diferentes servicios dedeo con anchos de banda variables en función de la complejidad de las señales), las medidas estarán enfocadas a sacar conclusiones acerca de la cantidad de canales, complejidad de contenidos, y organización de los mismos en el ancho de banda disponible para emitir, manteniendo niveles de calidad Broadcast. Las medidas serán aplicadas en el proyecto para comparar el rendimiento de dos modelos de cabecera. En primer lugar serán configuradas en régimen binario constante, comparando el rendimiento de los codificadores en el área de trabajo habitual. Posteriormente se configuraran en régimen binario variable probando múltiples configuraciones, con el objetivo dar con el modelo y configuración óptima para su posterior implementación. ABSTRACT. This project concerns a picture quality assessment model applied to television multiplex bandwidth optimization by conducting test with different headend settings. This model is based on the PQR and DMOS Tektronix measures, designed to measure the differences between a sequence before and after a digital processing. Given that nowadays the working way of television headend is by statistical multiplexing (based on coding the different video services with variable bitrate depending on the complexity of the signals) measures will be focused to reach conclusions about the number of channels, complexity of content, and the way to organize them through the available bandwidth, keeping broadcast quality ratios. The measures will be applied comparing the performance of two headend models. First of all encoders will be set on constant bitrate, comparing the performance through the working bandwidth. Later on, both models will be set on variable bitrate testing multiple configurations, in order to find the optimal model/configuration for later implementation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto consiste en el diseño completo, de una red de distribución de TDT, a nivel local, mediante difusión SFN, Single Frequency Network. Este tipo de difusión, tiene la capacidad de difundir los servicios de televisión en una única frecuencia, cubriendo un área, ya sea local o estatal, aprovechando en las zonas de interferencia los rebotes de la señal y así evitar el uso de una frecuencia distinta por cada centro de emisión, todos los que componen un área de cobertura. Para el diseño de la red, se ha optado por diseñar una red IP, mediante distribución multicast, ya que esta es la tecnología imperante a día de hoy, quedando obsoleta ya, la distribución analógica, ya que consume muchos más recursos y por consiguiente mucho más costosa de implementar. El documento se divide en cuatro capítulos. En el primer capítulo se realizará una introducción teórica a las redes de distribución SFN, centrándose en el cálculo de los retardos, punto fundamental en el diseño de este tipo de redes. Se continuará unas nociones básicas de redes IP y el protocolo multicast, en el que se basa el trasporte de la señal. El capítulo dos, se centra en el diseño de la red, desde los centros de producción, donde se generan los programas a emitir, hasta los diferentes centros de difusión que cubrirán todo el área de cobertura requerida, pasando por el centro de multiplexación, donde se sitúa la cabecera que compondrá el múltiplex a difundir. Se describirán los equipos y el diseño de los distintos centros que conforman la red, centros de producción, multiplexación y difusión. A demás se realizará el cálculo de retardo de la señal, necesario en este tipo de redes. Se continuará con el capítulo tres, donde se describirá la configuración de la red, tanto a nivel de equipamiento, como el diseño y asignación IP de toda la red, separando la red de servicio de la red de gestión para una mayor confiabilidad y eficiencia de la red. Se finalizará con la descripción de la gestión de la red, que mediante diferentes herramientas, proporcionan un monitoreado en tiempo real de todo el sistema, dando la posibilidad de adelantarsey previniendo posibles incidencias que, puedan causar alguna deficiencia en el servicio que se entrega al usuario final. ABSTRACT. This project involves the complete design of a network´s TDT distribution, locally, by broadcast SFN (Single Frequency Network). This type of broadcast, has the ability to broadcast television´s services on a single frequency, covering an area, whether local or state, drawing on the interference zones, signal´s rebounds, to avoid the use of a different frequency each broadcast center, all those who make a coverage area. For the design of the network, has been chosen to design an IP network using multicast distribution, since this is the prevailing technology today, as the analogue distribution, consumes more resources and therefore, much more costly to implement. The document is divided into four chapters. In the first chapter you can find a theoretical introduction to SFN distribution networks, focusing on the calculation of delays, fundamental point, in the design of these networks. A basic understanding of IP networks and the multicast protocol, in which the transport of the signal is based, will continue. Chapter two focuses on the design of the network, from production centers, where the programs are created to broadcast, to different distribution centers covering the entire area of coverage required, through the multiplexing center, where the head is located, which comprise the multiplex. Also, the equipment and design of the various centers in the network, production centers, multiplexing center and distribution centers, are described. Furthermore, the calculation of signal delay, necessary in such networks, is performed. We will continue with the chapter three, where the network configuration will be described, both in termsofequipment, such as design IP mapping of the entire network, separating the service network and management network, for increased the reliability and efficiency of the network. It will be completed with the description of the management of the network, using different tools provide real-time monitoring of the entire system, making it possible, to anticipate and prevent any incidents that might cause a deficiency in the service being delivered to final user.