25 resultados para Fricción-pruebas

em Universidad Politécnica de Madrid


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un modelo térmico de una caja de engranajes brinda la oportunidad de realizar un estudio más profundo sobre el calor disipado, relacionado con la pérdida de rendimiento en la transmisión por engranajes, hasta ahora sólo conocido indirectamente a través de ciertos ensayos. Un programa basado en un sistema de ecuaciones diferenciales ordinarias fue desarrollado en MATLAB para hacer el modelado térmico de una caja de ensayos de engranajes FZG. Dependiendo de las condiciones de funcionamiento del equipo, como son el nivel de precarga aplicada a los engranajes, el nivel de aceite usado en lubricación por barbotaje, la velocidad de la rueda y el tipo de acabado de los engranajes, se obtendrá distintos resultados. El modelo está basado en una red térmica en la cual cada nodo representa un elemento del equipo. Con las resistencias térmicas, los valores de las pérdidas de potencia (generadores de calor) y la inercia térmica de cada elemento, la evolución de la temperatura en el tiempo fue obtenida aplicando el primer principio de la termodinámica a cada nodo en cada instante de tiempo. Gracias a esto, la transferencia de calor entre los distintos elementos, las pérdidas de potencia, las resistencias térmicas y otros posibles parámetros (ratio del calor transmitido de las ruedas al aceite sobre las pérdidas por fricción) fueron también estimados en cada instante de tiempo en forma de matrices o vectores. Los resultados muestran una amplia capacidad y versatilidad del programa en términos de análisis térmico: el sentido y magnitud del flujo calorífico, herramientas visuales como la animación de la red térmica y de los elementos de la caja conforme se va calentando y la posibilidad de análisis térmico para diferentes condiciones de funcionamiento con sólo cambiar ciertas variables en el programa. Con estas funciones es posible dar un enfoque y abordar el estudio de la mínima cantidad de lubricante necesaria y otras maneras de amortiguar el sobrecalentamiento, además de conocer la temperatura de contacto entre engranajes. Esta temperatura, que es imposible de determinar experimentalmente, supondría un gran avance para tratar el desgaste superficial de engranajes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente trabajo se desarrolla una metodología para poder determinar los coeficientes de fricción tanto estático como dinámico aplicable a diferentes especies de madera. Para desarrollar dicha metodología se utilizan las instalaciones que posee la Plataforma de Enxeñería da Madeira Estructural (PEMADE) donde hay una mesa que permite la realización de ensayos de rozamiento. Se realizan ensayos utilizando una especie de madera muy usada en estructuras como es la Picea abies (L) Karst. La humedad de la madera es del 12%, ya que según indica la actual norma UNE-EN 408, los ensayos para la determinación de las propiedades físicas y mecánicas de la madera estructural se deben de hacer con ese contenido de humedad. Finalmente, decir que este trabajo de investigación sienta las bases para realizar posteriores campañas de ensayos con esta base metodológica que permitan, para diferentes especies de madera y humedades, obtener rangos de valores de los coeficientes de rozamiento estático y dinámico para las principales especies de madera de uso estructural. This research develops a methodology to determine the coefficients of both static and dynamic friction apply to different species of wood. To develop such a methodology is used the installations owned by the Plataforma de Enxeñería da Madeira Estructural (PEMADE) where there is a table that allows testing of friction. Tests are carried out using a wood species normally used in structures such as Picea abies (L) Karst. The wood moisture content is 12%, and that, according to the current UNE-EN 408 norm, the tests for determining the physical and mechanical properties of structural timber should do with that moisture content. Finally, it can say that this research provides the basis for subsequent test campaigns with this methodological basis to obtain, for different wood species and moisture, the ranges of values of the coefficients of static and dynamic friction for major wood species for structural use.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En 2005, un grupo de profesores de la Universidad Politécnica de Madrid (UPM) constituyó el Grupo de Innovación Educativa DMAE-DIA que fue reconocido como tal por la UPM en 2006 y en 2009. A posteriori, se han incorporado al grupo profesores de la Universidad Complutense de Madrid y de la Universidad Rey Juan Carlos Las líneas de actuación prioritarias del grupo son la evaluación de competencias genéricas y las metodologías de aprendizaje activo. Desde entonces estamos realizando evaluaciones sobre la adquisición por parte de estudiantes de ingeniería de algunas competencias genéricas. En este trabajo mostraremos las dos estrategias que estamos utilizando para evaluar la adquisición de competencias transversales: test psicométricos y pruebas (genéricas y específicas) con contenidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistema de seguimiento del instrumental laparoscópico basado en marcas artificiales: pruebas iniciales

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se muestra en este artículo el trabajo realizado durante las pruebas de carga de puesta en servicio del Nuevo Puente de Ventas sobre la M-30 de Madrid, con el fin de determinar los desplazamientos producidos mediante la aplicación de técnicas GPS, así como la discusión de precisiones obtenidas y posibilidades que encierra este tipo de sistemas de instrumentación de deformaciones en obra civil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con objeto de minimizar la fricción y desgaste, la industria diseña sus máquinas para que estas funcionen en régimen elastohidrodinámico durante el mayor tiempo posible. Científicos de todos los tiempos han dedicado sus vidas al estudio de la lubricación en régimen de película gruesa. Con especial interés, Ingenieros del último siglo y medio han realizado multitud de experimentos y, con los medios disponibles en su momento, han analizado y tabulado resultados, con objeto de disponer de herramientas que permitieran calcular la fuerza de fricción en contactos EHD. En el presente trabajo de tesis se ha elaborado un modelo propio de lubricación en régimen elastohidrodinámico. Este modelo permite la resolución del problema EHD por dos vías. En primer lugar la resolución analítica del problema EHD permite obtener de forma rápida valores aproximados de coeficiente de fricción y espesor de película, comprobar las hipótesis de cada modelo, y estudiar la influencia de los parámetros. En segundo lugar es posible resolver el problema EHD de forma numérica, realizándose un cálculo totalmente paramétrico de coeficiente de fricción y de la película lubricante. El cálculo se realiza de forma interactiva y a través de una herramienta informática. El objetivo del trabajo es disponer de una herramienta que aplicada a cualquier contacto tribológico (engranajes, rodamientos, etc), permita estudiar su eficiencia, predecir flash de temperatura, posibilidad de fallo por desgaste o gripado. Para el ajuste del modelo ha sido necesaria la realización de unos experimentos previos de ajuste de los equipos de ensayo. Los equipos de ensayo de laboratorio nos ofrecen unos resultados de coeficiente de fricción. Estos valores son introducidos en los modelos de la teoría elastohidrodinámica clásica disponibles en la literatura. Los modelos nos permiten estimar valores teóricos de coeficiente de fricción y espesor de película, que son contrastados con los valores de coeficiente de fricción obtenidos experimentalmente. Por repetición de experiencias ha sido posible ajustar los parámetros de material y lubricante que definen los modelos, hasta ajustar los resultados calculados con los obtenidos por vía experimental. Este ajuste ha permitido comprobar los cálculos y validar las hipótesis de los regímenes y condiciones de operación de los equipos de ensayo. Finalmente se han empleado los parámetros de material y lubricante obtenidos, para formar el modelo EHD propio. Introduciendo en el modelo los resultados obtenidos, es posible calcular el espesor de película y el coeficiente de fricción, para cualquier condición de velocidad, temperatura y carga. Para la elaboración de este modelo se ha partido de las ecuaciones de estado de la hidrodinámica (Ley de Continuidad de Reynols). Este modelo predice el comportamiento ideal en régimen hidrodinámico. Para aproximarnos al régimen elastohidrodinámico no es posible considerar a los cuerpos en contacto como sólidos rígidos que mantienen su geometría inalterada, y por tanto se introducen en este modelo las leyes que consideran la deformación elástica de los materiales. Por último es necesario tener en cuenta que sólo cuando el fluido lubricante está sometido a bajas velocidades de deformación y las condiciones de carga no son elevadas, es posible considerar su comportamiento ideal newtoniano, según el cual la tensión tangencial que ofrece es proporcional al gradiente de velocidad al que se encuentra sometido. Para el ajuste del modelo y adecuada predicción de la película lubricante es necesario introducir modelos de comportamiento del lubricante más complejos que tienen en cuenta las propiedades viscoelásticas de este, tales como Newton/Barus, Tensión Cortante Límite y Carreau. Para ello se han tomado medidas reológicas de los fluidos a distintas presiones y temperaturas. Se ha demostrado que los modelos isotermos no predicen adecuadamente el coeficiente de fricción en condiciones de funcionamiento con deslizamientos elevados, debido al calentamiento del aceite por compresión y cizalla. Es estos casos es necesario emplear un modelo termoelastohidrodinámico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el campo de la Ingeniería de Protocolos es fundamental el papel que han tomado los organismos normalizadores de Servicios y Sistemas de Comunicaciones, como ISO e ITU. En este entorno, las Técnicas de Descripción Formal son un mecanismo clave para el diseño y especificación de dichos protocolos.Esta actividad ha surgido, en gran parte, debida a las necesidades de interconectividad, que está alcanzando niveles difícilmente imaginables hace pocos añoos: se pretende que sistemas heterogéneos y completamente diferentes cooperen y trabajen de forma distribuida o, simplemente, que intercambien volúmenes de información cada vez mayores. Surgen normas y recomendaciones a partir de iniciativas públicas orientadas a proporcionar normas en los servicios y protocolos de comunicaciones; normas que los fabricantes deben cumplir y organismos independientes deben certificar u homologar. Existen dos campos de actuación bien diferentes: por un lado, las normas deben ser precisas y no contener ambigüedades . Por otro, es necesario comprobar que el producto se atiene a la norma. Este proceso se realiza en base a unas pruebas denominadas de Conformidad. l primer campo es el causante directo del desarrollo de las FDTs. El segundo, ha provocado que ISO normalice un entorno específico y una metodología para el desarrollo y ejecución de Pruebas de Conformidad: la norma ISO-9646. En este entorno tiene lugar el desarrollo de la presente tesis. Como objetivos fundamentales se ha trabajado en 1) conceptualización y subsiguiente formalización del proceso de ejecución de Pruebas de Conformidad y elementos integrantes en las arquitecturas de pruebas, y 2) definición de una métrica de cobertura que aproveche la existencia de especificaciones formales como elemento de referencia para la generación de las pruebas de conformidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivo: Analizar el grado de relación entre cuatro pruebas que valoran la funcionalidad de la marcha en sujetos jóvenes con daño cerebral adquirido (DCA) en fase subaguda y conocer el grado de relación entre estas pruebas y la percepción subjetiva de seguridad en actividades de la vida diaria. Metodología: 67 participantes jóvenes con DCA en fase subaguda (43 hombres y 24 mujeres) con una edad media 35,09 años. Se realizó estadística descriptiva de todas las variables demográficas: género, edad, IMC, meses desde que se produjo la lesión y etiología lesional. Para analizar si existe correlación entre las variables se utilizó el coeficiente de Pearson. Resultados: El Timed 10-Meter Walk presenta una correlación muy alta con Timed Up and Go (TUG) (r=093), alta con el 6-Minute Walk Test (r=0,77) y moderada con el Step Test (r=0,56). El 6-Minute Walk Test presenta una correlación alta con el TUG (r=0,82) y una correlación moderada con el Step Test (r=0,69). El Step Test presenta una correlación moderada con el TUG (r= -0,68). The Activities-specific Balance Confidence Scale (ABC) presenta una correlación moderada con el Timed 10-Meter Walk (r=0,42), TUG (R=0,40), 6-Minute Walk Test (r=0,40) y Step Test (r=0,44). Conclusiones: Las pruebas de funcionalidad de la marcha presentan una correlación significativa entre moderada y muy alta en personas jóvenes con DCA. El ABC presenta una correlación significativa moderada con las cuatro variables de funcionalidad de la marcha analizadas en esta población

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde hace ya muchos años, uno de los servicios de telecomunicaciones más demandado por los españoles ha sido la televisión de pago, complementando y ampliando la oferta de contenidos audiovisuales que habitualmente son ofrecidos de manera gratuita por la televisión analógica y recientemente por la televisión digital terrestre o TDT. Estos servicios de video, han sido tradicionalmente ofrecidos por operadores satélites, operadores de cable u otros operadores de telecomunicaciones con los que a través de una conexión de datos (ADSL, VDSL o fibra óptica), ofrecían sus contenidos a través de IP. La propia evolución y mejora de la tecnología utilizada para la emisión de contenidos sobre IP, ha permitido que a día de hoy, la televisión se conciba como un servicio Over The Top (OTT) ajeno al medio de transmisión, permitiendo a cualquier agente, distribuir sus contenidos audiovisuales de manera sencilla y a todos sus clientes en todas las partes del mundo; siendo solamente necesario disponer de una conexión a internet. De esta manera, el proyecto desarrollado va a girar en torno a la herramienta StormTest de la empresa S3Group, comprada por CENTUM Solutions (empresa especializada en ofrecer servicio de ingeniería para sistema de comunicaciones, control e inteligencia de señal) con el objetivo de satisfacer las necesidades de sus clientes y con la que en definitiva se ha contado para la realización de este proyecto. El principal objetivo de este proyecto es la definición e implementación de un banco de pruebas que permita optimizar los procesos de validación técnica, mejorando los tiempos de ejecución y concentrando la actividad de los ingenieros en tareas de mayor valor. Para la realización de este proyecto, se han fijado diversos objetivos necesarios para el desarrollo de este tipo de actividades. Los principales son los siguientes:  Análisis de la problemática actual: donde en los procesos de aceptación técnica se dedica muchas horas de trabajo para la realización de pruebas repetitivas y de poco valor las cuales se pueden automatizar por herramientas existentes en el mercado.  Búsqueda y selección de una herramienta que satisfaga las necesidades de pruebas.  Instalación en los laboratorios.  Configuración y adaptación de la herramienta a las necesidades y proyectos específicos. Con todo ello, este proyecto cubrirá los siguientes logros:  Reducir los tiempos de ejecución de las campañas de pruebas, gracias a la automatización de gran parte ellas.  Realizar medidas de calidad subjetiva y objetiva complejas, imposibles de ejecutar a través de las personas. Mejorar y automatizar los sistemas de reporte de resultados. Abstract: Many years ago, one of the telecommunications services most demanded in Spain has been pay television, complementing and extending the offer of audiovisual content which are usually offered for free by analog tv and recently by digital terrestrial televisión or TDT. These video services, have been traditionally offered by satellite operators, cable operators or other telecommunications operators that through a data connection (ADSL,VDSL or fiber optic), offered its content over IP. The evolution and improvement of the technology used for broadcasting over IP, has allowed that to date, television is conceived as a service Over The Top (OTT), not dependent on the transmission medium, allowing any agent to distribute audiovisual content in a very simple way and to all its customers in all parts of the world; being only necessary to have an decent internet connection. In this way, the project will have relation with S3Group’s StormTest tool, bought by CENTUM Solutions (company specialized in engineering services for communications, control and signal intelligence system) with the aim of satisfying the needs of its customers and which ultimately has counted for the realization of this project. The main objective of this project is the definition and implementation of a test bench that allows to optimize the processes of technical validation, improving execution times and concentrating the activities of engineers on higher value tasks. For the realization of this project, it has been defined several objectives necessary for the development of this type of activity. The most important tones are listed below:  Analysis of the current situation: where in technical acceptance processes it is dedicated many hours of work for the completion of repetitive testing and without value which can be automated by tools available on the market  Search and selection of a tool that meets the needs of testing.  Installation on the laboratories.  Configuration and customization of the tool to specific projects. With all this, this project will cover the following achievements: Reduce the execution time of the testing campaigns, thanks to the automation of many of them.  Measurements of subjective and objective quality tests, impossible to run with engineers (due to subjective perception). Improve and automate reporting of results systems

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se presenta una solución para mejorar el rendimiento de los robots móviles con ruedas que se desplacen sobre superficies con un bajo coeficiente de fricción estática. En estas circunstancias, los robots móviles con ruedas pueden experimentar pérdidas de tracción, y por tanto, sufrir deslizamientos a lo largo de la superficie. La solución descrita propone la utilización de una configuración especial para el robot móvil, en la que todas las ruedas son accionadas de forma independiente, y una estructura de control que consta de tres partes bien diferenciadas: un controlador de seguimiento con realimentación de estado basado en el modelo cinemático del robot, una extensión de la ley de control cinemático resultante para incorporar la dinámica del robot móvil utilizando backstepping, y un algoritmo de distribución de la fuerza de tracción global, que calcula las señales de referencia adecuadas para cada una de las ruedas. Con esta estructura se consigue controlar la posición y la velocidad del robot móvil, y al mismo tiempo, distribuir la fuerza de tracción global entre las ruedas, evitando así el deslizamiento del robot. El funcionamiento de los algoritmos de control es evaluado mediante pruebas experimentales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente proyecto fin de carrera, realizado por el ingeniero técnico en telecomunicaciones Pedro M. Matamala Lucas, es la fase final de desarrollo de un proyecto de mayor magnitud correspondiente al software de vídeo forense SAVID. El propósito del proyecto en su totalidad es la creación de una herramienta informática capacitada para realizar el análisis de ficheros de vídeo, codificados y comprimidos por el sistema DV –Digital Video-. El objetivo del análisis, es aportar información acerca de si la cinta magnética presenta indicios de haber sido manipulada con una edición posterior a su grabación original, además, de mostrar al usuario otros datos de interés como las especificaciones técnicas de la señal de vídeo y audio. Por lo tanto, se facilitará al usuario, analista de vídeo forense, información que le ayude a valorar la originalidad del contenido del soporte que es sujeto del análisis. El objetivo específico de esta fase final, es la creación de la interfaz de usuario del software, que informa tanto del código binario de los sectores significativos, como de su interpretación tras el análisis. También permitirá al usuario el reporte de los resultados, además de otras funcionalidades que le permitan la navegación por los sectores del código que han sido modificados como efecto colateral de la edición de la cinta magnética original. Otro objetivo importante del proyecto ha sido la investigación de metodologías y técnicas de desarrollo de software para su posterior implementación, buscando con esto, una mayor eficiencia en la gestión del tiempo y una mayor calidad de software con el fin de garantizar su evolución y sostenibilidad en el futuro. Se ha hecho hincapié en las metodologías ágiles que han ido ganando relevancia en el sector de las tecnologías de la información en las últimas décadas, sustituyendo a metodologías clásicas como el desarrollo en cascada. Su flexibilidad durante el ciclo de vida del software, permite obtener mejores resultados cuando las especificaciones no están del todo definidas, ajustándose de este modo a las condiciones del proyecto. Resumiendo las especificaciones técnicas del software, C++ es el lenguaje de programación orientado a objetos con el que se ha desarrollado, utilizándose la tecnología MFC -Microsoft Foundation Classes- para la implementación. Es un proyecto MFC de tipo cuadro de dialogo,creado, compilado y publicado, con la herramienta de desarrollo integrado Microsoft Visual Studio 2010. La arquitectura con la que se ha estructurado es la arquetípica de tres capas, compuesta por la interfaz de usuario, capa de negocio y capa de acceso a datos. Se ha visto necesario configurar el proyecto con compatibilidad con CLR –Common Languages Runtime- para poder implementar la funcionalidad de creación de reportes. Acompañando a la aplicación informática, se presenta la memoria del proyecto y sus anexos correspondientes a los documentos EDRF –Especificaciones Detalladas de Requisitos funcionales-, EIU –Especificaciones de Interfaz de Usuario , DT -Diseño Técnico- y Guía de Usuario. SUMMARY. This dissertation, carried out by the telecommunications engineer Pedro M. Matamala Lucas, is in its final stage and is part of a larger project for the software of forensic video called SAVID. The purpose of the entire project is the creation of a software tool capable of analyzing video files that are coded and compressed by the DV -Digital Video- System. The objective of the analysis is to provide information on whether the magnetic tape shows signs of having been tampered with after the editing of the original recording, and also to show the user other relevant data and technical specifications of the video signal and audio. Therefore the user, forensic video analyst, will have information to help assess the originality of the content of the media that is subject to analysis. The specific objective of this final phase is the creation of the user interface of the software that provides information about the binary code of the significant sectors and also its interpretation after analysis. It will also allow the user to report the results, and other features that will allow browsing through the sections of the code that have been modified as a secondary effect of the original magnetic tape being tampered. Another important objective of the project is the investigation of methodologies and software development techniques to be used in deployment, with the aim of greater efficiency in time management and enhanced software quality in order to ensure its development and maintenance in the future. Agile methodologies, which have become important in the field of information technology in recent decades, have been used during the execution of the project, replacing classical methodologies such as Waterfall Development. The flexibility, as the result of using by agile methodologies, during the software life cycle, produces better results when the specifications are not fully defined, thus conforming to the initial conditions of the project. Summarizing the software technical specifications, C + + the programming language – which is object oriented and has been developed using technology MFC- Microsoft Foundation Classes for implementation. It is a project type dialog box, created, compiled and released with the integrated development tool Microsoft Visual Studio 2010. The architecture is structured in three layers: the user interface, business layer and data access layer. It has been necessary to configure the project with the support CLR -Common Languages Runtime – in order to implement the reporting functionality. The software application is submitted with the project report and its annexes to the following documents: Functional Requirements Specifications - Detailed User Interface Specifications, Technical Design and User Guide.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La implantación de la televisión digital en España ha supuesto un conjunto de desafíos técnicos y de orden práctico que se han ido acometiendo en multitud de ámbitos, desde la legislación que normaliza las infraestructuras comunes de telecomunicación hasta los cambios en las instalaciones y receptores donde el usuario final recibe los servicios. Por la complejidad y el carácter interdisciplinar de los conocimientos necesarios el aprendizaje de los titulados dentro del ámbito de la Telecomunicación supone también un reto importante. Este proyecto realiza una primera aproximación a un conjunto de herramientas hardware y software de ayuda a la enseñanza de esta amplia disciplina. El proyecto se ha realizado en torno a Labmu laboratorio multiusuario para prácticas de televisión digital de la empresa Xpertia. Se ha realizado para conocer y documentar sus posibilidades. También se ha documentado la tarjeta moduladora DTA-111 y el software para Windows StreamXpress. Estos sistemas ofrecen muchas posibilidades para la docencia de la televisión digital en todas las áreas desde la codificación fuente hasta la decodificación en el usuario final. En particular para ambos sistemas se han realizado pruebas en radiofrecuencia de emisiones de TDT. También se han establecido algunas ideas para trabajo futuro con estos sistemas. El proyecto se divide en seis capítulos: Capitulo 1: En el primer capítulo titulado Introducción se presenta el proyecto. Capítulo 2: En el segundo capítulo titulado Composición Hardware Labmu se presentan todos los componentes del laboratorio Labmu con la descripción de cada componente y sus características técnicas. Así mismo se presenta el interconexionado y configuración con que se ha trabajado. Capítulo 3: En el tercer capítulo titulado Software Labmu se describe como manual de usuario todos los componentes y posibilidades de software de Labmu. Capítulo 4: En el cuarto capítulo titulado Medidas con Labmu se realiza las medidas de MER, CBER, VBER, C/N y potencia de canal de los canales emitidos en la Comunidad de Madrid, comparando estas medidas con el analizador Promax Prodig-5. Capítulo 5: En el quinto capítulo titulado Tarjeta receptora y software se describe la tarjeta DTA-111 y el software StreamXpress, realizando medidas con el analizador Promax Prodig-5 introduciendo errores a la señal emitida por la tarjeta, y estudiando los niveles límites de visualización correcta. Capítulo 6: En el sexto y último capítulo titulado Conclusiones se presentan las conclusiones del proyecto y un plan de trabajo futuro ABSTRACT. The implantation of Digital Television in Spain (TDT) has implied a number of technical and practical challenges in several scopes. These challenges range from recommendations that standardize common telecommunications infrastructure to the changes in facilities where the end user receives digital services. The complexity and the interdisciplinary nature of skills that graduate Telecommunications students need to learn, is also a major challenge. This project is a first approach of a set of hard ware and software tools to help in the task of teaching this broad range discipline. The project has been carried out on Labmu, a multiuser Digital Television laboratory created by the Xpertia company. Its objectives are to understand and document this range of possibilities. DTA-111 modulator card and software for Windows StreamXpress have also been documented. These systems offer many options for teaching digital television in all areas, from source coding to end user decoding. In particular, both systems were tested on RF emissions in TDT. More over some ideas for future work with these systems have also foreseen. The project is structured in six chapters: Chapter1: This section Introduces the project. Chapter2: Titled “The Composition Hardware Labmu” presents Labmu lab components and provides descriptions for each component and its technical characteristics. It also presents the interconnection and configuration we have been using. Chapter3: Titled “Software Labmu” is a user manual, describing all components and software possibilities Labmu offers. Chapter4: Titled “Measures to Labmu” presents MER, CBER, VBER, C /N and channel power measures provided by Labmu in comparison with Promax Prodig-5 measures for all channels broad casting digital television services in the Community of Madrid. Chapter 5 Titled “Receiver card and software” describes DTA-111 card and software StreamXpress. Also the effects of errors insertion performed by this card are measured with the PromaxProdig-5 meter. Threes hold levels for correct reception are also studied. Chapter6: Entitled Conclusions presents the conclusions of the project and a plan for future work.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A lo largo de los últimos años, el paradigma de la arquitectura orientada a servicios ha tenido una gran expansión gracias a la expansión de las tecnologías web e internet. Las ventajas de esta arquitectura se basan en ofrecer diseños modulares con poco acoplamiento entre sí, lo que permite la creación eficiente y sistemática de sistemas distribuidos. Para que este tipo de arquitectura sea posible, es necesario dotar a los servicios de interfaces de interconexión que permitan encapsular los servicios al mismo tiempo que faciliten el uso de los mismos. Existen varias tecnologías para definir estos interfaces. Entre ellas, los servicios REST, o REpresentional State Transfer, están logrando cada vez más aceptación. Esto se debe principalmente a su capacidad de escalabilidad y la uniformidad de sus interfaces, que permite una mayor separación entre los consumidores y los servicios. De hecho, compañias como Yahoo, Google o Twitter definen interfaces REST de acceso a sus servicios, ya se para consultar mapas (GoogleMaps), imágenes (Flickr) o el correo, permitiendo a terceros desarrollar clientes para sus servicios sin tener que involucrarse en su producción.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Análisis de los indicadores de rendimiento en las finales europeas de natación en pruebas cortas y en estilo libre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Ingeniería del Software Empírico (ISE) utiliza como herramientas los estudios empíricos para conseguir evidencias que ayuden a conocer bajo qué circunstancias es mejor usar una tecnología software en lugar de otra. La investigación en la que se enmarca este TFM explora si las intuiciones y/o preferencias de las personas que realizan las pruebas de software, son capaces de predecir la efectividad de tres técnicas de evaluación de código: lectura por abstracciones sucesivas, cobertura de decisión y partición en clases de equivalencia. Para conseguir dicho objetivo, se analizan los datos recogidos en un estudio empírico, realizado por las tutoras de este TFM. En el estudio empírico distintos sujetos aplican las tres técnicas de evaluación de código a tres programas distintos, a los que se les habían introducido una serie de faltas artificialmente. Los sujetos deben reportar los fallos encontrados en los programas, así como, contestar a una serie de preguntas sobre sus intuiciones y preferencias. A la hora de analizar los datos del estudio, se ha comprobado: 1) cuáles son sus intuiciones y preferencias (mediante el test estadístico X2 de Pearson); 2) si los sujetos cambian de opinión después de aplicar las técnicas (para ello se ha utilizado índice de Kappa, el Test de McNemar-Bowker y el Test de Stuart-Maxwell); 3) la consistencia de las distintas preguntas (mediante el índice de Kappa), comparando: intuiciones con intuiciones, preferencias con preferencias e intuiciones con preferencias; 4) Por último, si hay coincidencia entre las intuiciones y preferencias con la efectividad real obtenida (para ello se ha utilizado, el Modelo Lineal General con medidas repetidas). Los resultados muestran que, no hay una intuición clara ni tampoco una preferencia concreta, con respecto a los programas. Además aunque existen cambios de opinión después de aplicar las técnicas, no se encuentran evidencias claras para afirmar que la intuición y preferencias influyen en su efectividad. Finalmente, existen relaciones entre las intuiciones con intuiciones, preferencias con preferencias e intuiciones con preferencias, además esta relación es más notoria después de aplicar las técnicas. ----ABSTRACT----Empirical Software Engineering (ESE) uses empirical studies as a mean to generate evidences to help determine under what circumstances it is convenient to use a given software technology. This Master Thesis is part of a research that explores whether intuitions and/or preferences of testers, can be used to predict the effectiveness of three code evaluation techniques: reading by stepwise abstractions, decision coverage and equivalence partitioning. To achieve this goal, this Master Thesis analyzes the data collected in an empirical study run by the tutors. In the empirical study, different subjects apply three code evaluation techniques to three different programs. A series of faults were artificially introduced to the programs. Subjects are required to report the defects found in the programs, as well as answer a series of questions about their intuitions and preferences. The data analyses test: 1) what are the intuitions and preferences of the subjects (using the Pearson X2 test); 2) whether subjects change their minds after applying the techniques (using the Kappa coefficient, McNemar-Bowker test, and Stuart-Maxwell test); 3) the consistency of the different questions, comparing: intuitions versus intuitions, preferences versus preferences and preferences versus intuitions (using the Kappa coefficient); 4) finally, if intuitions and/or preferences predict the actual effectiveness obtained (using the General Linear Model, repeated measures). The results show that there is not clear intuition or particular preference with respect to the programs. Moreover, although there are changes of mind after applying the techniques, there are not clear evidences to claim that intuition and preferences influence their effectiveness. Finally, there is a relationship between the intuitions versus intuitions, preferences versus preferences and intuitions versus preferences; this relationship is more noticeable after applying the techniques.