934 resultados para Medida de similaridad


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta tesis se desarrolla una investigación sobre las técnicas de medida de descargas parciales (DP) que se aplican en medidas on-line, en condiciones normales de operación de las instalaciones eléctricas de alta tensión (AT). También se realiza un estudio de técnicas avanzadas de procesado y análisis de las señales medidas, que permiten realizar diagnósticos precisos del estado de los aislamientos eléctricos de AT. Uno de los objetivos fundamentales de la tesis ha sido disponer de un procedimiento eficaz de medida y procesado de las señales de DP, para la realización de medidas on-line tanto de forma itinerante, como mediante monitorización temporal o permanente. La implementación del nuevo procedimiento de medida permite obtener resultados satisfactorios en la detección, identificación y localización de defectos de aislamiento. Se ha dedicado especial interés al desarrollo de un método de clasificación de señales, que permite separar pulsos de ruido y diferentes fuentes de DP, presentes de forma simultánea en las instalaciones de AT. El estudio de la clasificación de señales se ha completado con la aplicación de un método para la detección de manera asistida, de los diferentes grupos de pulsos de ruido y de DP. La aplicación de este método de detección de grupos de pulsos, facilita la labor de los técnicos especialistas a la hora de diagnosticar el estado de los elementos aislantes. Al efecto de verificar de forma práctica las aportaciones de la tesis, se han realizado medidas de DP tanto en laboratorio como en campo. Las medidas experimentales en laboratorio se han efectuado en el Laboratorio de Alta Tensión de la Escuela Técnica Superior de Ingeniería y Diseño Industrial (LAT-UPM), de la Universidad Politécnica de Madrid. Por otro lado, las medidas experimentales en campo se han llevado a cabo en instalaciones de AT propiedad de compañías de transporte y distribución de energía eléctrica. La realización de ensayos de DP en estas instalaciones ha sido posible, gracias a los proyectos de investigación llevados a cabo por el grupo de trabajo del LAT-UPM, con diferentes empresas del sector durante los diez últimos años. ABSTRACT This thesis develops techniques for measuring partial discharges (PD) that are applied in on-line measurements, under normal operating conditions of the high voltage (HV) electrical installations. In addition there are studied advanced techniques for the processing and analysis of the measured signals, that permit precise diagnostics of the state of HV electrical insulation systems. One of the fundamental objectives of the thesis is to make available an effective procedure for measuring and processing PD signals, for making on-line measurements, either in an itinerant way or in temporary or permanent monitoring. The implementation of the new measurement procedure yields satisfactory results in the detection, identification and localization of insulation defects. Special attention has been devoted to the development of a method for classifying signals, that separates noise pulses and various PD sources present simultaneously in the HV installations. The study of the classification of signals has been completed by the application of a method for detecting, in a user assisted manner, the different groups of noise pulses and of PD. The application of this method for detecting groups of pulses facilitates the work of the specialist technicians to diagnose the condition of the insulation elements. To demonstrate the practical value of the thesis, PD measurements were made in laboratory as well as in field installations. The experimental measurements in laboratory were made in the High Voltage Laboratory (LAT-UPM) of the High Technical School of Engineering and Industrial Design, of the Polytechnic University of Madrid. Field measurements were realized in the HV installations of companies providing electrical energy transport and distribution. The realization of PD tests in these facilities was possible thanks to the research projects carried out by the working group of the LAT-UPM during the last ten years, with different companies operating in the sector.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto fin de grado presenta dos herramientas, Papify y Papify-Viewer, para medir y visualizar, respectivamente, las prestaciones a bajo nivel de especificaciones RVC-CAL basándose en eventos hardware. RVC-CAL es un lenguaje de flujo de datos estandarizado por MPEG y utilizado para definir herramientas relacionadas con la codificación dedeo. La estructura de los programas descritos en RVC-CAL se basa en unidades funcionales llamadas actores, que a su vez se subdividen en funciones o procedimientos llamados acciones. ORCC (Open RVC-CAL Compiler) es un compilador de código abierto que utiliza como entrada descripciones RVC-CAL y genera a partir de ellas código fuente en un lenguaje dado, como por ejemplo C. Internamente, el compilador ORCC se divide en tres etapas distinguibles: front-end, middle-end y back-end. La implementación de Papify consiste en modificar la etapa del back-end del compilador, encargada de la generación de código, de modo tal que los actores, al ser traducidos a lenguaje C, queden instrumentados con PAPI (Performance Application Programing Interface), una herramienta utilizada como interfaz a los registros contadores de rendimiento (PMC) de los procesadores. Además, también se modifica el front-end para permitir identificar cierto tipo de anotaciones en las descripciones RVC-CAL, utilizadas para que el diseñador pueda indicar qué actores o acciones en particular se desean analizar. Los actores instrumentados, además de conservar su funcionalidad original, generan una serie de ficheros que contienen datos sobre los distintos eventos hardware que suceden a lo largo de su ejecución. Los eventos incluidos en estos ficheros son configurables dentro de las anotaciones previamente mencionadas. La segunda herramienta, Papify-Viewer, utiliza los datos generados por Papify y los procesa, obteniendo una representación visual de la información a dos niveles: por un lado, representa cronológicamente la ejecución de la aplicación, distinguiendo cada uno de los actores a lo largo de la misma. Por otro lado, genera estadísticas sobre la cantidad de eventos disparados por acción, actor o núcleo de ejecución y las representa mediante gráficos de barra. Ambas herramientas pueden ser utilizadas en conjunto para verificar el funcionamiento del programa, balancear la carga de los actores o la distribución por núcleos de los mismos, mejorar el rendimiento y diagnosticar problemas. ABSTRACT. This diploma project presents two tools, Papify and Papify-Viewer, used to measure and visualize the low level performance of RVC-CAL specifications based on hardware events. RVC-CAL is a dataflow language standardized by MPEG which is used to define video codec tools. The structure of the applications described in RVC-CAL is based on functional units called actors, which are in turn divided into smaller procedures called actions. ORCC (Open RVC-CAL Compiler) is an open-source compiler capable of transforming RVC-CAL descriptions into source code in a given language, such as C. Internally, the compiler is divided into three distinguishable stages: front-end, middle-end and back-end. Papify’s implementation consists of modifying the compiler’s back-end stage, which is responsible for generating the final source code, so that translated actors in C code are now instrumented with PAPI (Performance Application Programming Interface), a tool that provides an interface to the microprocessor’s performance monitoring counters (PMC). In addition, the front-end is also modified in such a way that allows identification of a certain type of annotations in the RVC-CAL descriptions, allowing the designer to set the actors or actions to be included in the measurement. Besides preserving their initial behavior, the instrumented actors will also generate a set of files containing data about the different events triggered throughout the program’s execution. The events included in these files can be configured inside the previously mentioned annotations. The second tool, Papify-Viewer, makes use of the files generated by Papify to process them and provide a visual representation of the information in two different ways: on one hand, a chronological representation of the application’s execution where each actor has its own timeline. On the other hand, statistical information is generated about the amount of triggered events per action, actor or core. Both tools can be used together to assert the normal functioning of the program, balance the load between actors or cores, improve performance and identify problems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los recientes desarrollos tecnológicos permiten la transición de la oceanografía observacional desde un concepto basado en buques a uno basado en sistemas autónomos en red. Este último, propone que la forma más eficiente y efectiva de observar el océano es con una red de plataformas autónomas distribuidas espacialmente y complementadas con sistemas de medición remota. Debido a su maniobrabilidad y autonomía, los planeadores submarinos están jugando un papel relevante en este concepto de observaciones en red. Los planeadores submarinos fueron específicamente diseñados para muestrear vastas zonas del océano. Estos son robots con forma de torpedo que hacen uso de su forma hidrodinámica, alas y cambios de flotabilidad para generar movimientos horizontales y verticales en la columna de agua. Un sensor que mide conductividad, temperatura y profundidad (CTD) constituye un equipamiento estándar en la plataforma. Esto se debe a que ciertas variables dinámicas del Océano se pueden derivar de la temperatura, profundidad y salinidad. Esta última se puede estimar a partir de las medidas de temperatura y conductividad. La integración de sensores CTD en planeadores submarinos no esta exenta de desafíos. Uno de ellos está relacionado con la precisión de los valores de salinidad derivados de las muestras de temperatura y conductividad. Específicamente, las estimaciones de salinidad están significativamente degradadas por el retardo térmico existente, entre la temperatura medida y la temperatura real dentro de la celda de conductividad del sensor. Esta deficiencia depende de las particularidades del flujo de entrada al sensor, su geometría y, también se ha postulado, del calor acumulado en las capas de aislamiento externo del sensor. Los efectos del retardo térmico se suelen mitigar mediante el control del flujo de entrada al sensor. Esto se obtiene generalmente mediante el bombeo de agua a través del sensor o manteniendo constante y conocida su velocidad. Aunque recientemente se han incorporado sistemas de bombeo en los CTDs a bordo de los planeadores submarinos, todavía existen plataformas equipadas con CTDs sin dichos sistemas. En estos casos, la estimación de la salinidad supone condiciones de flujo de entrada al sensor, razonablemente controladas e imperturbadas. Esta Tesis investiga el impacto, si existe, que la hidrodinámica de los planeadores submarinos pudiera tener en la eficiencia de los sensores CTD. Específicamente, se investiga primero la localización del sensor CTD (externo al fuselaje) relativa a la capa límite desarrollada a lo largo del cuerpo del planeador. Esto se lleva a cabo mediante la utilización de un modelo acoplado de fluido no viscoso con un modelo de capa límite implementado por el autor, así como mediante un programa comercial de dinámica de fluidos computacional (CFD). Los resultados indican, en ambos casos, que el sensor CTD se encuentra fuera de la capa límite, siendo las condiciones del flujo de entrada las mismas que las del flujo sin perturbar. Todavía, la velocidad del flujo de entrada al sensor CTD es la velocidad de la plataforma, la cual depende de su hidrodinámica. Por tal motivo, la investigación se ha extendido para averiguar el efecto que la velocidad de la plataforma tiene en la eficiencia del sensor CTD. Con este propósito, se ha desarrollado un modelo en elementos finitos del comportamiento hidrodinámico y térmico del flujo dentro del CTD. Los resultados numéricos indican que el retardo térmico, atribuidos originalmente a la acumulación de calor en la estructura del sensor, se debe fundamentalmente a la interacción del flujo que atraviesa la celda de conductividad con la geometría interna de la misma. Esta interacción es distinta a distintas velocidades del planeador submarino. Específicamente, a velocidades bajas del planeador (0.2 m/s), la mezcla del flujo entrante con las masas de agua remanentes en el interior de la celda, se ralentiza debido a la generación de remolinos. Se obtienen entonces desviaciones significantes entre la salinidad real y aquella estimada. En cambio, a velocidades más altas del planeador (0.4 m/s) los procesos de mezcla se incrementan debido a la turbulencia e inestabilidades. En consecuencia, la respuesta del sensor CTD es mas rápida y las estimaciones de la salinidad mas precisas que en el caso anterior. Para completar el trabajo, los resultados numéricos se han validado con pruebas experimentales. Específicamente, se ha construido un modelo a escala del sensor CTD para obtener la confirmación experimental de los modelos numéricos. Haciendo uso del principio de similaridad de la dinámica que gobierna los fluidos incompresibles, los experimentos se han realizado con flujos de aire. Esto simplifica significativamente la puesta experimental y facilita su realización en condiciones con medios limitados. Las pruebas experimentales han confirmado cualitativamente los resultados numéricos. Más aun, se sugiere en esta Tesis que la respuesta del sensor CTD mejoraría significativamente añadiendo un generador de turbulencia en localizaciones adecuadas al interno de la celda de conductividad. ABSTRACT Recent technological developments allow the transition of observational oceanography from a ship-based to a networking concept. The latter suggests that the most efficient and effective way to observe the Ocean is through a fleet of spatially distributed autonomous platforms complemented by remote sensing. Due to their maneuverability, autonomy and endurance at sea, underwater gliders are already playing a significant role in this networking observational approach. Underwater gliders were specifically designed to sample vast areas of the Ocean. These are robots with a torpedo shape that make use of their hydrodynamic shape, wings and buoyancy changes to induce horizontal and vertical motions through the water column. A sensor to measure the conductivity, temperature and depth (CTD) is a standard payload of this platform. This is because certain ocean dynamic variables can be derived from temperature, depth and salinity. The latter can be inferred from measurements of temperature and conductivity. Integrating CTD sensors in glider platforms is not exempted of challenges. One of them, concerns to the accuracy of the salinity values derived from the sampled conductivity and temperature. Specifically, salinity estimates are significantly degraded by the thermal lag response existing between the measured temperature and the real temperature inside the conductivity cell of the sensor. This deficiency depends on the particularities of the inflow to the sensor, its geometry and, it has also been hypothesized, on the heat accumulated by the sensor coating layers. The effects of thermal lag are usually mitigated by controlling the inflow conditions through the sensor. Controlling inflow conditions is usually achieved by pumping the water through the sensor or by keeping constant and known its diving speed. Although pumping systems have been recently implemented in CTD sensors on board gliders, there are still platforms with unpumped CTDs. In the latter case, salinity estimates rely on assuming reasonable controlled and unperturbed flow conditions at the CTD sensor. This Thesis investigates the impact, if any, that glider hydrodynamics may have on the performance of onboard CTDs. Specifically, the location of the CTD sensor (external to the hull) relative to the boundary layer developed along the glider fuselage, is first investigated. This is done, initially, by applying a coupled inviscid-boundary layer model developed by the author, and later by using a commercial software for computational fluid dynamics (CFD). Results indicate, in both cases, that the CTD sensor is out of the boundary layer, being its inflow conditions those of the free stream. Still, the inflow speed to the CTD sensor is the speed of the platform, which largely depends on its hydrodynamic setup. For this reason, the research has been further extended to investigate the effect of the platform speed on the performance of the CTD sensor. A finite element model of the hydrodynamic and thermal behavior of the flow inside the CTD sensor, is developed for this purpose. Numerical results suggest that the thermal lag effect is mostly due to the interaction of the flow through the conductivity cell and its geometry. This interaction is different at different speeds of the glider. Specifically, at low glider speeds (0.2 m/s), the mixing of recent and old waters inside the conductivity cell is slowed down by the generation of coherent eddy structures. Significant departures between real and estimated values of the salinity are found. Instead, mixing is enhanced by turbulence and instabilities for high glider speeds (0.4 m/s). As a result, the thermal response of the CTD sensor is faster and the salinity estimates more accurate than for the low speed case. For completeness, numerical results have been validated against model tests. Specifically, a scaled model of the CTD sensor was built to obtain experimental confirmation of the numerical results. Making use of the similarity principle of the dynamics governing incompressible fluids, experiments are carried out with air flows. This significantly simplifies the experimental setup and facilitates its realization in a limited resource condition. Model tests qualitatively confirm the numerical findings. Moreover, it is suggested in this Thesis that the response of the CTD sensor would be significantly improved by adding small turbulators at adequate locations inside the conductivity cell.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto se encuentra adscrito a la línea de investigación de optimización de consumo en terminales multimedia móviles que el Grupo de Diseño Electrónico y Microelectrónico (GDEM) de la UPM (Universidad Politécnica de Madrid) está llevando a cabo. Los sistemas empotrados móviles (Smartphone, Tablet,...) están alimentados con baterías. En este tipo de sistemas, una de las aplicaciones que más rápidamente consume energía es la descodificación de secuencias dedeo. En este trabajo, queremos medir el consumo de energía de distintos descodificadores dedeo para distintas secuencias, con el objetivo de entender mejor cómo se consume esta energía y poder encontrar diferentes métodos que lo reduzcan. Para ello comenzaremos describiendo nuestro entorno de trabajo, tanto el hardware como el software utilizado. Respeto al hardware cabe destacar el uso de una PandaBoard y un Smart Power de Odroid, entre otros muchos elementos utilizados, los cuales serán debidamente explicados en las siguientes páginas de este proyecto. Mientras que para el software destaca el uso de dos tipos de descodificadores uno CBP y otro PHP, los cuales serán descritos en profundidad en los siguientes capítulos de este documento. Este entorno de trabajo nos servirá para el estudio de las diferentes secuencias dedeo, cuya codificación ha sido llevada en paralelo con otro proyecto que se está realizando en el grupo de GDEM de la UPM, y cuyo objetivo es el estudio de la calidad subjetiva durante la descodificación del mismo conjunto de secuencias dedeo. Todas estas secuencias dedeo han sido codificadas con diferentes parámetros de calidad y diversas estructuras de imágenes, para obtener así un banco de pruebas lo más amplio posible. Gracias a la obtención de estas secuencias dedeo y utilizando nuestro entorno de trabajo, pasaremos a estudiar el consumo de energía que se produce al descodificar una a una todas las posibles secuencias dedeo, dependiendo todo esto de su estructura de imágenes, su calidad y por supuesto, el descodificador utilizado en cada caso. Para terminar, se mostrará una comparativa entre los diferentes resultados obtenidos y se hará una discusión de estos, obteniendo en este caso, un resumen de los datos más significativos, así como las conclusiones más importantes obtenidas durante todo este trabajo. Al término de este proyecto y en unión con el estudio que se está llevando a cabo en paralelo sobre la calidad subjetiva, queda como línea futura de investigación encontrar el compromiso entre el consumo de energía de diferentes secuencias dedeo y la calidad subjetiva de dichas secuencias. ABSTRACT. This project is assigned to the research line on consumption optimization in mobile multimedia terminals carried out by the Group of Electronic Design and Microelectronics (GDEM) of the Polytechnic University of Madrid (UPM). Embedded mobile systems (smartphones, tablets...) are powered by batteries. In such systems, one of the applications that more rapidly consumes power is the decoding of video streams. In this work, we measure the power consumption of different video decoders for different streams, in order to better understand how this energy is consumed and to find different methods to reduce it. To this end, we start by describing our working environment, both hardware and software used. As for the hardware, it is worth mentioning the use of PandaBoard and Smart Power Odroid, among many other elements, which will be duly explained in the following pages of this project. As for the software, we highlight the use of two types of decoders, CBP and PHP, which will be described in detail in the following chapters of this document. This working environment will help us to study different video streams, whose coding has been perfor-med in parallel under another project that is being carried out in the GDEM group of the UPM, and whose objective is the study of subjective quality for decoding the same set of video streams. All these video streams have been encoded with different quality parameters and image structures in order to obtain the widest set of samples. Thanks to the production of these video streams and the use of our working environment, we study the power consumption that occurs when decoding one by one all possible video streams, depending on the image structure, their quality and, of course, the decoder used in each case. Finally, we show a comparison between the different results and a discussion of these, obtaining a sum-mary of the most significant data and the main conclusions obtained during this project. Upon completion of this project and in conjunction with the project on the study of subjective quality that is being carried out in parallel, a future line of research could consist in finding the compromise between power consumption of different video streams and the subjective quality of these.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto trata del desarrollo de un software para realizar el control de la medida de la distribución de intensidad luminosa en luminarias LED. En el trascurso del proyecto se expondrán fundamentos teóricos sobre fotometría básica, de los cuales se extraen las condiciones básicas para realizar dicha medida. Además se realiza una breve descripción del hardware utilizado en el desarrollo de la máquina, el cual se basa en una placa de desarrollo Arduino Mega 2560, que, gracias al paquete de Labview “LIFA” (Labview Interface For Arduino”), será posible utilizarla como tarjeta de adquisición de datos mediante la cual poder manejar tanto sensores como actuadores, para las tareas de control. El instrumento de medida utilizado en este proyecto es el BTS256 de la casa GigaHerzt-Optik, del cual se dispone de un kit de desarrollo tanto en lenguaje C++ como en Labview, haciendo posible programar aplicaciones basadas en este software para realizar cualquier tipo de adaptación a las necesidades del proyecto. El software está desarrollado en la plataforma Labview 2013, esto es gracias a que se dispone del kit de desarrollo del instrumento de medida, y del paquete LIFA. El objetivo global del proyecto es realizar la caracterización de luminarias LED, de forma que se obtengan medidas suficientes de la distribución de intensidad luminosa. Los datos se recogerán en un archivo fotométrico específico, siguiendo la normativa IESNA 2002 sobre formato de archivos fotométricos, que posteriormente será utilizado en la simulación y estudio de instalaciones reales de la luminaria. El sistema propuesto en este proyecto, es un sistema basado en fotometría tipo B, utilizando coordenadas VH, desarrollando un algoritmo de medida que la luminaria describa un ángulo de 180º en ambos ejes, con una resolución de 5º para el eje Vertical y 22.5º para el eje Horizontal, almacenando los datos en un array que será escrito en el formato exigido por la normativa. Una vez obtenidos los datos con el instrumento desarrollado, el fichero generado por la medida, es simulado con el software DIALux, obteniendo unas medidas de iluminación en la simulación que serán comparadas con las medidas reales, intentando reproducir en la simulación las condiciones reales de medida. ABSTRACT. The project involves the development of software for controlling the measurement of light intensity distribution in LEDs. In the course of the project theoretical foundations on basic photometry, of which the basic conditions for such action are extracted will be presented. Besides a brief description of the hardware used in the development of the machine, which is based on a Mega Arduino plate 2560 is made, that through the package Labview "LIFA" (Interface For Arduino Labview "), it is possible to use as data acquisition card by which to handle both sensors and actuators for control tasks. The instrument used in this project is the BTS256 of GigaHerzt-Optik house, which is available a development kit in both C ++ language as LabView, making it possible to program based on this software applications for any kind of adaptation to project needs. The software is developed in Labview 2013 platform, this is thanks to the availability of the SDK of the measuring instrument and the LIFA package. The overall objective of the project is the characterization of LED lights, so that sufficient measures the light intensity distribution are obtained. Data will be collected on a specific photometric file, following the rules IESNA 2002 on photometric format files, which will then be used in the simulation and study of actual installations of the luminaire. The proposed in this project is a system based on photometry type B system using VH coordinates, developing an algorithm as the fixture describe an angle of 180 ° in both axes, with a resolution of 5 ° to the vertical axis and 22.5º for the Horizontal axis, storing data in an array to be written in the format required by the regulations. After obtaining the data with the instrument developed, the file generated by the measure, is simulated with DIALux software, obtaining measures of lighting in the simulation will be compared with the actual measurements, trying to play in the simulation the actual measurement conditions .

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El trabajo fin de master “Análisis de la precisión en la medida del tiempo de reverberación y de los parámetros asociados” tiene como objetivo primordial la evaluación de los parámetros y métodos utilizados para la obtención de estos, a través del tiempo de reverberación, tanto de forma global, conjunto de todos los métodos, como cada uno de ellos por separado. Un objetivo secundario es la evaluación de la incertidumbre en función del método de medición usado. Para realizarlo, se van a aprovechar las mediciones realizadas para llevar a cabo el proyecto fin de carrera [1], donde se medía el tiempo de reverberación en dos recintos diferentes usando el método del ruido interrumpido y el método de la respuesta impulsiva integrada con señales distintas. Las señales que han sido utilizadas han sido señales impulsivas de explosión de globos, disparo de pistola, claquetas y, a través de procesado digital, señales periódicas pseudoaleatorias MLS y barridos de tonos puros. La evaluación que se realizará a cada parámetro ha sido extraída de la norma UNE 89002 [2], [3]y [4]. Se determinará si existen valores aberrantes tanto por el método de Grubbs como el de Cochran, e interesará conocer la veracidad, precisión, repetibilidad y reproducibilidad de los resultados obtenidos. Los parámetros que han sido estudiados y evaluados son el tiempo de reverberación con caída de 10 dB, (T10), con caída de 15 dB (T15), con caída de 20 dB (T20), con caída de 30 dB (T30), el tiempo de la caída temprana (EDT), el tiempo final (Ts), claridad (C20, C30, C50 y C80) y definición (D50 y D80). Dependiendo de si el parámetro hace referencia al recinto o si varía en función de la relación entre la posición de fuente y micrófono, su estudio estará sujeto a un procedimiento diferente de evaluación. ABSTRACT. The master thesis called “Analysis of the accuracy in measuring the reverberation time and the associated parameters” has as the main aim the assessment of parameters and methods used to obtain these through reverberation time, both working overall, set of all methods, as each of them separately. A secondary objective is to evaluate the uncertainty depending on the measurement method used. To do this, measurements of [1] will be used, where they were carried on in two different spaces using the interrupted noise method and the method of impulse response integrated with several signals. The signals that have been used are impulsive signals such as balloon burst, gunshot, slates and, through digital processing, periodic pseudorandom signal MLS and swept pure tone. The assessment that will be made to each parameter has been extracted from the UNE 89002 [2], [3] and [4]. It will determine whether there are aberrant values both through Grubbs method and Cochran method, to say so, if a value is inconsistent with the rest of the set. In addition, it is interesting to know the truthfulness, accuracy, repeatability and reproducibility of results obtained from the first part of this rule. The parameters that are going to be evaluated are reverberation time with 10 dB decay, (T10), with 15 dB decay (T15), with 20 dB decay (T20), with 30 dB decay (T30), the Early Decay Time (EDT), the final time (Ts), clarity (C20, C30, C50 y C80) and definition (D50 y D80). Depending on whether the parameter refers to the space or if it varies depending on the relationship between source and microphone positions, the study will be related to a different evaluation procedure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto que se va a implementar es el diseño, construcción y puesta en marcha de un instrumento de medida del comportamiento de las lentes de Fresnel a distintas temperaturas. Dicho proyecto se desarrollará en el grupo de Integración de Sistemas e Instrumentos (ISI) del Instituto de Energía Solar. Las lentes de Fresnel se emplean en la tecnología de concentración fotovoltaica (CPV), siendo una parte imprescindible en este campo. La necesidad de este instrumento se justifica ya que al variar la temperatura de estas lentes, estando fabricadas con Silicona Sobre Vidrio (SOG), varía su distancia focal y por ello baja considerablemente la eficiencia de las células de concentración. La parte a implementar físicamente en este proyecto es una cámara térmica en la que se puedan introducir estas lentes primarias con el objetivo de ponerlas a una determinada temperatura. Para poder mantener un rango de temperaturas entre 5ºC y 60ºC se van a utilizar dos módulos peltier. Por lo tanto, es necesario que dicha cámara térmica tenga tanto en la parte frontal como en la trasera, unas ventanas de vidrio de alta transmitancia que permitan el máximo paso de luz, afectando lo menos posible a la medida. El diseño de la cámara térmica incluye unas cámaras en cada pared en las que se introducirá un aislante térmico para minimizar las pérdidas mencionadas anteriormente. Con este objetivo, las ventanas admiten la opción de un doble acristalado, adquiriendo un compromiso entre aislamiento térmico y transmisión de luz. La caja estará formada por tres cámaras, una central en la que se va a colocar la lente que se quiere medir y dos cámaras laterales en las que se van a introducir ambos peltier respectivamente. El objetivo de estas cámaras laterales es que, al estar comunicadas con la central a través de pequeñas rendijas, el aire a una cierta temperatura llegue de la forma más uniforme posible a la lente. En cuanto a la cámara central, tiene varios carriles en los cuales se pondrá la lente que se quiere medir, permitiendo de esta forma medir lentes de distancias focales muy diferentes además de poder fijar con la menor incertidumbre posible la posición de dicha lente. En este proyecto se procederá también a realizar el diseño teórico de una parte móvil posterior en la que habrá una célula de concentración sobre la que se realizarán las medidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho emocionalmente desgastante dos profissionais das áreas de saúde implica não só a necessidade de uma habilitação acadêmica, mas, acima de tudo, uma adaptação, um equilíbrio emocional satisfatório, premissa básica para um serviço eficaz à saúde da população. Preocupando-se com o futuro profissional de Psicologia, esta pesquisa teve por finalidade verificar o grau de eficácia adaptativa de alunos do curso de Psicologia da Universidade Metodista de São Paulo, São Bernardo do Campo SP e, quando necessário, fazer-lhes indicação terapêutica. Este trabalho foi desenvolvido com a utilização da EDAO (Escala Diagnóstica Adaptativa Operacionalizada). Durante os anos de 1999 e 2000, foram feitas entrevistas diagnósticas individuais no NEPAP (Núcleo de Estudos, Pesquisa e Atendimento Psicológico), da UMESP, em 10% dos alunos do curso de Psicologia, dos períodos matutino e noturno. Os resultados foram analisados individualmente e inter-grupos com a finalidade de se obter um panorama geral do grau de eficácia adaptativa desses alunos. Com base nos resultados obtidos, verificou-se que embora alguns alunos apresentassem dificuldades nos setores Afetivo-Relacional e Produtividade, a grande maioria foi considerada normal .(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho emocionalmente desgastante dos profissionais das áreas de saúde implica não só a necessidade de uma habilitação acadêmica, mas, acima de tudo, uma adaptação, um equilíbrio emocional satisfatório, premissa básica para um serviço eficaz à saúde da população. Preocupando-se com o futuro profissional de Psicologia, esta pesquisa teve por finalidade verificar o grau de eficácia adaptativa de alunos do curso de Psicologia da Universidade Metodista de São Paulo, São Bernardo do Campo SP e, quando necessário, fazer-lhes indicação terapêutica. Este trabalho foi desenvolvido com a utilização da EDAO (Escala Diagnóstica Adaptativa Operacionalizada). Durante os anos de 1999 e 2000, foram feitas entrevistas diagnósticas individuais no NEPAP (Núcleo de Estudos, Pesquisa e Atendimento Psicológico), da UMESP, em 10% dos alunos do curso de Psicologia, dos períodos matutino e noturno. Os resultados foram analisados individualmente e inter-grupos com a finalidade de se obter um panorama geral do grau de eficácia adaptativa desses alunos. Com base nos resultados obtidos, verificou-se que embora alguns alunos apresentassem dificuldades nos setores Afetivo-Relacional e Produtividade, a grande maioria foi considerada normal .(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para atingir os objetivos propostos, ou seja, levantar e descrever indicadores socioculturais de uma amostra de adolescentes em cumprimento de medida socioeducativa, e descrever características psicológicas e de personalidade dos adolescentes infratores, num estudo que pesquisou adolescentes em cumprimento de medida socioeducativa. O trabalho foi realizado em duas as etapas: na primeira, os 47 adolescentes participaram de uma entrevista semidirigida; na segunda, dez desses adolescentes foram selecionados e submetidos a um instrumento projetivo para investigação de aspectos da personalidade: o “desenho da Figura Humana” de Machower, adaptado por Van Kolck (1956; 1984). A discussão teórica dos resultados baseou-se numa abordagem psicanalítica pós-freudiana para a compreensão da adolescência tanto como fase do desenvolvimento humano como dos comportamentos antissociais. Os resultados do estudo corroboraram a teoria advinda da literatura psicológica que aborda padrões comuns no período da adolescência, fase em que ocorre um complexo de fatores individuais da maturidade biológica associados ao meio social/cultural e que, por sua vez, estabelecem relações com as instâncias psicológicas ou psíquicas do sujeito junto com as características específicas de cada indivíduo. Na busca da compreensão desses padrões comuns da amostra dos adolescentes infratores utilizados no presente estudo, foram levantados dados do perfil psicossocial, cultural e demográfico; dos aspectos psicossociais e aspectos psicodinâmicos e de características de personalidade. A título de conclusão, o estudo destacou a problemática do adolescente em conflito com a lei, associada às questões sociais, de saúde mental, além do desenvolvimento psíquico, sinalizando a necessidade de ações psicoprofiláticas voltadas para população infantil, jovem, agrupamentos familiares e para a comunidade que representa seu entorno.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador: