617 resultados para Batería EPESE
Resumo:
Este trabajo se propone continuar y profundizar un estudio exploratorio acerca del desarrollo de la psicología en la ciudad de La Plata durante el decenio comprendido entre 1948 y 1958, abordado en un trabajo anterior (Barros y Kierbel, 2010). En este caso se ahondará en las condiciones político-económicas-sociales que permitieron la creación, en 1948, de la Dirección de Psicología Educacional y Orientación Profesional (DPEOP) de la Provincia de Buenos Aires. Para ello se tomarán fuentes bibliográficas que permiten, por un lado, abordar aspectos del gobierno del Coronel Domingo A. Mercante (1946-1952) relevantes en materia de educación y trabajo, dos dimensiones que la psicología aplicada comienza a articular en estos años. Por otro lado, fuentes ineludibles como el trabajo de Helena Munín (1989), para trabajar lo específico de la creación de esta Dirección, y aspectos de la psicología argentina a mediados de siglo. Finalmente, se articulará con categorías del marco teórico para una historiografía crítica en sentido fuerte que aporta Kurt Danziger, las cuales nos permiten abrir preguntas respecto a las relaciones entre los intereses sociales y los intereses intelectuales de la psicología, y por tanto, nos lleva a cuestionarnos si es posible el desarrollo autónomo de la psicología, especialmente en un período de fuerte intervencionismo del Estado. En un marco de fuerte crecimiento económico del país, de avances en la industrialización y la producción, la educación comienza a jugar un rol primordial para una mejor distribución de las oportunidades sociales. La idea de dar sentido social a la educación articulándola con el sector productivo del país es una nueva problemática que se abre en este período, y que da lugar a un nuevo marco de posibles. Nuevos actores institucionales provenientes de las esferas del Estado comienzan a expresar interés por las herramientas que la psicología aplicada podría ofrecer como soluciones a estos nuevos problemas. La gestión educativa de la provincia de Buenos Aires se caracterizó entonces por innovar y ampliar la injerencia estatal en las necesidades populares, y es en este marco de transformación institucional que es bien recibida la propuesta de la inspectora Alba Chavez de Vanni respecto a la creación del Instituto de Orientación Profesional, que en 1949 se convertiría en Dirección (DPEOP). Según entendemos, la propuesta es aceptada en tanto representa una solución institucional a la necesidad del gobierno provincial de ampliar las funciones de la escuela hasta alcanzar la inserción laboral-productiva de los sujetos formados por el sistema educativo. En este sentido, la orientación profesional cobra interés en tanto posibilita aportar tanto a un beneficio individual, de equidad en las oportunidades laborales y educativas, como a otro económico-social, en materia de optimización de recursos humanos en el proceso de industrialización del país. Se encontró que la creación de esta nueva institución conllevó múltiples nuevas actividades asociadas a la aplicación práctica de la psicología. La realización del consejo profesional, o del diagnóstico y derivación de niños 'problemáticos', son actividades prácticas novedosas, que se ven expresadas en la producción de una batería de instrumentos de tecnología educacional inéditos en la Argentina (ficha escolar anual, ficha social, test de inteligencia estandarizados en la provincia de Buenos Aires, etc.). En palabras de Danziger, lo que se observa es la generación de nuevos objetos técnicos. Asimismo, el nuevo espacio institucional crea la figura del asistente educacional, es decir, el agente que llevaría adelante las acciones concretas de la DPEOP. Esto representa sin dudas un objeto social nuevo, y nuevos sujetos de práctica: el alumno, la familia y el docente son ahora también objeto de prácticas psicológicas diversas. Aparecen también nuevas concepciones respecto al problema del rendimiento y de la capacidad en la escuela y el trabajo, sobre el problema de las aptitudes, técnicas de personalidad o de inteligencia para el diagnóstico y orientación de los sujetos de la práctica. Lo que encontramos entonces es que el desarrollo disciplinar aislado de las problemáticas sociales no existe, aunque sí puede estar invisibilizada la relación entre los productores de conocimiento psicológico y la estructura social de la que forman parte. Esos intereses que exceden la actividad del actor histórico específico, agregan un componente reproductivo a la producción de conocimiento, componente del cual no podemos perder rastro en una historiografía crítica
Resumo:
Desde mediados del siglo pasado, las mujeres han logrado importantes conquistas sociales y laborales tendientes a lograr una mayor igualdad de género. Pese a estos avances, el prejuicio sexista y la discriminación de género siguen estando extendidos en la mayoría de los países, asumiendo modalidades benévolas y difíciles de reconocer. A nivel laboral, los hombres, en comparación con las mujeres, siguen ganando más dinero y ocupando con mayor frecuencia puestos jerárquicos de toma de decisiones. Para explicar esta problemática, los especialistas han postulado la existencia de prejuicios sexistas (hostiles y benévolos) que usualmente se expresan en comportamientos de discriminación de género. Estos prejuicios generan un fenómeno conocido como 'laberinto de cristal', un conjunto de barreras invisibles y artificiales que obstaculizan el avance laboral-profesional de muchas mujeres calificadas dentro de sus organizaciones. Frente a esta situación, el objetivo del presente trabajo, enmarcado en el desarrollo de la tesis doctoral del autor, es analizar las características del prejuicio sexista (hostil y benévolo) y la tendencia a la discriminación de género en el lugar de trabajo. La muestra estuvo conformada por 235 trabajadores (52varones; promedio de edad 36.6 años) de organizaciones públicas y privadas de diversos rubros de la provincia de Santa Fe. La recolección de los datos se efectuó en los horarios habituales de trabajo, siendo la participación anónima y voluntaria. La batería de exploración estuvo integrada por la adaptación argentina del Inventario de Sexismo Ambivalente, un conjunto de escenarios para medir la tendencia a la discriminación de género en el lugar de trabajo, la adaptación argentina de la Escala de Deseabilidad Social del EPQ de Eysenck, una sección de datos sociodemográficos y el correspondiente consentimiento informado. Los resultados indican niveles medios de sexismo hostil y sexismo benévolo, y baja tendencia a la discriminación de género a nivel laboral. De los casos donde se registró esta última variable, predomina la discriminación contra las mujeres por embarazo o maternidad, seguida por la discriminación en decisiones de promoción. Los análisis de correlación mostraron que: (a)La mayor educación, menores montos de sexismo benévolo y menor tendencia a la discriminación de género en el lugar de trabajo; (b) a mayor tamaño organizacional, menor sexismo; (c) a mayor sexismo (hostil o benévolo), mayor tendencia a la discriminación de género; (d) a mayor sexismo hostil, menor deseabilidad social. A su vez, las pruebas de diferencia de medias efectuadas evidenciaron que: (e) los varones presentan mayor prejuicio sexista y mayor tendencia a la discriminación de género que las mujeres, quienes registran mayor deseabilidad social; (f) los trabajadores con nivel educativo universitario exhiben menores montos de sexismo benévolo; (g) en el sector privado se registra mayor tendencia a la discriminación que en el sector público; (h) en cuanto al ramo de actividad, los trabajadores de la administración pública informan menos sexismo benévolo que los pertenecientes a la industria o a la educación/investigación (téngase en cuenta que el 71.1de las personas encuestadas en la administración pública eran mujeres y el 97.1del ramo industria eran varones). Más allá del avance femenino en materia de igualdad de género y de la existencia de un amplio marco legal que prohíbe la discriminación, las mujeres continúan atravesando experiencias sexistas originadas en estereotipos de género tradicionales. De acuerdo con los resultados, a nivel laboral estas experiencias se traducen fundamentalmente en rechazo de posibilidades de promoción y discriminación por embarazo o maternidad. En general, estos actos fueron justificados apelando a estereotipos propios del sexismo benévolo, que plantean a la mujer como un ser puro, delicado, dependiente, que debe ser cuidado y protegido, siendo su responsabilidad primera el cuidado del hogar y la crianza de los hijos. La maternidad aparece así como un rol que perjudica el trabajo formal, especialmente de mediana y alta jerarquía. Asimismo, en línea con estudios anteriores, el prejuicio sexista se vinculó negativamente con el nivel educativo y el tamaño de la organización, y positivamente con la tendencia a los comportamientos de discriminación de género. Estos hallazgos resaltan la necesidad de crear estrategias tendientes a modificar estos prejuicios en los trabajadores, sobre todo de empresas privadas y organizaciones pequeñas, con el fin último de promover mayores niveles de igualdad de género a nivel laboral
Resumo:
El propósito de este texto es presentar a uno de los comerciantes más exitosos de mediados del siglo XVIII en la región Río de la Plata y una aproximación al conjunto del cual emerge. La imagen de grupo se obtiene a partir de los registros de navíos españoles, que permiten realizar un estudio pormenorizado de la participación de los individuos en los envíos a España. Al mismo tiempo, y para acercarme más a uno de los individuos en particular y su primer círculo de relaciones se utiliza, además de los registros, la bibliografía disponible y la batería habitual de fuentes consultadas en las investigaciones sobre comerciantes
Resumo:
El sexismo contra las mujeres continúa ocasionando profundas desigualdades en el ámbito laboral a nivel mundial, a pesar de los esfuerzos por erradicarlo. Frente a esta problemática, la presente investigación tuvo como objetivo explorar empíricamente el impacto de variables sociodemográficas, psicológicas y organizacionales, sobre la emergencia del sexismo en el lugar de trabajo. Se efectuó una verificación empírica enmarcada en los lineamientos de la triangulación metodológica, a través de tres aproximaciones sucesivas. La primera aproximación metodológica, de corte cualitativo, estuvo orientada al desarrollo de un instrumento para explorar la tendencia a la discriminación de género en el lugar de trabajo. Se llevaron a cabo encuentros de grupo focal y entrevistas en profundidad con muestras teóricas de la población objetivo (12 y cuatro empleados, respectivamente). El análisis de la información recogida permitió la elaboración, puesta a punto y validación de la versión definitiva del instrumento. La segunda aproximación metodológica, de corte cuantitativo, tuvo como finalidad la adaptación y validación del Inventario de Sexismo Ambivalente para su empleo con muestras argentinas. En esta etapa se trabajó con una muestra por disponibilidad de 345 sujetos. Finalmente, la tercera aproximación metodológica, encuadrada en una perspectiva cuantitativa, tuvo como objetivo poner a prueba las hipótesis de trabajo planteadas. En esta oportunidad, se tomó una nueva muestra por disponibilidad integrada por 414 empleados de diversas organizaciones de la provincia de Santa Fe. La batería de recolección de datos incluyó la escala desarrollada en la primera aproximación, el inventario validado en la segunda, y reconocidos instrumentos para medir individualismo-colectivismo, percepciones de justicia organizacional y deseabilidad social. Los datos reunidos fueron sometidos a análisis descriptivos, correlacionales y multidimensionales. Los resultados más destacados muestran que: (a) los varones, los sujetos con nivel educativo primario/secundario y los trabajadores de organizaciones privadas, pequeñas y del sector industrial, presentan mayores niveles de sexismo que las mujeres, los individuos con nivel educativo superior, y los trabajadores de organizaciones públicas y grandes; (b) los empleados del sector privado y del ramo salud registran menores percepciones de justicia procedimental que los empleados del sector público; (c) los empleados permanentes perciben menos justicia distributiva, y los empleados contratados menos justicia procedimental, que sus superiores; (d) las dimensiones verticales del colectivismo e individualismo se relacionan positivamente con el sexismo en todas sus facetas, en tanto que el individualismo horizontal se vincula positivamente con el prejuicio sexista; (e) mientras el sexismo hostil se asocia negativamente con la justicia interpersonal, el sexismo benévolo se relaciona positivamente con las facetas distributiva, procedimental e informacional de la justicia organizacional; (f) por su parte, la tendencia a la discriminación de género en el lugar de trabajo presenta correlaciones positivas con la justicia procedimental; (g) los principales predictores del sexismo son el género (varón), el nivel educativo (primario secundario), el tamaño organizacional (pequeño), el colectivismo vertical y el individualismo vertical. Los resultados obtenidos se discuten a la luz de las teorías consideradas. Se concluye proponiendo posibles acciones para disminuir el sexismo y mejorar las percepciones de equidad en las organizaciones, y se efectúan sugerencias para futuros estudios en el área
Resumo:
La Cátedra "Fundamentos, Técnicas e Instrumentos de la Exploración Psicológica II" inició en el año 2006 una Investigación titulada: Violencia: Mujer golpeada. Delimitación de estructura psíquica mediante Técnicas Proyectivas. El rastreo bibliográfico nos permitió delimitar dos líneas explicativas que giran alrededor de esta situación, a saber: a) Una correspondiente a la línea psico - socio - económica. b) La otra centrada psicoanalíticamente sobre la estructura y dinámica psíquica de las mujeres que son golpeadas (deslindando las situaciones extremas de la perversión y las que corresponden a las costumbres de tipo cultural). La primera línea no satisface nuestras expectativas, ya que nos dan razones suficientes, pero no necesarias. Se asientan en lo que hemos dado en llamar "Teoría de la escasez" (falta de recursos, de afectos y de red social), pero sabemos que no es necesario que estas "faltas" se encuentren presentes para que una mujer sea golpeada. La segunda línea explicativa en cambio, nos permitió hipotetizar que "algo de la estructura psíquica debía estar en juego." Esto nos llevó a implementar una Batería de Técnicas Proyectivas para investigar estructuras psíquicas, la cual aplicamos a un grupo de casos obtenido de población urbana, de distintas edades, clases sociales y nivel educacional. Obteniendo hasta el momento indicadores que nos hablan de una indefensión yoica. Prevaleciendo las defensas maníacas reveladas como idealización del otro, negación e identificación con el agresor
Resumo:
Este trabajo se propone continuar y profundizar un estudio exploratorio acerca del desarrollo de la psicología en la ciudad de La Plata durante el decenio comprendido entre 1948 y 1958, abordado en un trabajo anterior (Barros y Kierbel, 2010). En este caso se ahondará en las condiciones político-económicas-sociales que permitieron la creación, en 1948, de la Dirección de Psicología Educacional y Orientación Profesional (DPEOP) de la Provincia de Buenos Aires. Para ello se tomarán fuentes bibliográficas que permiten, por un lado, abordar aspectos del gobierno del Coronel Domingo A. Mercante (1946-1952) relevantes en materia de educación y trabajo, dos dimensiones que la psicología aplicada comienza a articular en estos años. Por otro lado, fuentes ineludibles como el trabajo de Helena Munín (1989), para trabajar lo específico de la creación de esta Dirección, y aspectos de la psicología argentina a mediados de siglo. Finalmente, se articulará con categorías del marco teórico para una historiografía crítica en sentido fuerte que aporta Kurt Danziger, las cuales nos permiten abrir preguntas respecto a las relaciones entre los intereses sociales y los intereses intelectuales de la psicología, y por tanto, nos lleva a cuestionarnos si es posible el desarrollo autónomo de la psicología, especialmente en un período de fuerte intervencionismo del Estado. En un marco de fuerte crecimiento económico del país, de avances en la industrialización y la producción, la educación comienza a jugar un rol primordial para una mejor distribución de las oportunidades sociales. La idea de dar sentido social a la educación articulándola con el sector productivo del país es una nueva problemática que se abre en este período, y que da lugar a un nuevo marco de posibles. Nuevos actores institucionales provenientes de las esferas del Estado comienzan a expresar interés por las herramientas que la psicología aplicada podría ofrecer como soluciones a estos nuevos problemas. La gestión educativa de la provincia de Buenos Aires se caracterizó entonces por innovar y ampliar la injerencia estatal en las necesidades populares, y es en este marco de transformación institucional que es bien recibida la propuesta de la inspectora Alba Chavez de Vanni respecto a la creación del Instituto de Orientación Profesional, que en 1949 se convertiría en Dirección (DPEOP). Según entendemos, la propuesta es aceptada en tanto representa una solución institucional a la necesidad del gobierno provincial de ampliar las funciones de la escuela hasta alcanzar la inserción laboral-productiva de los sujetos formados por el sistema educativo. En este sentido, la orientación profesional cobra interés en tanto posibilita aportar tanto a un beneficio individual, de equidad en las oportunidades laborales y educativas, como a otro económico-social, en materia de optimización de recursos humanos en el proceso de industrialización del país. Se encontró que la creación de esta nueva institución conllevó múltiples nuevas actividades asociadas a la aplicación práctica de la psicología. La realización del consejo profesional, o del diagnóstico y derivación de niños 'problemáticos', son actividades prácticas novedosas, que se ven expresadas en la producción de una batería de instrumentos de tecnología educacional inéditos en la Argentina (ficha escolar anual, ficha social, test de inteligencia estandarizados en la provincia de Buenos Aires, etc.). En palabras de Danziger, lo que se observa es la generación de nuevos objetos técnicos. Asimismo, el nuevo espacio institucional crea la figura del asistente educacional, es decir, el agente que llevaría adelante las acciones concretas de la DPEOP. Esto representa sin dudas un objeto social nuevo, y nuevos sujetos de práctica: el alumno, la familia y el docente son ahora también objeto de prácticas psicológicas diversas. Aparecen también nuevas concepciones respecto al problema del rendimiento y de la capacidad en la escuela y el trabajo, sobre el problema de las aptitudes, técnicas de personalidad o de inteligencia para el diagnóstico y orientación de los sujetos de la práctica. Lo que encontramos entonces es que el desarrollo disciplinar aislado de las problemáticas sociales no existe, aunque sí puede estar invisibilizada la relación entre los productores de conocimiento psicológico y la estructura social de la que forman parte. Esos intereses que exceden la actividad del actor histórico específico, agregan un componente reproductivo a la producción de conocimiento, componente del cual no podemos perder rastro en una historiografía crítica
Resumo:
Los sistemas fotovoltaicos autónomos, es decir, sistemas que carecen de conexión a la red eléctrica, presentan una gran utilidad para poder llevar a cabo la electrificación de lugares remotos donde no hay medios de acceder a la energía eléctrica. El continuo avance en el número de sistemas instalados por todo el mundo y su continua difusión técnica no significa que la implantación de estas instalaciones no presente ninguna problemática. A excepción del panel fotovoltaico que presenta una elevada fiabilidad, el resto de elementos que forman el sistema presentan numerosos problemas y dependencias, por tanto el estudio de las fiabilidades de estos elementos es obligado. En este proyecto se pretende analizar y estudiar detalladamente la fiabilidad de los sistemas fotovoltaicos aislados. Primeramente, el presente documento ofrece una introducción sobre la situación mundial de las energías renovables, así como una explicación detallada de la energía fotovoltaica. Esto incluye una explicación técnica de los diferentes elementos que forman el sistema energético (módulo fotovoltaico, batería, regulador de carga, inversor, cargas, cableado y conectores). Por otro lado, se hará un estudio teórico del concepto de fiabilidad, con sus definiciones y parámetros más importantes. Llegados a este punto, el proyecto aplica la teoría de fiabilidad comentada a los sistemas fotovoltaicos autónomos, profundizando en la fiabilidad de cada elemento del sistema así como evaluando el conjunto. Por último, se muestran datos reales de fiabilidad de programas de electrificación, demostrando la variedad de resultados sujetos a los distintos emplazamientos de las instalaciones y por tanto distintas condiciones de trabajo. Se destaca de esta forma la importancia de la fiabilidad de los sistemas fotovoltaicos autónomos, pues normalmente este tipo de instalaciones se localizan en emplazamientos remotos, sin personal cualificado de mantenimiento cercano ni grandes recursos logísticos y económicos. También se resalta en el trabajo la dependencia de la radiación solar y el perfil de consumo a la hora de dimensionar el sistema. Abstract Stand-alone photovoltaic systems which are not connected to the utility grid. These systems are very useful to carry out the electrification of remote locations where is no easy to access to electricity. The number increased of systems installed worldwide and their continued dissemination technique does not mean that these systems doesn´t fails. With the exception of the photovoltaic panel with a high reliability, the remaining elements of the system can to have some problems and therefore the study of the reliabilities of these elements is required. This project tries to analyze and study the detaila of the reliability of standalone PV systems. On the one hand, this paper provides an overview of the global situation of renewable energy, as well as a detailed explanation of photovoltaics. This includes a technical detail of the different elements of the energy system (PV module, battery, charge controller, inverter, loads, wiring and connectors). In addition, there will be a theoricall study of the concept of reliability, with the most important definitions and key parameters. On the other hand, the project applies the reliability concepts discussed to the stand-alone photovoltaic systems, analyzing the reliability of each element of the system and analyzing the entire system. Finally, this document shows the most important data about reliability of some electrification programs, checking the variety of results subject to different places and different conditions. As a conclussion, the importance of reliability of stand-alone photovoltaic systems because usually these are located in remote locations, without qualified maintenance and financial resources.These systems operate under dependence of solar radiation and the consumption profile.
Resumo:
El audio multicanal ha avanzado a pasos agigantados en los últimos años, y no solo en las técnicas de reproducción, sino que en las de capitación también. Por eso en este proyecto se encuentran ambas cosas: un array microfónico, EigenMike32 de MH Acoustics, y un sistema de reproducción con tecnología Wave Field Synthesis, instalado Iosono en la Jade Höchscule Oldenburg. Para enlazar estos dos puntos de la cadena de audio se proponen dos tipos distintos de codificación: la reproducción de la toma horizontal del EigenMike32; y el 3er orden de Ambisonics (High Order Ambisonics, HOA), una técnica de codificación basada en Armónicos Esféricos mediante la cual se simula el campo acústico en vez de simular las distintas fuentes. Ambas se desarrollaron en el entorno Matlab y apoyadas por la colección de scripts de Isophonics llamada Spatial Audio Matlab Toolbox. Para probar éstas se llevaron a cabo una serie de test en los que se las comparó con las grabaciones realizadas a la vez con un Dummy Head, a la que se supone el método más aproximado a nuestro modo de escucha. Estas pruebas incluían otras grabaciones hechas con un Doble MS de Schoeps que se explican en el proyecto “Sally”. La forma de realizar éstas fue, una batería de 4 audios repetida 4 veces para cada una de las situaciones garbadas (una conversación, una clase, una calle y un comedor universitario). Los resultados fueron inesperados, ya que la codificación del tercer orden de HOA quedo por debajo de la valoración Buena, posiblemente debido a la introducción de material hecho para un array tridimensional dentro de uno de 2 dimensiones. Por el otro lado, la codificación que consistía en extraer los micrófonos del plano horizontal se mantuvo en el nivel de Buena en todas las situaciones. Se concluye que HOA debe seguir siendo probado con mayores conocimientos sobre Armónicos Esféricos; mientras que el otro codificador, mucho más sencillo, puede ser usado para situaciones sin mucha complejidad en cuanto a espacialidad. In the last years the multichannel audio has increased in leaps and bounds and not only in the playback techniques, but also in the recording ones. That is the reason of both things being in this project: a microphone array, EigenMike32 from MH Acoustics; and a playback system with Wave Field Synthesis technology, installed by Iosono in Jade Höchscule Oldenburg. To link these two points of the audio chain, 2 different kinds of codification are proposed: the reproduction of the EigenMike32´s horizontal take, and the Ambisonics´ third order (High Order Ambisonics, HOA), a codification technique based in Spherical Harmonics through which the acoustic field is simulated instead of the different sound sources. Both have been developed inside Matlab´s environment and supported by the Isophonics´ scripts collection called Spatial Audio Matlab Toolbox. To test these, a serial of tests were made in which they were compared with recordings made at the time by a Dummy Head, which is supposed to be the closest method to our hearing way. These tests included other recording and codifications made by a Double MS (DMS) from Schoeps which are explained in the project named “3D audio rendering through Ambisonics techniques: from multi-microphone recordings (DMS Schoeps) to a WFS system, through Matlab”. The way to perform the tests was, a collection made of 4 audios repeated 4 times for each recorded situation (a chat, a class, a street and college canteen or Mensa). The results were unexpected, because the HOA´s third order stood under the Well valuation, possibly caused by introducing material made for a tridimensional array inside one made only by 2 dimensions. On the other hand, the codification that consisted of extracting the horizontal plane microphones kept the Well valuation in all the situations. It is concluded that HOA should keep being tested with larger knowledge about Spherical Harmonics; while the other coder, quite simpler, can be used for situations without a lot of complexity with regards to spatiality.
Resumo:
This dissertation, whose research has been conducted at the Group of Electronic and Microelectronic Design (GDEM) within the framework of the project Power Consumption Control in Multimedia Terminals (PCCMUTE), focuses on the development of an energy estimation model for the battery-powered embedded processor board. The main objectives and contributions of the work are summarized as follows: A model is proposed to obtain the accurate energy estimation results based on the linear correlation between the performance monitoring counters (PMCs) and energy consumption. the uniqueness of the appropriate PMCs for each different system, the modeling methodology is improved to obtain stable accuracies with slight variations among multiple scenarios and to be repeatable in other systems. It includes two steps: the former, the PMC-filter, to identify the most proper set among the available PMCs of a system and the latter, the k-fold cross validation method, to avoid the bias during the model training stage. The methodology is implemented on a commercial embedded board running the 2.6.34 Linux kernel and the PAPI, a cross-platform interface to configure and access PMCs. The results show that the methodology is able to keep a good stability in different scenarios and provide robust estimation results with the average relative error being less than 5%. Este trabajo fin de máster, cuya investigación se ha desarrollado en el Grupo de Diseño Electrónico y Microelectrónico (GDEM) en el marco del proyecto PccMuTe, se centra en el desarrollo de un modelo de estimación de energía para un sistema empotrado alimentado por batería. Los objetivos principales y las contribuciones de esta tesis se resumen como sigue: Se propone un modelo para obtener estimaciones precisas del consumo de energía de un sistema empotrado. El modelo se basa en la correlación lineal entre los valores de los contadores de prestaciones y el consumo de energía. Considerando la particularidad de los contadores de prestaciones en cada sistema, la metodología de modelado se ha mejorado para obtener precisiones estables, con ligeras variaciones entre escenarios múltiples y para replicar los resultados en diferentes sistemas. La metodología incluye dos etapas: la primera, filtrado-PMC, que consiste en identificar el conjunto más apropiado de contadores de prestaciones de entre los disponibles en un sistema y la segunda, el método de validación cruzada de K iteraciones, cuyo fin es evitar los sesgos durante la fase de entrenamiento. La metodología se implementa en un sistema empotrado que ejecuta el kernel 2.6.34 de Linux y PAPI, un interfaz multiplataforma para configurar y acceder a los contadores. Los resultados muestran que esta metodología consigue una buena estabilidad en diferentes escenarios y proporciona unos resultados robustos de estimación con un error medio relativo inferior al 5%.
Resumo:
Energy management has always been recognized as a challenge in mobile systems, especially in modern OS-based mobile systems where multi-functioning are widely supported. Nowadays, it is common for a mobile system user to run multiple applications simultaneously while having a target battery lifetime in mind for a specific application. Traditional OS-level power management (PM) policies make their best effort to save energy under performance constraint, but fail to guarantee a target lifetime, leaving the painful trading off between the total performance of applications and the target lifetime to the user itself. This thesis provides a new way to deal with the problem. It is advocated that a strong energy-aware PM scheme should first guarantee a user-specified battery lifetime to a target application by restricting the average power of those less important applications, and in addition to that, maximize the total performance of applications without harming the lifetime guarantee. As a support, energy, instead of CPU or transmission bandwidth, should be globally managed as the first-class resource by the OS. As the first-stage work of a complete PM scheme, this thesis presents the energy-based fair queuing scheduling, a novel class of energy-aware scheduling algorithms which, in combination with a mechanism of battery discharge rate restricting, systematically manage energy as the first-class resource with the objective of guaranteeing a user-specified battery lifetime for a target application in OS-based mobile systems. Energy-based fair queuing is a cross-application of the traditional fair queuing in the energy management domain. It assigns a power share to each task, and manages energy by proportionally serving energy to tasks according to their assigned power shares. The proportional energy use establishes proportional share of the system power among tasks, which guarantees a minimum power for each task and thus, avoids energy starvation on any task. Energy-based fair queuing treats all tasks equally as one type and supports periodical time-sensitive tasks by allocating each of them a share of system power that is adequate to meet the highest energy demand in all periods. However, an overly conservative power share is usually required to guarantee the meeting of all time constraints. To provide more effective and flexible support for various types of time-sensitive tasks in general purpose operating systems, an extra real-time friendly mechanism is introduced to combine priority-based scheduling into the energy-based fair queuing. Since a method is available to control the maximum time one time-sensitive task can run with priority, the power control and time-constraint meeting can be flexibly traded off. A SystemC-based test-bench is designed to assess the algorithms. Simulation results show the success of the energy-based fair queuing in achieving proportional energy use, time-constraint meeting, and a proper trading off between them. La gestión de energía en los sistema móviles está considerada hoy en día como un reto fundamental, notándose, especialmente, en aquellos terminales que utilizando un sistema operativo implementan múltiples funciones. Es común en los sistemas móviles actuales ejecutar simultaneamente diferentes aplicaciones y tener, para una de ellas, un objetivo de tiempo de uso de la batería. Tradicionalmente, las políticas de gestión de consumo de potencia de los sistemas operativos hacen lo que está en sus manos para ahorrar energía y satisfacer sus requisitos de prestaciones, pero no son capaces de proporcionar un objetivo de tiempo de utilización del sistema, dejando al usuario la difícil tarea de buscar un compromiso entre prestaciones y tiempo de utilización del sistema. Esta tesis, como contribución, proporciona una nueva manera de afrontar el problema. En ella se establece que un esquema de gestión de consumo de energía debería, en primer lugar, garantizar, para una aplicación dada, un tiempo mínimo de utilización de la batería que estuviera especificado por el usuario, restringiendo la potencia media consumida por las aplicaciones que se puedan considerar menos importantes y, en segundo lugar, maximizar las prestaciones globales sin comprometer la garantía de utilización de la batería. Como soporte de lo anterior, la energía, en lugar del tiempo de CPU o el ancho de banda, debería gestionarse globalmente por el sistema operativo como recurso de primera clase. Como primera fase en el desarrollo completo de un esquema de gestión de consumo, esta tesis presenta un algoritmo de planificación de encolado equitativo (fair queueing) basado en el consumo de energía, es decir, una nueva clase de algoritmos de planificación que, en combinación con mecanismos que restrinjan la tasa de descarga de una batería, gestionen de forma sistemática la energía como recurso de primera clase, con el objetivo de garantizar, para una aplicación dada, un tiempo de uso de la batería, definido por el usuario, en sistemas móviles empotrados. El encolado equitativo de energía es una extensión al dominio de la energía del encolado equitativo tradicional. Esta clase de algoritmos asigna una reserva de potencia a cada tarea y gestiona la energía sirviéndola de manera proporcional a su reserva. Este uso proporcional de la energía garantiza que cada tarea reciba una porción de potencia y evita que haya tareas que se vean privadas de recibir energía por otras con un comportamiento más ambicioso. Esta clase de algoritmos trata a todas las tareas por igual y puede planificar tareas periódicas en tiempo real asignando a cada una de ellas una reserva de potencia que es adecuada para proporcionar la mayor de las cantidades de energía demandadas por período. Sin embargo, es posible demostrar que sólo se consigue cumplir con los requisitos impuestos por todos los plazos temporales con reservas de potencia extremadamente conservadoras. En esta tesis, para proporcionar un soporte más flexible y eficiente para diferentes tipos de tareas de tiempo real junto con el resto de tareas, se combina un mecanismo de planificación basado en prioridades con el encolado equitativo basado en energía. En esta clase de algoritmos, gracias al método introducido, que controla el tiempo que se ejecuta con prioridad una tarea de tiempo real, se puede establecer un compromiso entre el cumplimiento de los requisitos de tiempo real y el consumo de potencia. Para evaluar los algoritmos, se ha diseñado en SystemC un banco de pruebas. Los resultados muestran que el algoritmo de encolado equitativo basado en el consumo de energía consigue el balance entre el uso proporcional a la energía reservada y el cumplimiento de los requisitos de tiempo real.
Resumo:
La constante evolución de dispositivos portátiles multimedia que se ha producido en la última década ha provocado que hoy en día se disponga de una amplia variedad de dispositivos con capacidad para reproducir contenidos multimedia. En consecuencia, la reproducción de esos contenidos en dichos terminales lleva asociada disponer de procesadores que soporten una alta carga computacional, ya que las tareas de descodificación y presentación de video así lo requieren. Sin embargo, un procesador potente trabajando a elevadas frecuencias provoca un elevado consumo de la batería, y dado que se pretende trabajar con dispositivos portátiles, la vida útil de la batería se convierte en un asunto de especial importancia. La problemática que se plantea se ha convertido en una de las principales líneas de investigación del Grupo de Investigación GDEM (Grupo de Diseño Electrónico y Microelectrónico). En esta línea de trabajo, se persigue cómo optimizar el consumo de energía en terminales portables desde el punto de vista de la reducción de la calidad de experiencia del usuario a cambio de una mayor autonomía del terminal. Por tanto, para lograr esa reducción de la calidad de experiencia mencionada, se requiere un estándar de codificación de vídeo que así lo permita. El Grupo de Investigación GDEM cuenta con experiencia en el estándar de vídeo escalable H.264/SVC, el cual permite degradar la calidad de experiencia en función de las necesidades/características del dispositivo. Más concretamente, un video escalable contiene embebidas distintas versiones del video original que pueden ser descodificadas en diferentes resoluciones, tasas de cuadro y calidades (escalabilidades espacial, temporal y de calidad respectivamente), permitiendo una adaptación rápida y muy flexible. Seleccionado el estándar H.264/SVC para las tareas de vídeo, se propone trabajar con Mplayer, un reproductor de vídeos de código abierto (open source), al cual se le ha integrado un descodificador para vídeo escalable denominado OpenSVC. Por último, como dispositivo portable se trabajará con la plataforma de desarrollo BeagleBoard, un sistema embebido basado en el procesador OMAP3530 que permite modificar la frecuencia de reloj y la tensión de alimentación dinámicamente reduciendo de este modo el consumo del terminal. Este procesador a su vez contiene integrados un procesador de propósito general (ARM Cortex-A8) y un procesador digital de señal (DSP TMS320C64+TM). Debido a la alta carga computacional de la descodificación de vídeos escalables y la escasa optimización del ARM para procesamiento de datos, se propone llevar a cabo la ejecución de Mplayer en el ARM y encargar la tarea de descodificación al DSP, con la finalidad de reducir el consumo y por tanto aumentar la vida útil del sistema embebido sobre el cual se ejecutará la aplicación desarrollada. Una vez realizada esa integración, se llevará a cabo una caracterización del descodificador alojado en el DSP a través de una serie de medidas de rendimiento y se compararán los resultados con los obtenidos en el proceso de descodificación realizado únicamente en el ARM. ABSTRACT During the last years, the multimedia portable terminals have gradually evolved causing that nowadays a several range of devices with the ability of playing multimedia contents are easily available for everyone. Consequently, those multimedia terminals must have high-performance processors to play those contents because the coding and decoding tasks demand high computational load. However, a powerful processor performing to high frequencies implies higher battery consumption, and this issue has become one of the most important problems in the development cycle of a portable terminal. The power/energy consumption optimization on multimedia terminals has become in one the most significant work lines in the Electronic and Microelectronic Research Group of the Universidad Politécnica de Madrid. In particular, the group is researching how to reduce the user‟s Quality of Experience (QoE) quality in exchange for increased battery life. In order to reduce the Quality of Experience (QoE), a standard video coding that allows this operation is required. The H.264/SVC allows reducing the QoE according to the needs/characteristics of the terminal. Specifically, a scalable video contains different versions of original video embedded in an only one video stream, and each one of them can be decoded in different resolutions, frame rates and qualities (spatial, temporal and quality scalabilities respectively). Once the standard video coding is selected, a multimedia player with support for scalable video is needed. Mplayer has been proposed as a multimedia player, whose characteristics (open-source, enormous flexibility and scalable video decoder called OpenSVC) are the most suitable for the aims of this Master Thesis. Lastly, the embedded system BeagleBoard, based on the multi-core processor OMAP3530, will be the development platform used in this project. The multimedia terminal architecture is based on a commercial chip having a General Purpose Processor (GPP – ARM Cortex A8) and a Digital Signal Processor (DSP, TMS320C64+™). Moreover, the processor OMAP3530 has the ability to modify the operating frequency and the supply voltage in a dynamic way in order to reduce the power consumption of the embedded system. So, the main goal of this Master Thesis is the integration of the multimedia player, MPlayer, executed at the GPP, and scalable video decoder, OpenSVC, executed at the DSP in order to distribute the computational load associated with the scalable video decoding task and to reduce the power consumption of the terminal. Once the integration is accomplished, the performance of the OpenSVC decoder executed at the DSP will be measured using different combinations of scalability values. The obtained results will be compared with the scalable video decoding performed at the GPP in order to show the low optimization of this kind of architecture for decoding tasks in contrast to DSP architecture.
Resumo:
Una de mis muchas preocupaciones en el campo de la enseñanza, es y será, el sistema o procedimiento de evaluación a utilizar. Las observaciones efectuadas en mi localidad (Salamanca) me llevaron a la conclusión de que en un alto porcentaje de centros escolares, los profesores, guiados por unos criterios siempre personales, calificaban a sus alumnos con métodos totalmente subjetivos. Continuando con las observaciones a nivel provincial, los hechos son más evidentes, estamos acostumbrados a administrar programas y actividades, cuya evaluación se basa en la asistencia, la victoria o la derrota, etc. En octubre de 1977, el Consejo Superior de Deportes a través de su Delegación Provincial en Salamanca, inició un Plan Experimental de Promoción Físico-Deportiva Escolar, con la participación de más de medio centenar de centros de E.G.B. correspondiente a la capital y 11 localidades de la provincia. Se me propuso la dirección del mismo y con la colaboración de otros compañeros, comenzamos a elaborar su administración. Fué entonces, cuando al abordar nuevamente el problema de la evaluación, nos propusimos en un primer intento, que fuera lo más objetiva posible, para lo cual determinamos las medidas que teníamos que efectuar de cara a la consecución de los objetivos prefijados. La falta de personas especializadas y las dudas en cuanto a la autenticidad y objetividad en la recogida de los datos, nos obligó a desestimar las muestras recogidas y a plantearnos nuevamente el problema. En septiembre de 1979, después de estudiados todos los aspectos que más nos interesaban para la buena marcha del trabajo, nos dedicamos fundamentalmente a la formación y preparación del grupo de jueces (ocho personas especializadas), al objeto de conseguir una uniformidad de criterios a la hora de la aplicación de las pruebas. La finalidad del trabajo es establecer "standars" de la población escolar de los colegios nacionales de Educación General Básica de la localidad de Salamanca, en las edades comprendidas entre los 11 y 14 años, en forma de tablas de percentiles, basados en la edad y sexo, de forma que en el futuro nos sirvan: a) Como baremo calificador, ya que - hay que establecer con justeza los niveles a alcanzar. - nos podemos fiar de la justa interpretación que se dé a las respuestas del examinando, ya que son elementos de la máxima objetividad -el cronómetro y el metro-, los que interpretan y valoran dichas respuestas. b) Como elemento básico, para las futuras planificaciones del mencionado Plan Experimental. Al valorar el conjunto de una serie de pruebas motoras, los profesores, tendrán un índice determinador, que les servirá como fundamento de trabajo a desarrollar en el futuro. c) Como estudio comparativo entre otras poblaciones. En el Capitulo I, expongo brevemente, los fundamentos teóricos sobre el estudio de la medida y evaluación de la aptitud física, pues lo considero imprescindible para un buen enfoque del trabajo en general. El Capitulo II, se refiere a la metodología empleada: determinación de la muestra, justificación de la batería de pruebas empleada, instrumentos de medida y técnicas de aplicación. Los resultados de las medidas obtenidas, los hemos elaborado estadísticamente con los siguientes criterios: 1) trabajar con datos agrupados. 2) la tabulación, la hemos realizado formando el mayor número de intervalos posible, al objeto de únicamente confeccionar una tabla de frecuencias para cada prueba en las cuatro edades. Las medidas estadísticas que hemos obtenido han sido: Medidas de tendencia central (media); Medidas de dispersión (desviación típica); Al objeto de que los resultados estén más claros, hemos realizado las gráficas de distribución de frecuencias, para cada prueba y edad. En el Capitulo IV, hacemos un análisis de los resultados obtenidos por prueba y edad, al mismo tiempo que los compara con datos correspondientes a niños de las mismas edades de muestras obtenidas en otros países.
Resumo:
Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.
Resumo:
Tanto los robots autónomos móviles como los robots móviles remotamente operados se utilizan con éxito actualmente en un gran número de ámbitos, algunos de los cuales son tan dispares como la limpieza en el hogar, movimiento de productos en almacenes o la exploración espacial. Sin embargo, es difícil garantizar la ausencia de defectos en los programas que controlan dichos dispositivos, al igual que ocurre en otros sectores informáticos. Existen diferentes alternativas para medir la calidad de un sistema en el desempeño de las funciones para las que fue diseñado, siendo una de ellas la fiabilidad. En el caso de la mayoría de los sistemas físicos se detecta una degradación en la fiabilidad a medida que el sistema envejece. Esto es debido generalmente a efectos de desgaste. En el caso de los sistemas software esto no suele ocurrir, ya que los defectos que existen en ellos generalmente no han sido adquiridos con el paso del tiempo, sino que han sido insertados en el proceso de desarrollo de los mismos. Si dentro del proceso de generación de un sistema software se focaliza la atención en la etapa de codificación, podría plantearse un estudio que tratara de determinar la fiabilidad de distintos algoritmos, válidos para desempeñar el mismo cometido, según los posibles defectos que pudieran introducir los programadores. Este estudio básico podría tener diferentes aplicaciones, como por ejemplo elegir el algoritmo menos sensible a los defectos, para el desarrollo de un sistema crítico o establecer procedimientos de verificación y validación, más exigentes, si existe la necesidad de utilizar un algoritmo que tenga una alta sensibilidad a los defectos. En el presente trabajo de investigación se ha estudiado la influencia que tienen determinados tipos de defectos software en la fiabilidad de tres controladores de velocidad multivariable (PID, Fuzzy y LQR) al actuar en un robot móvil específico. La hipótesis planteada es que los controladores estudiados ofrecen distinta fiabilidad al verse afectados por similares patrones de defectos, lo cual ha sido confirmado por los resultados obtenidos. Desde el punto de vista de la planificación experimental, en primer lugar se realizaron los ensayos necesarios para determinar si los controladores de una misma familia (PID, Fuzzy o LQR) ofrecían una fiabilidad similar, bajo las mismas condiciones experimentales. Una vez confirmado este extremo, se eligió de forma aleatoria un representante de clase de cada familia de controladores, para efectuar una batería de pruebas más exhaustiva, con el objeto de obtener datos que permitieran comparar de una forma más completa la fiabilidad de los controladores bajo estudio. Ante la imposibilidad de realizar un elevado número de pruebas con un robot real, así como para evitar daños en un dispositivo que generalmente tiene un coste significativo, ha sido necesario construir un simulador multicomputador del robot. Dicho simulador ha sido utilizado tanto en las actividades de obtención de controladores bien ajustados, como en la realización de los diferentes ensayos necesarios para el experimento de fiabilidad. ABSTRACT Autonomous mobile robots and remotely operated robots are used successfully in very diverse scenarios, such as home cleaning, movement of goods in warehouses or space exploration. However, it is difficult to ensure the absence of defects in programs controlling these devices, as it happens in most computer sectors. There exist different quality measures of a system when performing the functions for which it was designed, among them, reliability. For most physical systems, a degradation occurs as the system ages. This is generally due to the wear effect. In software systems, this does not usually happen, and defects often come from system development and not from use. Let us assume that we focus on the coding stage in the software development pro¬cess. We could consider a study to find out the reliability of different and equally valid algorithms, taking into account any flaws that programmers may introduce. This basic study may have several applications, such as choosing the algorithm less sensitive to pro¬gramming defects for the development of a critical system. We could also establish more demanding procedures for verification and validation if we need an algorithm with high sensitivity to programming defects. In this thesis, we studied the influence of certain types of software defects in the reliability of three multivariable speed controllers (PID, Fuzzy and LQR) designed to work in a specific mobile robot. The hypothesis is that similar defect patterns affect differently the reliability of controllers, and it has been confirmed by the results. From the viewpoint of experimental planning, we followed these steps. First, we conducted the necessary test to determine if controllers of the same family (PID, Fuzzy or LQR) offered a similar reliability under the same experimental conditions. Then, a class representative was chosen at ramdom within each controller family to perform a more comprehensive test set, with the purpose of getting data to compare more extensively the reliability of the controllers under study. The impossibility of performing a large number of tests with a real robot and the need to prevent the damage of a device with a significant cost, lead us to construct a multicomputer robot simulator. This simulator has been used to obtain well adjusted controllers and to carry out the required reliability experiments.
Resumo:
La gestión del conocimiento (KM) se basa en la captación, filtración, procesamiento y análisis de unos datos en bruto que con dicho refinamiento podrán llegar a convertirse en conocimiento o Sabiduría. Estas prácticas tendrán lugar en este PFC en una WSN (Wireless Sensor Network) compuesta de unos sofisticados dispositivos comúnmente conocidos como “motas” y cuya principal característica son sus bajas capacidades en cuanto a memoria, batería o autonomía. Ha sido objetivo primordial de este Proyecto de fin de Carrera aunar una WSN con la Gestión del Conocimiento así como demostrar que es posible llevar a cabo grandes procesamientos de información, con tan bajas capacidades, si se distribuyen correctamente los procesos. En primera instancia, se introducen conceptos básicos acerca de las WSN (Wireless Sensor Networks) así como de los elementos principales en dichas redes. Tras conocer el modelo de arquitectura de comunicaciones se procede a presentar la Gestión del Conocimiento de forma teórica y a continuación la interpretación que se ha hecho a partir de diversas referencias bibliográficas para llevar a cabo la implementación del proyecto. El siguiente paso es describir punto por punto todos los componentes del Simulador; librerías, funcionamiento y demás cuestiones sobre configuración y puesta a punto. Como escenario de aplicación se plantea una red de sensores inalámbricos básica cuya topología y ubicación es completamente configurable. Se lleva a cabo una configuración a nivel de red basada en el protocolo 6LowPAN pero con posibilidad de simplificarlo. Los datos se procesan de acuerdo a un modelo piramidal de Gestión de Conocimiento adaptable a las necesidades del usuario. Mediante la utilización de las diversas opciones que proporciona la interfaz gráfica implementada y los documentos de resultados que se van generando, se puede llevar a cabo un detallado estudio posterior de la simulación y comprobar si se cumplen las expectativas planteadas. Knowledge management (KM) is based on the collection, filtering, processing and analysis of some raw data which such refinement it can be turned into knowledge or wisdom. These practices will take place in a WSN (Wireless Sensor Network) consists of sophisticated devices commonly known as "dots" and whose main characteristics are its low capacity for memory, battery or autonomy. A primary objective of this Project will be to join a WSN with Knowledge Management and show that it is possible make largo information processing, with such low capacity if the processes are properly distributed. First, we introduce basic concepts about the WSN (Wireless Sensor Networks) and major elements of these networks. After meeting the communications architecture model, we proceed to show the Knowledge Management theory and then the interpretation of several bibliographic references to carry out the project implementation. The next step is discovering point by point all over the Simulator components; libraries, operation and the rest of points about configuration and tuning. As application scenario we propose a basic wireless sensor network whose topology and location is completely customizable. It will perform a network level configuration based in W6LowPAN Protocol. Data is processed according to a pyramidal pattern Knowledge Management adaptable to the user´s needs. The hardware elements will suffer more or less energy dependence depending on their role and activity in the network. Through the various options that provide the graphical interface has been implemented and results documents that are generated, can be carried out after a detailed study of the simulation and verify compliance with the expectations raised.