833 resultados para power line communication


Relevância:

30.00% 30.00%

Publicador:

Resumo:

In recent years, the increasing sophistication of embedded multimedia systems and wireless communication technologies has promoted a widespread utilization of video streaming applications. It has been reported in 2013 that youngsters, aged between 13 and 24, spend around 16.7 hours a week watching online video through social media, business websites, and video streaming sites. Video applications have already been blended into people daily life. Traditionally, video streaming research has focused on performance improvement, namely throughput increase and response time reduction. However, most mobile devices are battery-powered, a technology that grows at a much slower pace than either multimedia or hardware developments. Since battery developments cannot satisfy expanding power demand of mobile devices, research interests on video applications technology has attracted more attention to achieve energy-efficient designs. How to efficiently use the limited battery energy budget becomes a major research challenge. In addition, next generation video standards impel to diversification and personalization. Therefore, it is desirable to have mechanisms to implement energy optimizations with greater flexibility and scalability. In this context, the main goal of this dissertation is to find an energy management and optimization mechanism to reduce the energy consumption of video decoders based on the idea of functional-oriented reconfiguration. System battery life is prolonged as the result of a trade-off between energy consumption and video quality. Functional-oriented reconfiguration takes advantage of the similarities among standards to build video decoders reconnecting existing functional units. If a feedback channel from the decoder to the encoder is available, the former can signal the latter changes in either the encoding parameters or the encoding algorithms for energy-saving adaption. The proposed energy optimization and management mechanism is carried out at the decoder end. This mechanism consists of an energy-aware manager, implemented as an additional block of the reconfiguration engine, an energy estimator, integrated into the decoder, and, if available, a feedback channel connected to the encoder end. The energy-aware manager checks the battery level, selects the new decoder description and signals to build a new decoder to the reconfiguration engine. It is worth noting that the analysis of the energy consumption is fundamental for the success of the energy management and optimization mechanism. In this thesis, an energy estimation method driven by platform event monitoring is proposed. In addition, an event filter is suggested to automate the selection of the most appropriate events that affect the energy consumption. At last, a detailed study on the influence of the training data on the model accuracy is presented. The modeling methodology of the energy estimator has been evaluated on different underlying platforms, single-core and multi-core, with different characteristics of workload. All the results show a good accuracy and low on-line computation overhead. The required modifications on the reconfiguration engine to implement the energy-aware manager have been assessed under different scenarios. The results indicate a possibility to lengthen the battery lifetime of the system in two different use-cases.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, a novel excitation-system ground-fault location method is described and tested in a 106 MVA synchronous machine. In this unit, numerous rotor ground-fault trips took place always about an hour after the synchronization to the network. However, when the field winding insulation was checked after the trips, there was no failure. The data indicated that the faults in the rotor were caused by centrifugal forces and temperature. Unexpectedly, by applying this new method, the failure was located in a cable between the excitation transformer and the automatic voltage regulator. In addition, several intentional ground faults were performed along the field winding with different fault resistance values, in order to test the accuracy of this method to locate defects in rotor windings of large generators. Therefore, this new on-line rotor ground-fault detection algorithm is tested in high-power synchronous generators with satisfactory results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las centrales nucleares necesitan de personal altamente especializado y formado. Es por ello por lo que el sector de la formación especializada en centrales nucleares necesita incorporar los últimos avances en métodos formativos. Existe una gran cantidad de cursos de formación presenciales y es necesario transformar dichos cursos para utilizarlos con las nuevas tecnologías de la información. Para ello se necesitan equipos multidisciplinares, en los que se incluyen ingenieros, que deben identificar los objetivos formativos, competencias, contenidos y el control de calidad del propio curso. En este proyecto se utilizan técnicas de ingeniería del conocimiento como eje metodológico para transformar un curso de formación presencial en formación on-line a través de tecnologías de la información. En la actualidad, las nuevas tecnologías de la información y comunicación están en constante evolución. De esta forma se han sumergido en el mundo transformando la visión que teníamos de éste para dar lugar a nuevas oportunidades. Es por ello que este proyecto busca la unión entre el e-learning y el mundo empresarial. El objetivo es el diseño, en plataforma e-learning, de un curso técnico que instruya a operadores de sala de control de una central nuclear. El trabajo realizado en este proyecto ha sido, además de transformar un curso presencial en on-line, en obtener una metodología para que otros cursos se puedan transformar. Para conseguir este cometido, debemos preocuparnos tanto por el contenido de los cursos como por su gestión. Por este motivo, el proyecto comienza con definiciones básicas de terminología propia de e-learning. Continúa con la generación de una metodología que aplique la gestión de conocimiento para transformar cualquier curso presencial a esta plataforma. Definida la metodología, se aplicará para el diseño del curso específico de Coeficientes Inherentes de Reactividad. Finaliza con un estudio económico que dé viabilidad al proyecto y con la creación de un modelo económico que estime el precio para cualquier curso futuro. Abstract Nuclear power plants need highly specialized and trained personnel. Thus, nuclear power plant Specialized Training Sector requires the incorporation of the latest advances in training methods. A large array of face-to-face training courses exist and it has become necessary to transform said courses in order to apply them with the new information systems available. For this, multidisciplinary equipment is needed where the engineering workforce must identify educational objectives, competences and abilities, contents and quality control of the different courses. In this project, knowledge engineering techniques are employed as the methodological axis in order to transform a face-to-face training course into on-line training through the use of new information technologies. Nowadays, new information and communication technologies are in constant evolution. They have introduced themselves into our world, transforming our previous vision of them, leading to new opportunities. For this reason, the present Project seeks to unite the use of e-learning and the Business and Corporate world. The main objective is the design, in an e-learning platform, of a technical course that will train nuclear power plant control-room operators. The work carried out in this Project has been, in addition to the transformation of a face-to-face course into an online one, the obtainment of a methodology to employ in the future transformation of other courses. In order to achieve this mission, our interest must focus on the content as well as on the management of the various courses. Hence, the Project starts with basic definitions of e-learning terminology. Next, a methodology that applies knowledge management for the transformation of any face-to-face course into e-learning has been generated. Once this methodology is defined, it has been applied for the design process of the Inherent Coefficients of Reactivity course. Finally, an economic study has been developed in order to determine the viability of the Project and an economic model has been created to estimate the price of any given course

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this contribution a novel iterative bit- and power allocation (IBPA) approach has been developed when transmitting a given bit/s/Hz data rate over a correlated frequency non-selective (4× 4) Multiple-Input MultipleOutput (MIMO) channel. The iterative resources allocation algorithm developed in this investigation is aimed at the achievement of the minimum bit-error rate (BER) in a correlated MIMO communication system. In order to achieve this goal, the available bits are iteratively allocated in the MIMO active layers which present the minimum transmit power requirement per time slot.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents some power converter architectures and circuit topologies, which can be used to achieve the requirements of the high performance transformer rectifier unit in aircraft applications, mainly as: high power factor with low THD, high efficiency and high power density. The voltage and the power levels demanded for this application are: three-phase line-to-neutral input voltage of 115 or 230V AC rms (360 – 800Hz), output voltage of 28V DC or 270V DC(new grid value) and the output power up to tens of kilowatts.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los resultados presentados en la memoria de esta tesis doctoral se enmarcan en la denominada computación celular con membranas una nueva rama de investigación dentro de la computación natural creada por Gh. Paun en 1998, de ahí que habitualmente reciba el nombre de sistemas P. Este nuevo modelo de cómputo distribuido está inspirado en la estructura y funcionamiento de la célula. El objetivo de esta tesis ha sido analizar el poder y la eficiencia computacional de estos sistemas de computación celular. En concreto, se han analizado dos tipos de sistemas P: por un lado los sistemas P de neuronas de impulsos, y por otro los sistemas P con proteínas en las membranas. Para el primer tipo, los resultados obtenidos demuestran que es posible que estos sistemas mantengan su universalidad aunque muchas de sus características se limiten o incluso se eliminen. Para el segundo tipo, se analiza la eficiencia computacional y se demuestra que son capaces de resolver problemas de la clase de complejidad ESPACIO-P (PSPACE) en tiempo polinómico. Análisis del poder computacional: Los sistemas P de neuronas de impulsos (en adelante SN P, acrónimo procedente del inglés «Spiking Neural P Systems») son sistemas inspirados en el funcionamiento neuronal y en la forma en la que los impulsos se propagan por las redes sinápticas. Los SN P bio-inpirados poseen un numeroso abanico de características que ha cen que dichos sistemas sean universales y por tanto equivalentes, en poder computacional, a una máquina de Turing. Estos sistemas son potentes a nivel computacional, pero tal y como se definen incorporan numerosas características, quizás demasiadas. En (Ibarra et al. 2007) se demostró que en estos sistemas sus funcionalidades podrían ser limitadas sin comprometer su universalidad. Los resultados presentados en esta memoria son continuistas con la línea de trabajo de (Ibarra et al. 2007) y aportan nuevas formas normales. Esto es, nuevas variantes simplificadas de los sistemas SN P con un conjunto mínimo de funcionalidades pero que mantienen su poder computacional universal. Análisis de la eficiencia computacional: En esta tesis se ha estudiado la eficiencia computacional de los denominados sistemas P con proteínas en las membranas. Se muestra que este modelo de cómputo es equivalente a las máquinas de acceso aleatorio paralelas (PRAM) o a las máquinas de Turing alterantes ya que se demuestra que un sistema P con proteínas, es capaz de resolver un problema ESPACIOP-Completo como el QSAT(problema de satisfacibilidad de fórmulas lógicas cuantificado) en tiempo polinómico. Esta variante de sistemas P con proteínas es muy eficiente gracias al poder de las proteínas a la hora de catalizar los procesos de comunicación intercelulares. ABSTRACT The results presented at this thesis belong to membrane computing a new research branch inside of Natural computing. This new branch was created by Gh. Paun on 1998, hence usually receives the name of P Systems. This new distributed computing model is inspired on structure and functioning of cell. The aim of this thesis is to analyze the efficiency and computational power of these computational cellular systems. Specifically there have been analyzed two different classes of P systems. On the one hand it has been analyzed the Neural Spiking P Systems, and on the other hand it has been analyzed the P systems with proteins on membranes. For the first class it is shown that it is possible to reduce or restrict the characteristics of these kind of systems without loss of computational power. For the second class it is analyzed the computational efficiency solving on polynomial time PSACE problems. Computational Power Analysis: The spiking neural P systems (SN P in short) are systems inspired by the way of neural cells operate sending spikes through the synaptic networks. The bio-inspired SN Ps possess a large range of features that make these systems to be universal and therefore equivalent in computational power to a Turing machine. Such systems are computationally powerful, but by definition they incorporate a lot of features, perhaps too much. In (Ibarra et al. in 2007) it was shown that their functionality may be limited without compromising its universality. The results presented herein continue the (Ibarra et al. 2007) line of work providing new formal forms. That is, new SN P simplified variants with a minimum set of functionalities but keeping the universal computational power. Computational Efficiency Analisys: In this thesis we study the computational efficiency of P systems with proteins on membranes. We show that this computational model is equivalent to parallel random access machine (PRAM) or alternating Turing machine because, we show P Systems with proteins can solve a PSPACE-Complete problem as QSAT (Quantified Propositional Satisfiability Problem) on polynomial time. This variant of P Systems with proteins is very efficient thanks to computational power of proteins to catalyze inter-cellular communication processes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recientemente se ha demostrado la existencia de microorganismos en las piscinas de almacenamiento de combustible nuclear gastado en las centrales nucleares utilizando técnicas convencionales de cultivo en el laboratorio. Estudios posteriores han puesto de manifiesto que los microorganismos presentes eran capaces de colonizar las paredes de acero inoxidable de las piscinas formando biopelículas. Adicionalmente se ha observado la capacidad de estas biopelículas de retener radionúclidos, lo que hace pensar en la posibilidad de utilizarlas en la descontaminación de las aguas radiactivas de las piscinas. En la presente tesis se plantea conocer más profundamente la biodiversidad microbiana de las biopelículas utilizando técnicas de biología molecular como la clonación, además de desarrollar un sistema de descontaminación a escala piloto con el objetivo de valorar si el proceso podría resultar escalable a nivel industrial. Para ello se diseñaron y fabricaron dos biorreactores en acero inoxidable compatibles con las condiciones específicas de seguridad sísmica y protección frente a la radiación en la zona controlada de una central nuclear. Los biorreactores se instalaron en la Central Nuclear de Cofrentes (Valencia) en las proximidades de las piscinas de almacenamiento de combustible nuclear gastado y precediendo a las resinas de intercambio iónico, de forma que reciben el agua de las piscinas permitiendo el análisis in situ de la radiación eliminada del agua de las mismas. Se conectó una lámpara de luz ultravioleta a uno de los biorreactores para poder comparar el desarrollo de bipelículas y la retención de radiactividad en ambas condiciones. En estos biorreactores se introdujeron ovillos de acero inoxidable y de titanio que se extrajeron a diversos tiempos, hasta 635 días para los ovillos de acero inoxidable y hasta 309 días para los ovillos de titanio. Se analizaron las biopelículas desarrolladas sobre los ovillos por microscopía electrónica de barrido y por microscopía de epifluorescencia. Se extrajo el ADN de las biopelículas y, tras su clonación, se identificaron los microorganismos por técnicas independientes de cultivo. Asimismo se determinó por espectrometría gamma la capacidad de las biopelículas para retener radionúclidos. Los microorganismos radiorresistentes identificados pertenecen a los grupos filogenéticos Alpha-proteobacteria, Gamma-proteobacteria, Actinobacteria, Deinococcus-Thermus y Bacteroidetes. Las secuencias de estos microorganismos se han depositado en el GenBank con los números de acceso KR817260-KR817405. Se ha observado una distribución porcentual ligeramente diferente en relación con el tipo de biorreactor. Las biopelículas han retenido fundamentalmente radionúclidos de activación. La suma de Co-60 y Mn-54 ha llegado en ocasiones al 97%. Otros radionúclidos retenidos han sido Cr-51, Co-58, Fe-59, Zn-65 y Zr-95. Se sugiere un mecanismo del proceso de retención de radionúclidos relacionado con el tiempo de formación y desaparición de las biopelículas. Se ha valorado que el proceso escalable puede ser económicamente rentable. ABSTRACT The existence of microorganisms in spent nuclear fuel pools has been demonstrated recently in nuclear power plants by using conventional microbial techniques. Subsequent studies have revealed that those microorganisms were able to colonize the stainless steel pool walls forming biofilms. Additionally, it has been observed the ability of these biofilms to retain radionuclides, which suggests the possibility of using them for radioactive water decontamination purposes. This thesis presents deeper knowledge of microbial biofilms biodiversity by using molecular biology techniques such as cloning, and develops a decontamination system on a pilot scale, in order to assess whether the process could be scalable to an industrial level. Aiming to demonstrate this was feasible, two stainless steel bioreactors were designed and manufactured, both were compatible with seismic and radiation protection standards in the controlled zone of a nuclear plant. These bioreactors were installed in the Cofrentes Nuclear Power Plant (Valencia) next to the spent nuclear fuel pools and preceding (upstream) ion exchange resins. This configuration allowed the bioreactors to receive water directly from the pools allowing in situ analysis of radiation removal. One ultraviolet lamp was connected to one of the bioreactors to compare biofilms development and radioactivity retention in both conditions. Stainless steel and titanium balls were introduced into these bioreactors and were removed after different time periods, up to 635 days for stainless steel balls and up to 309 days for titanium. Biofilms developed on the balls were analyzed by scanning electron microscopy and epifluorescence microscopy. DNA was extracted from the biofilms, was cloned and then the microorganisms were identified by independent culture techniques. Biofilms ability to retain radionuclides was also determined by gamma spectrometry. The identified radioresistant organisms belong to the phylogenetic groups Alphaproteobacteria, Gamma-proteobacteria, Actinobacteria, Deinococcus-Thermus and Bacteroidetes. The sequences of these microorganisms have been deposited in GenBank (access numbers KR817260-KR817405). A different distribution of microorganisms was observed in relation to the type of bioreactor. Biofilms have essentially retained activation radionuclides. Sometimes the sum of Co-60 and Mn-54 reached 97%. Cr-51, Co-58, Fe-59, Zn-65 and Zr-95 have also been retained. A radionuclide retention process mechanism related to biofilms formation and disappearance time is suggested. It has been assessed that the scalable process can be economically profitable.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis se desarrolla dentro del marco de las comunicaciones satelitales en el innovador campo de los pequeños satélites también llamados nanosatélites o cubesats, llamados así por su forma cubica. Estos nanosatélites se caracterizan por su bajo costo debido a que usan componentes comerciales llamados COTS (commercial off-the-shelf) y su pequeño tamaño como los Cubesats 1U (10cm*10 cm*10 cm) con masa aproximada a 1 kg. Este trabajo de tesis tiene como base una iniciativa propuesta por el autor de la tesis para poner en órbita el primer satélite peruano en mi país llamado chasqui I, actualmente puesto en órbita desde la Estación Espacial Internacional. La experiencia de este trabajo de investigación me llevo a proponer una constelación de pequeños satélites llamada Waposat para dar servicio de monitoreo de sensores de calidad de agua a nivel global, escenario que es usado en esta tesis. Es ente entorno y dadas las características limitadas de los pequeños satélites, tanto en potencia como en velocidad de datos, es que propongo investigar una nueva arquitectura de comunicaciones que permita resolver en forma óptima la problemática planteada por los nanosatélites en órbita LEO debido a su carácter disruptivo en sus comunicaciones poniendo énfasis en las capas de enlace y aplicación. Esta tesis presenta y evalúa una nueva arquitectura de comunicaciones para proveer servicio a una red de sensores terrestres usando una solución basada en DTN (Delay/Disruption Tolerant Networking) para comunicaciones espaciales. Adicionalmente, propongo un nuevo protocolo de acceso múltiple que usa una extensión del protocolo ALOHA no ranurado, el cual toma en cuenta la prioridad del trafico del Gateway (ALOHAGP) con un mecanismo de contienda adaptativo. Utiliza la realimentación del satélite para implementar el control de la congestión y adapta dinámicamente el rendimiento efectivo del canal de una manera óptima. Asumimos un modelo de población de sensores finito y una condición de tráfico saturado en el que cada sensor tiene siempre tramas que transmitir. El desempeño de la red se evaluó en términos de rendimiento efectivo, retardo y la equidad del sistema. Además, se ha definido una capa de convergencia DTN (ALOHAGP-CL) como un subconjunto del estándar TCP-CL (Transmission Control Protocol-Convergency Layer). Esta tesis muestra que ALOHAGP/CL soporta adecuadamente el escenario DTN propuesto, sobre todo cuando se utiliza la fragmentación reactiva. Finalmente, esta tesis investiga una transferencia óptima de mensajes DTN (Bundles) utilizando estrategias de fragmentación proactivas para dar servicio a una red de sensores terrestres utilizando un enlace de comunicaciones satelitales que utiliza el mecanismo de acceso múltiple con prioridad en el tráfico de enlace descendente (ALOHAGP). El rendimiento efectivo ha sido optimizado mediante la adaptación de los parámetros del protocolo como una función del número actual de los sensores activos recibidos desde el satélite. También, actualmente no existe un método para advertir o negociar el tamaño máximo de un “bundle” que puede ser aceptado por un agente DTN “bundle” en las comunicaciones por satélite tanto para el almacenamiento y la entrega, por lo que los “bundles” que son demasiado grandes son eliminados o demasiado pequeños son ineficientes. He caracterizado este tipo de escenario obteniendo una distribución de probabilidad de la llegada de tramas al nanosatélite así como una distribución de probabilidad del tiempo de visibilidad del nanosatélite, los cuales proveen una fragmentación proactiva óptima de los DTN “bundles”. He encontrado que el rendimiento efectivo (goodput) de la fragmentación proactiva alcanza un valor ligeramente inferior al de la fragmentación reactiva. Esta contribución permite utilizar la fragmentación activa de forma óptima con todas sus ventajas tales como permitir implantar el modelo de seguridad de DTN y la simplicidad al implementarlo en equipos con muchas limitaciones de CPU y memoria. La implementación de estas contribuciones se han contemplado inicialmente como parte de la carga útil del nanosatélite QBito, que forma parte de la constelación de 50 nanosatélites que se está llevando a cabo dentro del proyecto QB50. ABSTRACT This thesis is developed within the framework of satellite communications in the innovative field of small satellites also known as nanosatellites (<10 kg) or CubeSats, so called from their cubic form. These nanosatellites are characterized by their low cost because they use commercial components called COTS (commercial off-the-shelf), and their small size and mass, such as 1U Cubesats (10cm * 10cm * 10cm) with approximately 1 kg mass. This thesis is based on a proposal made by the author of the thesis to put into orbit the first Peruvian satellite in his country called Chasqui I, which was successfully launched into orbit from the International Space Station in 2014. The experience of this research work led me to propose a constellation of small satellites named Waposat to provide water quality monitoring sensors worldwide, scenario that is used in this thesis. In this scenario and given the limited features of nanosatellites, both power and data rate, I propose to investigate a new communications architecture that allows solving in an optimal manner the problems of nanosatellites in orbit LEO due to the disruptive nature of their communications by putting emphasis on the link and application layers. This thesis presents and evaluates a new communications architecture to provide services to terrestrial sensor networks using a space Delay/Disruption Tolerant Networking (DTN) based solution. In addition, I propose a new multiple access mechanism protocol based on extended unslotted ALOHA that takes into account the priority of gateway traffic, which we call ALOHA multiple access with gateway priority (ALOHAGP) with an adaptive contention mechanism. It uses satellite feedback to implement the congestion control, and to dynamically adapt the channel effective throughput in an optimal way. We assume a finite sensor population model and a saturated traffic condition where every sensor always has frames to transmit. The performance was evaluated in terms of effective throughput, delay and system fairness. In addition, a DTN convergence layer (ALOHAGP-CL) has been defined as a subset of the standard TCP-CL (Transmission Control Protocol-Convergence Layer). This thesis reveals that ALOHAGP/CL adequately supports the proposed DTN scenario, mainly when reactive fragmentation is used. Finally, this thesis investigates an optimal DTN message (bundles) transfer using proactive fragmentation strategies to give service to a ground sensor network using a nanosatellite communications link which uses a multi-access mechanism with priority in downlink traffic (ALOHAGP). The effective throughput has been optimized by adapting the protocol parameters as a function of the current number of active sensors received from satellite. Also, there is currently no method for advertising or negotiating the maximum size of a bundle which can be accepted by a bundle agent in satellite communications for storage and delivery, so that bundles which are too large can be dropped or which are too small are inefficient. We have characterized this kind of scenario obtaining a probability distribution for frame arrivals to nanosatellite and visibility time distribution that provide an optimal proactive fragmentation of DTN bundles. We have found that the proactive effective throughput (goodput) reaches a value slightly lower than reactive fragmentation approach. This contribution allows to use the proactive fragmentation optimally with all its advantages such as the incorporation of the security model of DTN and simplicity in protocol implementation for computers with many CPU and memory limitations. The implementation of these contributions was initially contemplated as part of the payload of the nanosatellite QBito, which is part of the constellation of 50 nanosatellites envisaged under the QB50 project.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

On-line partial discharge (PD) measurements have become a common technique for assessing the insulation condition of installed high voltage (HV) insulated cables. When on-line tests are performed in noisy environments, or when more than one source of pulse-shaped signals are present in a cable system, it is difficult to perform accurate diagnoses. In these cases, an adequate selection of the non-conventional measuring technique and the implementation of effective signal processing tools are essential for a correct evaluation of the insulation degradation. Once a specific noise rejection filter is applied, many signals can be identified as potential PD pulses, therefore, a classification tool to discriminate the PD sources involved is required. This paper proposes an efficient method for the classification of PD signals and pulse-type noise interferences measured in power cables with HFCT sensors. By using a signal feature generation algorithm, representative parameters associated to the waveform of each pulse acquired are calculated so that they can be separated in different clusters. The efficiency of the clustering technique proposed is demonstrated through an example with three different PD sources and several pulse-shaped interferences measured simultaneously in a cable system with a high frequency current transformer (HFCT).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As emissoras de rádio não utilizam, de maneira eficiente, os espaços que possuem na internet. Foi baseado nesta hipótese que este trabalho foi construído. Trata-se de um estudo realizado a partir de sites de emissoras de rádio com sede na Capital Paulista, através do qual foi possível observar a maneira como as emissoras utilizam seus espaços on-line para a busca da interatividade com seus ouvintes e também a colocação de materiais publicitários de seus anunciantes. Após a etapa de pesquisa nos sites, especialistas divididos em professores universitários, anunciantes, profissionais de agências de propaganda e de veículos de comunicação foram procurados, com o intuito de verificar se acreditavam na possibilidade / capacidade de construção de uma relação interativa entre as emissoras de rádio, seus sites e seu público. Apesar da totalidade dos questionários apontar a crença nesta possibilidade, estes profissionais não mostraram caminhos possíveis para a utilização desta mídia audiovisual como complementação do processo comunicacional com o rádio. Assim, coube a este trabalho apresentar possibilidades de interação entre o mundo virtual e o rádio.(AU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As emissoras de rádio não utilizam, de maneira eficiente, os espaços que possuem na internet. Foi baseado nesta hipótese que este trabalho foi construído. Trata-se de um estudo realizado a partir de sites de emissoras de rádio com sede na Capital Paulista, através do qual foi possível observar a maneira como as emissoras utilizam seus espaços on-line para a busca da interatividade com seus ouvintes e também a colocação de materiais publicitários de seus anunciantes. Após a etapa de pesquisa nos sites, especialistas divididos em professores universitários, anunciantes, profissionais de agências de propaganda e de veículos de comunicação foram procurados, com o intuito de verificar se acreditavam na possibilidade / capacidade de construção de uma relação interativa entre as emissoras de rádio, seus sites e seu público. Apesar da totalidade dos questionários apontar a crença nesta possibilidade, estes profissionais não mostraram caminhos possíveis para a utilização desta mídia audiovisual como complementação do processo comunicacional com o rádio. Assim, coube a este trabalho apresentar possibilidades de interação entre o mundo virtual e o rádio.(AU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo pretende mostrar que a clareza semântica e a fácil navegabilidade nos sites de Relações com Investidores são essenciais para a comunicação com os investidores individuais bem como para a sua compreensão das Boas Práticas da Governança Corporativa adotadas pelas empresas que aderiram ao Novo Mercado da Bovespa. O trabalho está dividido em quatro etapas. O primeiro capítulo explica o que é Governança Corporativa, como esse conceito foi implementado no Brasil, apresenta o mercado de ações, o Novo Mercado e aborda os temas relacionados ao setor financeiro. Em seguida, aborda a evolução da comunicação empresarial e como as organizações tiveram que adaptar a sua cultura organizacional e os canais de comunicação devido à constante e ininterrupta série de transações (aquisições, fusões e incorporações) que acontecem no Brasil desde 1994, com o início do Plano Real. Esse processo proporcionou uma alteração geopolítica, cultural, econômica e social nas corporações. Ainda nesse capítulo o estudo apresenta as características dos canais que as organizações utilizam para se comunicar com os públicos de referência. Mostra também como a internet e as demais mídias digitais se integraram nesse processo corporativo, a relação com os investidores, os sites de RI das empresas do Novo Mercado e o perfil do investidor individual. Por último, o estudo apresenta a avaliação dos sites de RI, os critérios adotados para analisar a construção das homepages e demais páginas. Nesse ponto, o objetivo foi avaliar a clareza semântica, ou seja, a maneira como as informações são transmitidas para os investidores individuais, a acessibilidade desse canal de comunicação como a quantidade de cliques necessária para ter acesso a qualquer informação e se os sites possuem espaços específicos para esse público. Finalmente, são apresentados os resultados e uma análise da comunicação empresarial dessas empresas antes e depois da entrada das mesmas no Novo Mercado da Bovespa e as considerações finais.(AU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo pretende mostrar que a clareza semântica e a fácil navegabilidade nos sites de Relações com Investidores são essenciais para a comunicação com os investidores individuais bem como para a sua compreensão das Boas Práticas da Governança Corporativa adotadas pelas empresas que aderiram ao Novo Mercado da Bovespa. O trabalho está dividido em quatro etapas. O primeiro capítulo explica o que é Governança Corporativa, como esse conceito foi implementado no Brasil, apresenta o mercado de ações, o Novo Mercado e aborda os temas relacionados ao setor financeiro. Em seguida, aborda a evolução da comunicação empresarial e como as organizações tiveram que adaptar a sua cultura organizacional e os canais de comunicação devido à constante e ininterrupta série de transações (aquisições, fusões e incorporações) que acontecem no Brasil desde 1994, com o início do Plano Real. Esse processo proporcionou uma alteração geopolítica, cultural, econômica e social nas corporações. Ainda nesse capítulo o estudo apresenta as características dos canais que as organizações utilizam para se comunicar com os públicos de referência. Mostra também como a internet e as demais mídias digitais se integraram nesse processo corporativo, a relação com os investidores, os sites de RI das empresas do Novo Mercado e o perfil do investidor individual. Por último, o estudo apresenta a avaliação dos sites de RI, os critérios adotados para analisar a construção das homepages e demais páginas. Nesse ponto, o objetivo foi avaliar a clareza semântica, ou seja, a maneira como as informações são transmitidas para os investidores individuais, a acessibilidade desse canal de comunicação como a quantidade de cliques necessária para ter acesso a qualquer informação e se os sites possuem espaços específicos para esse público. Finalmente, são apresentados os resultados e uma análise da comunicação empresarial dessas empresas antes e depois da entrada das mesmas no Novo Mercado da Bovespa e as considerações finais.(AU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tese Comunicação & Astronomia, uma união virtual aborda o universo da comunicação virtual, das organizações virtuais, da ciência virtual. Um universo novo e emocionante onde a relação assíncrona espaço-temporal é o fator comum a todos os atores sociais envolvidos. O universo do virtual, das ferramentas de comunicação relacionadas às novas tecnologias, do ciberespaço, da existência concreta de uma organização imaterial. Estes elementos abrem novos horizontes para o conhecimento e compreensão dos processos de comunicação humana e organizacional na era da revolução informacional, proporcionando a oportunidade de estabelecer uma teoria de comunicação organizacional on line. A pesquisa bibliográfica apoiou-se em três bases teóricas de referência: a comunicação mediada por computador, comunicação virtual e comunicação organizacional, estas bases tiveram ainda o suporte de um estudo de caso que constituiu o corpus da pesquisa. Pudemos então compreender como ocorre a comunicação em uma organização virtual, seus processos, ferramentas e pontos cruciais que podem ser resumidos no fator motivacional necessário ao estímulo à interação virtual cooperativa, necessidade de construção e manutenção de imagem institucional forte que delimite a organização no ciberespaço e definição clara dos códigos de conduta da organização virtual.(AU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tese Comunicação & Astronomia, uma união virtual aborda o universo da comunicação virtual, das organizações virtuais, da ciência virtual. Um universo novo e emocionante onde a relação assíncrona espaço-temporal é o fator comum a todos os atores sociais envolvidos. O universo do virtual, das ferramentas de comunicação relacionadas às novas tecnologias, do ciberespaço, da existência concreta de uma organização imaterial. Estes elementos abrem novos horizontes para o conhecimento e compreensão dos processos de comunicação humana e organizacional na era da revolução informacional, proporcionando a oportunidade de estabelecer uma teoria de comunicação organizacional on line. A pesquisa bibliográfica apoiou-se em três bases teóricas de referência: a comunicação mediada por computador, comunicação virtual e comunicação organizacional, estas bases tiveram ainda o suporte de um estudo de caso que constituiu o corpus da pesquisa. Pudemos então compreender como ocorre a comunicação em uma organização virtual, seus processos, ferramentas e pontos cruciais que podem ser resumidos no fator motivacional necessário ao estímulo à interação virtual cooperativa, necessidade de construção e manutenção de imagem institucional forte que delimite a organização no ciberespaço e definição clara dos códigos de conduta da organização virtual.(AU)