759 resultados para image in cyberspace
Resumo:
La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.
Resumo:
ImageJ es un programa informático de tratamiento digital de imagen orientado principalmente hacia el ámbito de las ciencias de la salud. Se trata de un software de dominio público y de código abierto desarrollado en lenguaje Java en las instituciones del National Institutes of Health de Estados Unidos. Incluye por defecto potentes herramientas para editar, procesar y analizar imágenes de casi cualquier tipo y formato. Sin embargo, su mayor virtud reside en su extensibilidad: las funcionalidades de ImageJ pueden ampliarse hasta resolver casi cualquier problema de tratamiento digital de imagen mediante macros, scripts y, especialmente, plugins programables en lenguaje Java gracias a la API que ofrece. Además, ImageJ cuenta con repositorios oficiales en los que es posible obtener de forma gratuita macros, scripts y plugins aplicables en multitud de entornos gracias a la labor de la extensa comunidad de desarrolladores de ImageJ, que los depura, mejora y amplia frecuentemente. Este documento es la memoria de un proyecto que consiste en el análisis detallado de las herramientas de tratamiento digital de imagen que ofrece ImageJ. Tiene por objetivo determinar si ImageJ, a pesar de estar más enfocado a las ciencias de la salud, puede resultar útil en el entorno de la Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación de la Universidad Politécnica de Madrid, y en tal caso, resaltar las características que pudieran resultar más beneficiosas en este ámbito y servir además como guía introductoria. En las siguientes páginas se examinan una a una las herramientas de ImageJ (versión 1.48q), su funcionamiento y los mecanismos subyacentes. Se sigue el orden marcado por los menús de la interfaz de usuario: el primer capítulo abarca las herramientas destinadas a la manipulación de imágenes en general (menú Image); el segundo, las herramientas de procesado (menú Process); el tercero, las herramientas de análisis (menú Analyze); y el cuarto y último, las herramientas relacionadas con la extensibilidad de ImageJ (menú Plugins). ABSTRACT. ImageJ is a digital image processing computer program which is mainly focused at the health sciences field. It is a public domain, open source software developed in Java language at the National Institutes of Health of the United States of America. It includes powerful built-in tools to edit, process and analyze almost every type of image in nearly every format. However, its main virtue is its extensibility: ImageJ functionalities can be widened to solve nearly every situation found in digital image processing through macros, scripts and, specially, plugins programmed in Java language thanks to the ImageJ API. In addition, ImageJ has official repositories where it is possible to freely get many different macros, scripts and plugins thanks to the work carried out by the ImageJ developers community, which continuously debug, improve and widen them. This document is a report which explains a detailed analysis of all the digital image processing tools offered by ImageJ. Its final goal is to determine if ImageJ can be useful to the environment of Escuela Tecnica Superior de Ingenierfa y Sistemas de Telecomunicacion of Universidad Politecnica de Madrid, in spite of being focused at the health sciences field. In such a case, it also aims to highlight the characteristics which could be more beneficial in this field, and serve as an introductory guide too. In the following pages, all of the ImageJ tools (version 1.48q) are examined one by one, as well as their work and the underlying mechanics. The document follows the order established by the menus in ImageJ: the first chapter covers all the tools destined to manipulate images in general (menu Image); the second one covers all the processing tools (menu Process); the third one includes analyzing tools (menu Analyze); and finally, the fourth one contains all those tools related to ImageJ extensibility (menu Plugins).
Resumo:
La pérdida de bosques en la Tierra, principalmente en ecosistemas amazónicos, es un factor clave en el proceso del cambio climático. Para revertir esta situación, los mecanismos REDD (Reducing Emission from Deforestation and forest Degradation) están permitiendo la implementación de actividades de protección del clima a través de la reducción de emisiones por deforestación evitada, según los esquemas previstos en el Protocolo de Kioto. El factor técnico más crítico en un proyecto REDD es la determinación de la línea de referencia de emisiones, que define la expectativa futura sobre las emisiones de CO2 de origen forestal en ausencia de esfuerzos adicionales obtenidos como consecuencia de la implementación del programa REDD para frenar este tipo de emisiones. La zona del estudio se ubica en la región de San Martín (Perú), provincia cubierta fundamentalmente por bosques tropicales cuyas tasas de deforestación son de las más altas de la cuenca amazónica. En las últimas décadas del siglo XX, la región empezó un acelerado proceso de deforestación consecuencia de la integración vial con el resto del país y la rápida inmigración desde zonas rurales en busca de nuevas tierras agrícolas. Desde el punto de vista de la investigación llevada a cabo en la tesis doctoral, se pueden destacar dos líneas: 1. El estudio multitemporal mediante imágenes de satélite Landsat 5/TM con el propósito de calcular las pérdidas de bosque entre períodos. El estudio multitemporal se llevó a cabo en el período 1998-2011 utilizando imágenes Landsat 5/TM, aplicando la metodología de Análisis de Mezclas Espectrales (Spectral Mixtures Analysis), que permite descomponer la reflectancia de cada píxel de la imagen en diferentes fracciones de mezcla espectral. En este proceso, las etapas más críticas son el establecimiento de los espectros puros o endemembers y la recopilación de librerías espectrales adecuadas, en este caso de bosques tropicales, que permitan reducir la incertidumbre de los procesos. Como resultado de la investigación se ha conseguido elaborar la línea de referencia de emisiones histórica, para el período de estudio, teniendo en cuenta tanto los procesos de deforestación como de degradación forestal. 2. Relacionar los resultados de pérdida de bosque con factores de causalidad directos e indirectos. La determinación de los procesos de cambio de cobertura forestal utilizando técnicas geoespaciales permite relacionar, de manera significativa, información de los indicadores causales de dichos procesos. De igual manera, se pueden estimar escenarios futuros de deforestación y degradación de acuerdo al análisis de la evolución de dichos vectores, teniendo en cuenta otros factores indirectos o subyacentes, como pueden ser los económicos, sociales, demográficos y medioambientales. La identificación de los agentes subyacentes o indirectos es una tarea más compleja que la de los factores endógenos o directos. Por un lado, las relaciones causa – efecto son mucho más difusas; y, por otro, los efectos pueden estar determinados por fenómenos más amplios, consecuencia de superposición o acumulación de diferentes causas. A partir de los resultados de pérdida de bosque obtenidos mediante la utilización de imágenes Landsat 5/TM, se investigaron los criterios de condicionamiento directos e indirectos que podrían haber influido en la deforestación y degradación forestal en ese período. Para ello, se estudiaron las series temporales, para las mismas fechas, de 9 factores directos (infraestructuras, hidrografía, temperatura, etc.) y 196 factores indirectos (económicos, sociales, demográficos y ambientales, etc.) con, en principio, un alto potencial de causalidad. Finalmente se ha analizado la predisposición de cada factor con la ocurrencia de deforestación y degradación forestal por correlación estadística de las series temporales obtenidas. ABSTRACT Forests loss on Earth, mainly in Amazonian ecosystems, is a key factor in the process of climate change. To reverse this situation, the REDD (Reducing Emission from Deforestation and forest Degradation) are allowing the implementation of climate protection activities through reducing emissions from avoided deforestation, according to the schemes under the Kyoto Protocol. Also, the baseline emissions in a REDD project defines a future expectation on CO2 emissions from deforestation and forest degradation in the absence of additional efforts as a result of REDD in order to stop these emissions. The study area is located in the region of San Martín (Peru), province mainly covered by tropical forests whose deforestation rates are the highest in the Amazon basin. In the last decades of the twentieth century, the region began an accelerated process of deforestation due to road integration with the rest of the country and the rapid migration from rural areas for searching of new farmland. From the point of view of research in the thesis, we can highlight two lines: 1. The multitemporal study using Landsat 5/TM satellite images in order to calculate the forest loss between periods. The multitemporal study was developed in the period 1998-2011 using Landsat 5/TM, applying the methodology of Spectral Mixture Analysis, which allows decomposing the reflectance of each pixel of the image in different fractions of mixture spectral. In this process, the most critical step is the establishment of pure spectra or endemembers spectra, and the collecting of appropriate spectral libraries, in this case of tropical forests, to reduce the uncertainty of the process. As a result of research has succeeded in developing the baseline emissions for the period of study, taking into account both deforestation and forest degradation. 2. Relate the results of forest loss with direct and indirect causation factors. Determining the processes of change in forest cover using geospatial technologies allows relating, significantly, information of the causal indicators in these processes. Similarly, future deforestation and forest degradation scenarios can be estimated according to the analysis of the evolution of these drivers, taking into account other indirect or underlying factors, such as economic, social, demographic and environmental. Identifying the underlying or indirect agents is more complex than endogenous or direct factors. On the one hand, cause - effect relationships are much more diffuse; and, second, the effects may be determined by broader phenomena, due to superposition or accumulation of different causes. From the results of forest loss obtained using Landsat 5/TM, the criteria of direct and indirect conditioning that might have contributed to deforestation and forest degradation in that period were investigated. For this purpose, temporal series, for the same dates, 9 direct factors (infrastructure, hydrography, temperature, etc.) and 196 underlying factors (economic, social, demographic and environmental) with, in principle, a high potential of causality. Finally it was analyzed the predisposition of each factor to the occurrence of deforestation and forest degradation by statistical correlation of the obtained temporal series.
Resumo:
El director de cine y el arquitecto, exploran las posibilidades que les ofrece la imagen, en el sentido de la visualización de ciertas relaciones que son catalizadoras de las emociones. La obra cinematográfica y la obra arquitectónica son producto del pensamiento y contienen todos los procesos que las idearon, así como aquellos mecanismos necesarios para generar el espacio y la secuencia. El objetivo general de la tesis consiste en conocer las analogías existentes en el modo en que el arquitecto y el cineasta afrontan el proceso de creación de sus proyectos desde la acción gráfica. Si consideramos el medio gráfico como un recurso creativo en el proyecto arquitectónico y cinematográfico, el boceto, croquis o “storyboard” se convierten en documentos fundamentales, objeto de estudio, para extraer las claves y la manera en que se desarrolla dicho proceso. El pensamiento gráfico se encuentra íntimamente unido a su modo de expresión. El estudio de ese proceso de pensamiento basado principalmente en imágenes, permite establecer analogías en la manera en que ambos autores hacen uso del dibujo para imaginar acontecimientos evocadores de emociones que definan el carácter dramático de sus ideas. La conexión y yuxtaposición de imágenes mentales, como operaciones de montaje que alientan la construcción de ideas, conceptos y sensaciones, son claves en el curso de la concepción arquitectónica y cinematográfica, y el dibujo, una herramienta que permite a ambos autores su desarrollo. La aproximación al modo en que el arquitecto y el cineasta emprenden el proceso de ideación de sus proyectos a través del dibujo, se aborda desde las estrategias gráficas de cuatro autores: Sergei Eisenstein, Le Corbusier, Akira Kurosawa y Rem Koolhaas. La estructura del trabajo se desarrolla en dos bloques. El primero, compuesto por los primeros cuatro capítulos, afronta desde un punto de vista general, la potencialidad de la imagen en el pensamiento gráfico y el papel de la acción gráfica en el curso proyectual que realiza el arquitecto, por un lado, y el director de cine por otro, tratando de extraer las analogías y los puntos de encuentro de ambos autores durante el proceso. El segundo bloque, correspondiente a los cuatro últimos capítulos, aborda el uso del medio gráfico de manera más concreta, en la figura de dos de los arquitectos y dos de los cineastas más influyentes del pasado y del presente siglo, tratando de comprender el papel del dibujo en el desarrollo conceptual de su obra. ABSTRACT Both the movie director and the architect explore the potential offered by the image, as the visualization of certain relations that are catalyst of emotions. Cinematography and architecture works are a result of a thought and they include all the processes that created them, as much as the essential tools to generate the space and the sequence. This thesis aims to get an understanding of the analogies underlying in which architects and movie directors face the creation process of theirs projects from the graphic action. If we consider graphic media as a creative resource in the architectural and the cinematographic project, the sketch or storyboard becomes the fundamental documents, the study object, to decode the clues and the way in which the process unfolds. Graphic thinking comes across its way of expression. The study of this thinking, based mainly in images, let set up analogies in a way in which both authors use a drawing to imagine events of emotions that define the dramatic nature of their ideas. The connection and juxtaposition of mental images, as editing or montages that encourage the creation of ideas, concepts and sensations, are key in the course of the architectural and the cinematographic conception, and the drawing, a tool that allows both authors their development. The approach to the way the architect and the movie director get to the process of the creation of their projects through the drawing is addressed from the graphic strategies of these four authors: Sergei Eisenstein, Le Corbusier, Akira Kurosawa and Rem Koolhaas. The structure of the work is developed in two blocks. The first one, the first four chapters, face up, from a general point of view, the potential of the image in the graphic thinking and the role of the graphic action in the course of the project, that architects, as well as movie directors, are making trying to find the analogies and common points during the process. The second block, the last four chapters, deal with the use of the graphic media in a more detail manner, taking as example two of the architects and two of the movie directors more influential of the past and the present centuries, trying to understand the role of the drawing in the conceptual development of the their work.
Resumo:
Alison Margaret Gill y Peter Denham Smithson son, o eran, ambos murieron hace ya algunos años, dos arquitectos. Así dicho, esto suena a obviedad. Sin embargo no lo es, porque siempre han sido compactados en una unidad proyectual, bien bajo las siglas Alison y Peter Smithson, o bien, más puntualmente todavía, como los Smithson. Cuando Leibniz en 1696 le dice a la princesa electora Sofía que en algo tan puntual y homogéneo aparentemente como una gota de agua, vista al microscopio, resulta haber más de un millón de animales vivos, se puede empezar a vislumbrar el resultado de la Tesis. El resultado de este trabajo no se contempla un millón de partículas pero sí dos. La obra de Alison y Peter Smithson esta conformada desde su inicio probablemente por la particularidad de que en ella intervienen tanto Gill como Smithson, aunque cada uno sea en mayor o menor medida la o el responsable de un proyecto. Puesto al microscopio el proyecto del que se ocupa la Tesis, el concurso de 1953 para la ampliación de la Universidad de Sheffield, se estima que está compuesto de dos partes diferentes y que como Los Smithson o como una gota de agua, su unidad es una mera convención, una forma de designarlo y tratarlo, que falsea en algo su apreciación, aunque, como se verá, es lo que provoca el extraño efecto que como imagen ejerce. El Capítulo I descubre la duplicidad. Reyner Banham fijó en 1955, en el artículo The New Brutalism, el modo de encarar el proyecto de Sheffield cuando proyectó sobre él lo más novedoso que en el campo de la pintura ocurría en ese momento, el Art Autre. Michel Tapié ve en el informalismo presente en las obras que él engloba como un <> rasgos que puede presentar a la luz de conceptos que extrae de Riemann, matemático del s. XIX, introductor de una nueva geometría. La Tesis remonta por tanto hasta Riemann, a la búsqueda del concepto del que penden tanto Tapié como Banham. El concepto es la variedad continua; un conjunto, cuyos elementos pueden recorrer la extensión de la variedad mediante una deformación continua, como si dijéramos, diluyéndose unos en otros sin cortes entre sí. Los ejemplos del informalismo serían, por tanto, los puntos de la variedad, formas inestables o detenciones aleatorias en este transitar continuo de un mismo objeto. La visión de cuerpos en cortes aleatorios a la evolución otorga a sus formas cualesquiera la condición de extrañeza o perturbación, produciendo un impacto en la mente que lo graba instintivamente en la materia de la memoria. Así, es la memorabilidad, dada precisamente por el impacto que supone ver cuerpos en estado evolutivo, sin una forma precisa, la propiedad que gobierna a los objetos que caen bajo el Art Autre, y es la memorabilidad el rasgo distintivo de Sheffield para Banham. Este sentido evolutivo que se puede asociar a los elementos de una variedad entra en consonancia con una variedad de estados en evolución en el marco de las especies orgánicas. No sólo como individuo sino también como especie. La coincidencia no sólo es formal, también es temporal entre el descubrimiento de Riemann de la variedad continua y el de Darwin de la evolución de las especies. Ve Darwin que algunos ejemplares presentan en su cuerpo conformaciones normales de especies diferentes, que puede entenderse como una anormalidad o defecto evolutivo, lo que él llama <>. Un ejemplar monstruoso no es capaz de abrir una escisión de la variedad y en este sentido rompe su cadena evolutiva. Es un elemento, por tanto extraño a la variedad. Lo peculiar que expone Darwin, es que la monstruosidad puede ser provocada artificialmente por motivos estéticos, como ocurre en determinados animales o plantas ornamentales. Bien, esto es exactamente lo que descubre la Tesis en el proyecto de Sheffield. La unión en un solo proyecto de dos conformaciones de naturaleza diferente. El Capítulo II indaga en la naturaleza dual de Sheffield. Y la descubre en la aplicación de dos principios que tienen múltiples derivas, pero interesante en una en particular, referida al espacio. Uno es el Principio de Posición. Bajo él se contempla la situación del concurso dada en su globalidad, en una visión totalizadora que permite buscar y destacar posiciones singulares y tener un control preciso del proyecto desde el inicio. Se dice que es la opción normal en arquitectura comprender el espacio en su conjunto y que el trazado de ejes y el reparto del espacio obedecen a este principio. Son así vistos la propuesta ganadora del equipo GMW y fundamentalmente el trazado de ejes en la obra de Le Corbusier. Una parte de Sheffield es un producto típico de este modo de proceder. Hay un segundo principio que es el Principio de Transición Continua. En los términos expuestos para la variedad de Riemann, sería como si en lugar de ver cuerpos en estados concretos, por deformados que pudieran ser, nos introdujéramos dentro de la propia variedad acoplándonos al curso de la evolución misma, en un acto de unión interior con la marcha de la evolución. Para ejercer esta acción se toma como punto inicial el extremo del edificio universitario existente, el Firth Court, y se lleva cabo un estiramiento continuo. En esto radica lo que la Tesis distingue como la ampliación, el cuerpo que se enrosca paulatinamente. Para exponer este concepto, la Tesis se apoya en un ejercicio llevado a cabo por Raymond Unwin en Hampstead, el close, o estiramiento lateral del borde de un viario para hacer surgir el espacio útil residencial. A partir del concepto de close, se deriva en la urbanística americana de principios del s. XX el concepto de cluster, que pasa a ser uno de los argumentos principales de la teoría de Alison y de Peter Smithson en los años 50. El Capítulo III plantea la dificultad de mantener la dualidad de Sheffield a primeros de los 50, sometido el proyecto de arquitectura a la unicidad que impone el criterio hegemónico de Rudolf Wittkower desde “Los Fundamentos de la Arquitectura en la Edad del Humanismo”. Como en el Capítulo I, la obligación que se traza la Tesis es remontar los orígenes de las cosas que se tratan, y en este caso, entrar en las fuentes del principio proporcional. Se descubren así los fundamentos de la proporción aritmética y geométrica en el seno del pitagorismo, sus problemas y su evolución. La postura de los dos arquitectos frente a Wittkower es de admiración, pero también de libertad. Esta libertad suya es la que defiende la Tesis. Cotejando lo que da de sí la arquitectura basada en los principios proporcionales con otra arquitectura estancada en el paso del Renacimiento al Barroco como es la arquitectura perspectiva y proyectiva, la arquitectura oblicua, recuperada a la sazón por medio de la intervención en la Tesis de Panofsky, se dirimen aspectos colaterales pero fundamentales de una renovación de los planteamientos: hay planteamientos que se dicen esencialistas y objetivos y otros funcionales y que derivan en subjetivos y relacionales. Sobre estas dos marcos de categorías el propósito que persigue la Tesis es dar cuenta de los dos principios que rigen lo visto en el Capítulo II, el Principio de Posición y el Principio de Transición Continua, responsables ambos, al 50%, de la monstruosidad detectada en Sheffield, que no es negativa, sino, como decía Darwin, la combinación en un solo cuerpo de conformaciones normales en animales de especies diferentes, incluso con fines estéticos. En Sheffield existe, y esta dibujada, la figura de una cabeza escultural con un doble rostro. Todo el trabajo de la Tesis se encamina, en definitiva, a explicar, con toda la claridad y extensión que me ha sido posible, en qué consiste ese doble rostro. ABSTRACT Peter and Alison Smithson’s work is, is from its start, very influenced by both Alison Margaret Gill and Peter Denham Smithson. The matter of study of this Thesis, the 1953 competition for the expansion of the University of Sheffield, estimated after its exam, which is composed by two different parts, which, together produce a strange effect as an image. Reyner Banham in 1955 described the image in his article “The New Brutalism” as the key argument (most iconic) for the Sheffield’s project. The way his image powerfully influences sensitivity, by perturbation, makes this a singular and memorable image. This feature, only present in Sheffield, over any other building of the time, even from the same architects, allow Banham to associate the project to Art Autre, thought by Michel Tapié as a new artistic movement, to which Sheffield will belong, in the architecture part. Tapié sees in the informalism of works considered Art Autre some aspects that can bring concepts he extracts from Riemann, XIX Century mathematician, father of the new geometry. This Thesis discovers Riemann’s concept of continuous variety, a set whose elements are able to go through variety by a continuous deformation, diluting themselves without touching each other. Examples of informalism would be, points of that variety, unstable forms or random detentions in the continuous transit of the same object. Therefore, the condition of memorability comes precisely from the impact that seeing bodies in state of evolution creates. That evolutive sense that can be associated to elements of a variety, comes together with a variety of states of evolution in the world of organic species. Not only as an individual, but as well as a species. Coincidence between Riemann and Darwin’s discoveries is not only formal, but as well temporary. Darwin observes that some individuals of concrete species present on their bodies some features, typical of other species, which may be interpreted as evolutive failure. But the most peculiar part of what Darwin exposes is that monstrosity can indeed be artificially made for aesthetical purposes, like it happens in certain animals and plants. Well, this is what the Thesis discovers in Sheffield’s project. The union in a single project of two different nature forms, of which none on the parts is a deformation of the other, but they are both irreducible. Once both parts are collated, a new system which adapts well is discovered. It is a system created by Leibniz in the XVII Century, created to distinguish to principles that clear the difference between the equation methods and differential calculus. This principles are the Principle of Position and the Principle of Continuity. This two principles, translated to the spatial analysis field are key for the two parts of the project. On the one hand, the part developing in a lineal axis belongs to the Principle of Position. This means that that there is a global vision of space after which it is decided which operation to follow, which in this case consists of establishing an axis between two singular positions of the university area. The part which is being deformed while it goes is studied as a continuous action of stretching an existing building, the Firth Court, in which there is no previous spatial analysis. The only way to understand and to explain this action is by the Principle of Continuity. So, all in all, the Thesis changes the view of Sheffield from an Art Autre work to a “monstrosity”, without the negative meaning of it, just as a combination of two different nature formations, which, at the same time, justifies its power as iconic image. Finally, I would like to point out that in the Sheffield’s project there is (drawn and also physically) a sculptural head which has the feature of representing both, a man and a woman’s face. All the work of this Thesis leads to explaining the double nature of the project, taking this double expression head as inspiration.
Resumo:
Esta pesquisa investiga como quatro dos maiores bancos que atuam no Brasil - Bradesco, Itaú, Citibank e BankBoston - utilizam a comunicação para seduzir o público de alta renda. O objetivo é definir quais são os apelos e os valores utilizados nos comerciais de televisão e entender por que os filmes são muitos similares nos argumentos de persuasão. A importância desta pesquisa se define em conseqüência da forte presença dos bancos no meio TV e pelo fato de os principais bancos no Brasil terem lançado num curto espaço de tempo submarcas, um recurso muito utilizado pela indústria com as extensões de marcas, para atender a um mercado de alta renda estimado em 2 milhões de pessoas. Este é um tema novo e ainda pouco explorado na academia. Os métodos utilizados foram a análise de conteúdo, que verificou os argumentos dos comerciais de TV e a pesquisa bibliográfica, que deu o lastro necessário para a definição do problema e embasou a estruturação do estudo Os principais resultados da pesquisa apresentaram a conversão de duas tendências; a primeira vem dos novos valores que sopram da sociedade, destacadamente das pessoas de alta renda no Brasil. Elas têm apresentado novas formas de consumo, que estão muito mais ligadas às emoções. A ostentação e o consumo de produtos sofisticados como sinônimo de status e poder continuam e possivelmente deverão continuar a existir, mas nota-se agora que ao menos parte da elite brasileira busca se diferenciar por valores subjetivos. Estão de volta os valores básicos da sociedade como relacionamento familiar, valorização das coisas simples e melhor aproveitamento do tempo. Por outro lado, a segunda tendência é mercadológica. Com a comoditização dos produtos e serviços, as empresas buscam se diferenciar pela marca e, para fazer a conexão desta com os consumidores, são utilizados argumentos emocionais. Até porque, para se manipular os consumidores, o modo mais eficaz é através da emoção. Pode-se dizer também que, para furar o bloqueio mental que os consumidores erguem em virtude do bombardeio de mensagens que recebem diariamente, o caminho é o de entreter, emocionar. Aliado a tudo isto, os bancos rezam de imagem negativa na sociedade e vêm trabalhando para minimizar esta percepção: querem por intermédio de suas mensagens publicitárias se tornar mais simpáticos, humanos. Quando reunidos esses movimentos - o da sociedade valorizando mais o ser do que o ter e os bancos querendo se humanizar e utilizando abordagens emocionais em sua comunicação - é fácil entender a similaridade de argumentos. Mas será que a falta de diferenciação não continuará trazendo a comoditização dos produtos e serviços para a comoditização da comunicação e fazendo com que ela deixe de cumprir um dos seus papéis fundamentais que é o de fazer um anunciante se diferenciar da concorrência?
Resumo:
Esta pesquisa investiga como quatro dos maiores bancos que atuam no Brasil - Bradesco, Itaú, Citibank e BankBoston - utilizam a comunicação para seduzir o público de alta renda. O objetivo é definir quais são os apelos e os valores utilizados nos comerciais de televisão e entender por que os filmes são muitos similares nos argumentos de persuasão. A importância desta pesquisa se define em conseqüência da forte presença dos bancos no meio TV e pelo fato de os principais bancos no Brasil terem lançado num curto espaço de tempo submarcas, um recurso muito utilizado pela indústria com as extensões de marcas, para atender a um mercado de alta renda estimado em 2 milhões de pessoas. Este é um tema novo e ainda pouco explorado na academia. Os métodos utilizados foram a análise de conteúdo, que verificou os argumentos dos comerciais de TV e a pesquisa bibliográfica, que deu o lastro necessário para a definição do problema e embasou a estruturação do estudo Os principais resultados da pesquisa apresentaram a conversão de duas tendências; a primeira vem dos novos valores que sopram da sociedade, destacadamente das pessoas de alta renda no Brasil. Elas têm apresentado novas formas de consumo, que estão muito mais ligadas às emoções. A ostentação e o consumo de produtos sofisticados como sinônimo de status e poder continuam e possivelmente deverão continuar a existir, mas nota-se agora que ao menos parte da elite brasileira busca se diferenciar por valores subjetivos. Estão de volta os valores básicos da sociedade como relacionamento familiar, valorização das coisas simples e melhor aproveitamento do tempo. Por outro lado, a segunda tendência é mercadológica. Com a comoditização dos produtos e serviços, as empresas buscam se diferenciar pela marca e, para fazer a conexão desta com os consumidores, são utilizados argumentos emocionais. Até porque, para se manipular os consumidores, o modo mais eficaz é através da emoção. Pode-se dizer também que, para furar o bloqueio mental que os consumidores erguem em virtude do bombardeio de mensagens que recebem diariamente, o caminho é o de entreter, emocionar. Aliado a tudo isto, os bancos rezam de imagem negativa na sociedade e vêm trabalhando para minimizar esta percepção: querem por intermédio de suas mensagens publicitárias se tornar mais simpáticos, humanos. Quando reunidos esses movimentos - o da sociedade valorizando mais o ser do que o ter e os bancos querendo se humanizar e utilizando abordagens emocionais em sua comunicação - é fácil entender a similaridade de argumentos. Mas será que a falta de diferenciação não continuará trazendo a comoditização dos produtos e serviços para a comoditização da comunicação e fazendo com que ela deixe de cumprir um dos seus papéis fundamentais que é o de fazer um anunciante se diferenciar da concorrência?
Resumo:
A presente pesquisa propõe-se a estudar possíveis relações entre idade, tempo de serviço como clérigo ou clériga na Igreja Metodista e auto-imagem destes últimos acerca de altruísmo. O tema do altruísmo é abordado a partir da filosofia, da psicanálise, dos estudos evolucionistas e da psicologia cognitiva do desenvolvimento moral. Examina as críticas e contribuições que a psicanálise de Sigmund Freud e Jacques Lacan deu aos debates sobre altruísmo, bem como as possíveis relações com o tema proporcionadas pelas investigações de Jean Piaget e Lawrence Kohlberg sobre a elaboração de juízos éticos pelas pessoas. Analisa a imagem que pastores(as) metodistas no Brasil têm ou apresentam acerca de si mesmos(as), no tocante a ações visando ao bem-estar de outros seres humanos, levando-se em conta suas respostas e justificativas ao questionário apresentado, no qual aparecem situações hipotéticas em que o altruísmo é requerido. Os resultados evidenciam que clérigos(as) mais idosos possuem uma auto-imagem mais positiva do que a apresentada pelos mais jovens, no tocante ao altruísmo.(AU)
Resumo:
A presente pesquisa propõe-se a estudar possíveis relações entre idade, tempo de serviço como clérigo ou clériga na Igreja Metodista e auto-imagem destes últimos acerca de altruísmo. O tema do altruísmo é abordado a partir da filosofia, da psicanálise, dos estudos evolucionistas e da psicologia cognitiva do desenvolvimento moral. Examina as críticas e contribuições que a psicanálise de Sigmund Freud e Jacques Lacan deu aos debates sobre altruísmo, bem como as possíveis relações com o tema proporcionadas pelas investigações de Jean Piaget e Lawrence Kohlberg sobre a elaboração de juízos éticos pelas pessoas. Analisa a imagem que pastores(as) metodistas no Brasil têm ou apresentam acerca de si mesmos(as), no tocante a ações visando ao bem-estar de outros seres humanos, levando-se em conta suas respostas e justificativas ao questionário apresentado, no qual aparecem situações hipotéticas em que o altruísmo é requerido. Os resultados evidenciam que clérigos(as) mais idosos possuem uma auto-imagem mais positiva do que a apresentada pelos mais jovens, no tocante ao altruísmo.(AU)
Resumo:
O presente trabalho tem por objetivo analisar o período de propaganda eleitoral à presidência da República de 1906, centrando seu objeto no candidato único para presidente, o mineiro, Affonso Penna. Nesse sentido procura-se trabalhar, especificamente, o papel da imprensa na candidatura e na construção da imagem pública, no transcurso entre agosto de 1905 a fevereiro de 1906, em dois jornais cariocas: o Correio da Manhã e o jornal O Paíz. Entre eles, a menção de Penna pode ser analisada apenas nas Cartas Mineiras do Correio da Manhã, a qual apresenta o percentual de 37% de conteúdos sobre o candidato. Desses, 54,5%, relacionam-se às suas caracterizações imagéticas e os 45,5% a sua candidatura. Quanto à construção da etapa teórica remete às obras que incluem o universo da comunicação, da propaganda política e ideológica, principalmente, na ótica brasileira. Procura-se, também, descrever a trajetória política de Affonso Penna, tendo como pano de fundo o ambiente político. Como método de coleta de dados, cita-se as pesquisas bibliográficas e documentais e como instrumento de investigação a análise de conteúdo.(AU)
Resumo:
O presente trabalho tem por objetivo analisar o período de propaganda eleitoral à presidência da República de 1906, centrando seu objeto no candidato único para presidente, o mineiro, Affonso Penna. Nesse sentido procura-se trabalhar, especificamente, o papel da imprensa na candidatura e na construção da imagem pública, no transcurso entre agosto de 1905 a fevereiro de 1906, em dois jornais cariocas: o Correio da Manhã e o jornal O Paíz. Entre eles, a menção de Penna pode ser analisada apenas nas Cartas Mineiras do Correio da Manhã, a qual apresenta o percentual de 37% de conteúdos sobre o candidato. Desses, 54,5%, relacionam-se às suas caracterizações imagéticas e os 45,5% a sua candidatura. Quanto à construção da etapa teórica remete às obras que incluem o universo da comunicação, da propaganda política e ideológica, principalmente, na ótica brasileira. Procura-se, também, descrever a trajetória política de Affonso Penna, tendo como pano de fundo o ambiente político. Como método de coleta de dados, cita-se as pesquisas bibliográficas e documentais e como instrumento de investigação a análise de conteúdo.(AU)
Resumo:
A Internet está inserida no cotidiano do indivíduo, e torna-se cada vez mais acessível por meio de diferentes tipos de dispositivos. Com isto, diversos estudos foram realizados com o intuito de avaliar os reflexos do seu uso excessivo na vida pessoal, acadêmica e profissional. Esta dissertação buscou identificar se a perda de concentração e o isolamento social são alguns dos reflexos individuais que o uso pessoal e excessivo de aplicativos de comunicação instantânea podem resultar no ambiente de trabalho. Entre as variáveis selecionadas para avaliar os aspectos do uso excessivo de comunicadores instantâneos tem-se a distração digital, o controle reduzido de impulso, o conforto social e a solidão. Através de uma abordagem de investigação quantitativa, utilizaram-se escalas aplicadas a uma amostra de 283 pessoas. Os dados foram analisados por meio de técnicas estatísticas multivariadas como a Análise Fatorial Exploratória e para auferir a relação entre as variáveis, a Regressão Linear Múltipla. Os resultados deste estudo confirmam que o uso excessivo de comunicadores instantâneos está positivamente relacionado com a perda de concentração, e a variável distração digital exerce uma influência maior do que o controle reduzido de impulso. De acordo com os resultados, não se podem afirmar que a solidão e o conforto social exercem relações com aumento do isolamento social, devido à ausência do relacionamento entre os construtos.
Resumo:
O consumidor contemporâneo, inserido em um novo ambiente de comunicação, potencializa suas expressões, capaz de avaliar uma marca ou produto e transmitir sua opinião pelas redes sociais, ou seja, o consumidor expressa suas opiniões e desejos dialogando com seus pares de forma espontânea nas redes sociais on-line. É neste ambiente de participação e interação (ciberespaço) que está nosso objeto de estudo, o boca a boca on-line – a voz do consumidor contemporâneo, também conhecido como uma manifestação informativa pessoal ou uma conversa, a opinion sharing. Proporcionado pelos consumidores nas redes sociais on-line, o boca a boca se fortalece em função das possibilidades de interação, característica da sociedade em rede. Nesse cenário, oobjetivo desta pesquisa é caracterizar o boca a boca on-line como um novo fluxo comunicacional entre consumidores, hoje potencializado pelas novas tecnologias da comunicação, capazes de alterar a percepção da marca e demonstrar o uso, pelas marcas, das redes sociais on-line ainda como um ambiente de comunicação unidirecional. Mediante três casos selecionados por conveniência (dois casos nacionais e um internacional), o corpus de análise de nossa pesquisa se limitou aos 5.084 comentários disponibilizados após publicação de matérias jornalísticas no Portal G1 e nas fanpages (Facebook), ambos relativos aos casos selecionados. Com a Análise de Conteúdo dos posts, identificamos e categorizamos a fala do consumidor contemporâneo, sendo assim possível comprovar que as organizações/marcas se valem da cultura do massivo, não dialogando com seus consumidores, pois utilizam as redes sociais on-line ainda de forma unidirecional, além de não darem a devida atenção ao atual fluxo onde se evidencia a opinião compartilhada dos consumidores da sociedade em rede.
Resumo:
O objetivo principal deste trabalho foi desenvolver duas escalas de silhuetas para crianças de ambos os sexos entre quatro e seis anos de idade, para avaliação da percepção e insatisfação com o tamanho corporal. O estudo foi composto por duas etapas. A primeira etapa envolveu a construção de uma escala de silhuetas bidimensional e uma escala de silhuetas tridimensional, a partir das fotos de 18 crianças voluntárias, divididas em nove crianças de cada sexo, sendo uma representante para cada intervalo de IMC estabelecido para a construção das escalas. Para garantir as qualidades psicométricas dos instrumentos, estabeleceram-se os valores médios de IMC correspondentes para cada figura com incremento constante de 1,9 Kg/m². Foram fotografadas crianças com Índice de Massa Corporal correspondente às médias dos intervalos estabelecidos para as figuras da sequência das escalas. Estas fotos foram transformadas por um designer gráfico em um arquivo para impressão 3D e um arquivo 2D frontal de silhuetas infantis. A segunda etapa contemplou a análise das qualidades psicométricas dos instrumentos. A coleta de dados ocorreu em quatro escolas particulares em diferentes cidades. Participaram do estudo 193 crianças de quatro a seis anos de idade, sendo 102 do sexo feminino e 91 do sexo masculino. As escalas foram apresentadas para cada criança em ordem ascendente ou aleatória, perguntando-se Qual figura representa seu corpo atual? e Qual figura representa o corpo que você gostaria de ter?, sendo a discrepância entre a figura que representa o IMC Atual e a que representa o IMC Desejado, caracterizada como Insatisfação com o tamanho corporal, e a discrepância entre a figura que representa o IMC Real e a que representa o IMC Atual caracterizada como Inacurácia da percepção do tamanho corporal. A escala bidimensional é apresentada na forma de nove cartões plastificados para cada gênero, com 12,5cm de altura por 6,5cm de largura, com a figura centralizada. A escala tridimensional é composta de nove bonecos para cada gênero impressos através da tecnologia de impressão 3D, com 12cm de altura. A Escala de Silhuetas Bidimensional mostrou valores de fidedignidade satisfatórios para Acurácia e Satisfação para crianças de seis anos, podendo ser um indicativo da influência do ambiente e do desenvolvimento em crianças menores. A Escala de Silhuetas Tridimensional apresentou-se mais adequada para a avaliação da Insatisfação com o tamanho corporal em relação a Bidimensional, mostrando que detalhes mais reais permitem um melhor julgamento por parte das crianças, seja do corpo como um todo, seja de partes dele. Este estudo sugere que as escalas de silhuetas podem ser usadas em crianças, e que pré-escolares já conseguem cumprir a tarefa de selecionar a figura que representa seu corpo nesta faixa etária. A construção e desenvolvimento das escalas mostraram-se ser válidas e permitem a investigação mais acurada de fatores relacionados as dimensões perceptivas da imagem corporal em pré-escolares, porém, parecem refletir também outras fontes de variância e influência que precisam ser investigadas.
Resumo:
Este trabalho aborda o problema de casamento entre duas imagens. Casamento de imagens pode ser do tipo casamento de modelos (template matching) ou casamento de pontos-chaves (keypoint matching). Estes algoritmos localizam uma região da primeira imagem numa segunda imagem. Nosso grupo desenvolveu dois algoritmos de casamento de modelos invariante por rotação, escala e translação denominados Ciratefi (Circula, radial and template matchings filter) e Forapro (Fourier coefficients of radial and circular projection). As características positivas destes algoritmos são a invariância a mudanças de brilho/contraste e robustez a padrões repetitivos. Na primeira parte desta tese, tornamos Ciratefi invariante a transformações afins, obtendo Aciratefi (Affine-ciratefi). Construímos um banco de imagens para comparar este algoritmo com Asift (Affine-scale invariant feature transform) e Aforapro (Affine-forapro). Asift é considerado atualmente o melhor algoritmo de casamento de imagens invariante afim, e Aforapro foi proposto em nossa dissertação de mestrado. Nossos resultados sugerem que Aciratefi supera Asift na presença combinada de padrões repetitivos, mudanças de brilho/contraste e mudanças de pontos de vista. Na segunda parte desta tese, construímos um algoritmo para filtrar casamentos de pontos-chaves, baseado num conceito que denominamos de coerência geométrica. Aplicamos esta filtragem no bem-conhecido algoritmo Sift (scale invariant feature transform), base do Asift. Avaliamos a nossa proposta no banco de imagens de Mikolajczyk. As taxas de erro obtidas são significativamente menores que as do Sift original.