785 resultados para Rendering
Resumo:
Esta tesis se ha desarrollado en el contexto del proyecto Cajal Blue Brain, una iniciativa europea dedicada al estudio del cerebro. Uno de los objetivos de esta iniciativa es desarrollar nuevos métodos y nuevas tecnologías que simplifiquen el análisis de datos en el campo neurocientífico. El presente trabajo se ha centrado en diseñar herramientas que combinen información proveniente de distintos canales sensoriales con el fin de acelerar la interacción y análisis de imágenes neurocientíficas. En concreto se estudiará la posibilidad de combinar información visual con información háptica. Las espinas dendríticas son pequeñas protuberancias que recubren la superficie dendrítica de muchas neuronas del cerebro. A día de hoy, se cree que tienen un papel clave en la transmisión de señales neuronales. Motivo por el cual, el interés por parte de la comunidad científica por estas estructuras ha ido en aumento a medida que las técnicas de adquisición de imágenes mejoraban hasta alcanzar una calidad suficiente para analizar dichas estructuras. A menudo, los neurocientíficos utilizan técnicas de microscopía con luz para obtener los datos que les permitan analizar estructuras neuronales tales como neuronas, dendritas y espinas dendríticas. A pesar de que estas técnicas ofrezcan ciertas ventajas frente a su equivalente electrónico, las técnicas basadas en luz permiten una menor resolución. En particular, estructuras pequeñas como las espinas dendríticas pueden capturarse de forma incorrecta en las imágenes obtenidas, impidiendo su análisis. En este trabajo, se presenta una nueva técnica, que permite editar imágenes volumétricas, mediante un dispositivo háptico, con el fin de reconstruir de los cuellos de las espinas dendríticas. Con este objetivo, en un primer momento se desarrolló un algoritmo que proporciona retroalimentación háptica en datos volumétricos, completando la información que provine del canal visual. Dicho algoritmo de renderizado háptico permite a los usuarios tocar y percibir una isosuperficie en el volumen de datos. El algoritmo asegura un renderizado robusto y eficiente. Se utiliza un método basado en las técnicas de “marching tetrahedra” para la extracción local de una isosuperficie continua, lineal y definida por intervalos. La robustez deriva tanto de una etapa de detección de colisiones continua de la isosuperficie extraída, como del uso de técnicas eficientes de renderizado basadas en un proxy puntual. El método de “marching tetrahedra” propuesto garantiza que la topología de la isosuperficie extraída coincida con la topología de una isosuperficie equivalente determinada utilizando una interpolación trilineal. Además, con el objetivo de mejorar la coherencia entre la información háptica y la información visual, el algoritmo de renderizado háptico calcula un segundo proxy en la isosuperficie pintada en la pantalla. En este trabajo se demuestra experimentalmente las mejoras en, primero, la etapa de extracción de isosuperficie, segundo, la robustez a la hora de mantener el proxy en la isosuperficie deseada y finalmente la eficiencia del algoritmo. En segundo lugar, a partir del algoritmo de renderizado háptico propuesto, se desarrolló un procedimiento, en cuatro etapas, para la reconstrucción de espinas dendríticas. Este procedimiento, se puede integrar en los cauces de segmentación automática y semiautomática existentes como una etapa de pre-proceso previa. El procedimiento está diseñando para que tanto la navegación como el proceso de edición en sí mismo estén controlados utilizando un dispositivo háptico. Se han diseñado dos experimentos para evaluar esta técnica. El primero evalúa la aportación de la retroalimentación háptica y el segundo se centra en evaluar la idoneidad del uso de un háptico como dispositivo de entrada. En ambos casos, los resultados demuestran que nuestro procedimiento mejora la precisión de la reconstrucción. En este trabajo se describen también dos casos de uso de nuestro procedimiento en el ámbito de la neurociencia: el primero aplicado a neuronas situadas en la corteza cerebral humana y el segundo aplicado a espinas dendríticas situadas a lo largo de neuronas piramidales de la corteza del cerebro de una rata. Por último, presentamos el programa, Neuro Haptic Editor, desarrollado a lo largo de esta tesis junto con los diferentes algoritmos ya mencionados. ABSTRACT This thesis took place within the Cajal Blue Brain project, a European initiative dedicated to the study of the brain. One of the main goals of this project is the development of new methods and technologies simplifying data analysis in neuroscience. This thesis focused on the development of tools combining information originating from distinct sensory channels with the aim of accelerating both the interaction with neuroscience images and their analysis. In concrete terms, the objective is to study the possibility of combining visual information with haptic information. Dendritic spines are thin protrusions that cover the dendritic surface of numerous neurons in the brain and whose function seems to play a key role in neural circuits. The interest of the neuroscience community toward those structures kept increasing as and when acquisition methods improved, eventually to the point that the produced datasets enabled their analysis. Quite often, neuroscientists use light microscopy techniques to produce the dataset that will allow them to analyse neuronal structures such as neurons, dendrites and dendritic spines. While offering some advantages compared to their electronic counterpart, light microscopy techniques achieve lower resolutions. Particularly, small structures such as dendritic spines might suffer from a very low level of fluorescence in the final dataset, preventing further analysis. This thesis introduces a new technique enabling the edition of volumetric datasets in order to recreate dendritic spine necks using a haptic device. In order to fulfil this objective, we first presented an algorithm to provide haptic feedback directly from volumetric datasets, as an aid to regular visualization. The haptic rendering algorithm lets users perceive isosurfaces in volumetric datasets, and it relies on several design features that ensure a robust and efficient rendering. A marching tetrahedra approach enables the dynamic extraction of a piecewise linear continuous isosurface. Robustness is derived using a Continuous Collision Detection step coupled with acknowledged proxy-based rendering methods over the extracted isosurface. The introduced marching tetrahedra approach guarantees that the extracted isosurface will match the topology of an equivalent isosurface computed using trilinear interpolation. The proposed haptic rendering algorithm improves the coherence between haptic and visual cues computing a second proxy on the isosurface displayed on screen. Three experiments demonstrate the improvements on the isosurface extraction stage as well as the robustness and the efficiency of the complete algorithm. We then introduce our four-steps procedure for the complete reconstruction of dendritic spines. Based on our haptic rendering algorithm, this procedure is intended to work as an image processing stage before the automatic segmentation step giving the final representation of the dendritic spines. The procedure is designed to allow both the navigation and the volume image editing to be carried out using a haptic device. We evaluated our procedure through two experiments. The first experiment concerns the benefits of the force feedback and the second checks the suitability of the use of a haptic device as input. In both cases, the results shows that the procedure improves the editing accuracy. We also report two concrete cases where our procedure was employed in the neuroscience field, the first one concerning dendritic spines in the human cortex, the second one referring to an ongoing experiment studying dendritic spines along dendrites of mouse cortical pyramidal neurons. Finally, we present the software program, Neuro Haptic Editor, that was built along the development of the different algorithms implemented during this thesis, and used by neuroscientists to use our procedure.
Resumo:
Este documento presenta las mejoras y las extensiones introducidas en la herramienta de visualización del modelo predictivo del comportamiento del estudiante o Student Behavior Predictor Viewer (SBPV), implementada en un trabajo anterior. El modelo predictivo del comportamiento del estudiante es parte de un sistema inteligente de tutoría, y se construye a partir de los registros de actividad de los estudiantes en un laboratorio virtual 3D, como el Laboratorio Virtual de Biotecnología Agroforestal, implementado en un trabajo anterior, y cuyos registros de actividad de los estudiantes se han utilizado para validar este trabajo fin de grado. El SBPV es una herramienta para visualizar una representación gráfica 2D del grafo extendido asociado con cualquiera de los clusters del modelo predictivo del estudiante. Además de la visualización del grafo extendido, el SBPV controla la navegación a través del grafo por medio del navegador web. Más concretamente, el SBPV permite al usuario moverse a través del grafo, ampliar o reducir el zoom del gráfico o buscar un determinado estado. Además, el SBPV también permite al usuario modificar el diseño predeterminado del grafo en la pantalla al cambiar la posición de los estados con el ratón. Como parte de este trabajo fin de grado, se han corregido errores existentes en la versión anterior y se han introducido una serie de mejoras en el rendimiento y la usabilidad. En este sentido, se han implementado nuevas funcionalidades, tales como la visualización del modelo de comportamiento de cada estudiante individualmente o la posibilidad de elegir el método de clustering para crear el modelo predictivo del estudiante; así como ha sido necesario rediseñar la interfaz de usuario cambiando el tipo de estructuras gráficas con que se muestran los elementos del modelo y mejorando la visualización del grafo al interaccionar el usuario con él. Todas estas mejoras se explican detenidamente en el presente documento.---ABSTRACT---This document presents the improvements and extensions made to the visualization tool Student Behavior Predictor Viewer (SBPV), implemented in a previous job. The student behavior predictive model is part of an intelligent tutoring system, and is built from the records of students activity in a 3D virtual laboratory, like the “Virtual Laboratory of Agroforestry Biotechnology” implemented in a previous work, and whose records of students activity have been used to validate this final degree work. The SBPV is a tool for visualizing a 2D graphical representation of the extended graph associated with any of the clusters of the student predictive model. Apart from visualizing the extended graph, the SBPV supports the navigation across the graph by means of desktop devices. More precisely, the SBPV allows user to move through the graph, to zoom in/out the graphic or to locate a given state. In addition, the SBPV also allows user to modify the default layout of the graph on the screen by changing the position of the states by means of the mouse. As part of this work, some bugs of the previous version have been fixed and some enhancements have been implemented to improve the performance and the usability. In this sense, we have implemented new features, such as the display of the model behavior of only one student or the possibility of selecting the clustering method to create the student predictive model; as well as it was necessary to redesign the user interface changing the type of graphic structures that show model elements and improving the rendering of the graph when the user interacts with it. All these improvements are explained in detail in the next sections.
Resumo:
Cómic, arquitectura narrativa. Describiendo cuatro dimensiones con dos. La mayor parte de los estudios con un enfoque académico en torno a cómic y arquitectura, se han centrado más en las distintas realidades representadas dentro del medio, en sus decorados, que en la estructura del cómic en sí. Existe un aspecto gráfico que se ha venido obviando o al menos no ha adquirido el protagonismo que merece: los espacios representados en el cómic se encuentran en un medio que se concibe y estructura de una manera similar a como el arquitecto dibuja y concibe la arquitectura. En lo básico, históricamente, las herramientas y soportes para idear y representar la arquitectura son muy parecidas a aquellas que usa el autor de cómic. Lápiz, tinta y color sobre un papel, combinadas trabajando en un tablero, ese es lugar de nacimiento de ambos mundos. A lo largo de esta tesis se muestra cómo el dibujo une a creadores de narraciones gráficas y edificios. La relación va más allá de que el cómic pueda utilizar las disposiciones vitruvianas, ichnographia, ortographia o scenographia, (planta, alzado, perspectiva), la propia articulación que hace del espacio de la página, puede sintonizar con la manera en la que se concibe una estructura arquitectónica. La tesis inicia con un capítulo de recorrido en torno a las teorías del cómic existentes, buscando intersecciones posibles con la representación arquitectónica o el proyecto espacial. En este primer paso de estudio del estado de la cuestión han pesado más los trabajos de los últimos veinticinco años. Se trata de un periodo en el que, a la par que se ha producido una explosión creativa en el mundo del cómic, determinados teóricos han incidido en un análisis más formal y visual del medio. Tras recoger teorías en el primer capítulo, se plantea un recorrido histórico a la búsqueda de posibles resonancias de “arquitecturas mentales” en el pasado. Esta búsqueda de referentes más allá del siglo XIX, momento en el que nace el medio en su forma actual, es ya un aspecto comúb en distintos estudios de cómic que han servido de inspiración. Se ha preferido ubicar esta colección de antecedentes como segundo capítulo, evitando dar al trabajo un carácter de historia e incidiendo en su enfoque de tipo visual. El tercer capítulo analiza una serie de obras y autores de cómic en su forma actual, buscando distintas estrategias para la descripción de espacios y las narraciones que ocurren en ellos. El crecimiento de casos en estas últimas décadas ha demostrado hasta qué punto el desarrollo de un campo depende tanto de que exista una masa crítica en un contexto conectado y productivo, como de la aparición de individuos que abren puertas a los demás, con la cristalización personal que hacen de una situación. Se analiza en un cuarto capítulo la relación entre la arquitectura y el cómic modernos. Una relación que se presenta partiendo desde sus respectivos padres, para después tratar un elenco creciente de experiencias en el que la narración gráfica y el hecho arquitectónico estan íntimamente ligados. Inspirado en la estrategia que Gubern y Gasca utilizan en El discurso del cómic (Cátedra, 1988) se cierra la tesis con un discurso visual por las arquitecturas mentales y narrativas del cómic: la representación del espacio a través de juego con las dimensiones, el uso de recursos gráficos propios de la descripción arquitectónica, la sección, la planta, la utilización de elementos constructivos,etc, completando el abanico de estrategias gráficas presentadas. ABSTRACT Comic narrative architecture. Describing four dimensions with two Most of the studies with an academic focus around comics and architecture have centered their view more on the different realities represented in the media, in its sets, than in the structure of comics itself. There is a graphic aspect that has been ignored, or at least has not gained the prominence it deserves: the spaces rendered in the comics are set in a medium that is conceived and structured in a similar way as the architect draws and conceives architecture. In basics, tools for designing and representing architecture are very similar to those used by the cartoonist. Pencil, ink and color on paper, combined working on a board, that is birthplace of both worlds. Throughout this thesis its shown how drawing connects creators of graphic stories and buildings. The relationship goes beyond the use that comics can do of the Vitruvian provisions, ichnographia, ortographia or scenographia (plan, elevation, perspective), to the arrange itself that it makes with space on the page, in tune with the way in which architectural structures are conceived. The thesis starts with a chapter that collects existing comics theories and their possible intersection with architectural rendering. In this first step of study on the state of affairs, the focus has been over studies from the last twenty years. It is a period in which, at the same time that there has been a creative explosion in the world of comics, some theorists have worked with a more formal and visual approach. After collecting theories in the first chapter, a historical tour is made to search for possible resonances of “mental architectures” in the past. This search for references beyond the nineteenth century, when the medium was born in its current form, is already a regular process in various recent studies that have served as inspiration. We preferred to locate this as a second chapter, to avoid giving the work a character of History, and reenforcing its visual approach. The third chapter analyzes a series of comics and authors, looking for different strategies for describing spaces and stories that occur in them. The growth of cases in recent decades has shown how the development of a field depends both on the existence of a critical mass in a connected and productive enviroment, and the appearance of individuals who open doors to others with the personal crystallization that they make on that context. The relationship between architecture and the modern comic is analyzed in a fourth chapter. A relationship that is described starting from their parents, and then going through a growing cast of experiences in which graphic narrative and architecture are closely linked. Inspired by the strategy used Gubern and Gasca in El discurso del cómic (Cátedra, 1988), The Comics’ Speech, the thesis concludes with a visual discourse through this narrative comic architectures: the representation of space by playing with dimensions, the use of resources for architectural rendering, section, plant, etc., to complete the range of graphical strategies presented.
Resumo:
The proliferation of video games and other applications of computer graphics in everyday life demands a much easier way to create animatable virtual human characters. Traditionally, this has been the job of highly skilled artists and animators that painstakingly model, rig and animate their avatars, and usually have to tune them for each application and transmission/rendering platform. The emergence of virtual/mixed reality environments also calls for practical and costeffective ways to produce custom models of actual people. The purpose of the present dissertation is bringing 3D human scanning closer to the average user. For this, two different techniques are presented, one passive and one active. The first one is a fully automatic system for generating statically multi-textured avatars of real people captured with several standard cameras. Our system uses a state-of-the-art shape from silhouette technique to retrieve the shape of subject. However, to deal with the lack of detail that is common in the facial region for these kind of techniques, which do not handle concavities correctly, our system proposes an approach to improve the quality of this region. This face enhancement technique uses a generic facial model which is transformed according to the specific facial features of the subject. Moreover, this system features a novel technique for generating view-independent texture atlases computed from the original images. This static multi-texturing system yields a seamless texture atlas calculated by combining the color information from several photos. We suppress the color seams due to image misalignments and irregular lighting conditions that multi-texturing approaches typically suffer from, while minimizing the blurring effect introduced by color blending techniques. The second technique features a system to retrieve a fully animatable 3D model of a human using a commercial depth sensor. Differently to other approaches in the current state of the art, our system does not require the user to be completely still through the scanning process, and neither the depth sensor is moved around the subject to cover all its surface. Instead, the depth sensor remains static and the skeleton tracking information is used to compensate the user’s movements during the scanning stage. RESUMEN La popularización de videojuegos y otras aplicaciones de los gráficos por ordenador en el día a día requiere una manera más sencilla de crear modelos virtuales humanos animables. Tradicionalmente, estos modelos han sido creados por artistas profesionales que cuidadosamente los modelan y animan, y que tienen que adaptar específicamente para cada aplicación y plataforma de transmisión o visualización. La aparición de los entornos de realidad virtual/mixta aumenta incluso más la demanda de técnicas prácticas y baratas para producir modelos 3D representando personas reales. El objetivo de esta tesis es acercar el escaneo de humanos en 3D al usuario medio. Para ello, se presentan dos técnicas diferentes, una pasiva y una activa. La primera es un sistema automático para generar avatares multi-texturizados de personas reales mediante una serie de cámaras comunes. Nuestro sistema usa técnicas del estado del arte basadas en shape from silhouette para extraer la forma del sujeto a escanear. Sin embargo, este tipo de técnicas no gestiona las concavidades correctamente, por lo que nuestro sistema propone una manera de incrementar la calidad en una región del modelo que se ve especialmente afectada: la cara. Esta técnica de mejora facial usa un modelo 3D genérico de una cara y lo modifica según los rasgos faciales específicos del sujeto. Además, el sistema incluye una novedosa técnica para generar un atlas de textura a partir de las imágenes capturadas. Este sistema de multi-texturización consigue un atlas de textura sin transiciones abruptas de color gracias a su manera de mezclar la información de color de varias imágenes sobre cada triángulo. Todas las costuras y discontinuidades de color debidas a las condiciones de iluminación irregulares son eliminadas, minimizando el efecto de desenfoque de la interpolación que normalmente introducen este tipo de métodos. La segunda técnica presenta un sistema para conseguir un modelo humano 3D completamente animable utilizando un sensor de profundidad. A diferencia de otros métodos del estado de arte, nuestro sistema no requiere que el usuario esté completamente quieto durante el proceso de escaneado, ni mover el sensor alrededor del sujeto para cubrir toda su superficie. Por el contrario, el sensor se mantiene estático y el esqueleto virtual de la persona, que se va siguiendo durante el proceso, se utiliza para compensar sus movimientos durante el escaneado.
Resumo:
La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.
Resumo:
El proyecto de una tienda concentra un poco de todo aquello que interesa al arquitecto: conforma una suerte de encrucijada en la que se dan cita, junto a cuestiones disciplinares que la hacen muy atractiva y ponen a prueba su habilidad como proyectista, la necesidad de aunar recursos compositivos procedentes de otros terrenos periféricos a la arquitectura para dar una respuesta adecuada a los requerimientos específicos de imagen y persuasión que la actividad comercial comporta. Las difíciles condiciones de partida, habitualmente configuraciones espaciales no excesivamente favorables, donde las preexistencias y los contornos coartan y encierran un espacio al que hay que dotar de un nuevo orden; el tamaño reducido y las posibilidades de control total de la obra que de éste se derivan; el corto plazo de tiempo y la rapidez de respuesta que la estrategia comercial impone; su posición estratégica, en relación directa con la calle, y la mayor evidencia que, por tanto, se le asigna a la fachada y al escaparate como ‘primeros anuncios’ de la actividad; la integración y el comentario recíproco entre arquitectura y objeto que tiene lugar en su seno…, son algunas de las razones que explican este interés y justifican que la tienda −ese espacio acotado tan apto para el invento y la innovación−, constituya un banco de pruebas donde poder ensayar nuevos conceptos de la arquitectura al reunir espacial y temporalmente los condicionantes ideales requeridos para la experimentación y la comprobación de hallazgos. Aunque escasas, existen en la arquitectura contemporánea tiendas que han logrado ocupar por méritos propios un lugar destacado dentro de la obra de sus autores. Entre las merecedoras de ese reconocimiento habría que citar la ‘mítica’ sastrería Kniže proyectada por Adolf Loos a comienzos del siglo XX en Viena, el Negozio Vitrum que Giuseppe Terragni diseñara en Como en los años treinta, o la sucursal londinense de las líneas aéreas de Iraq construida en los sesenta por Alison y Peter Smithson. La elección, lejos de ser gratuita, obedece a razones fundadas. Dentro de las circunstancias temporales en las que se gestaron −las tres fueron proyectadas y construidas a lo largo del pasado siglo en un arco que abarca algo más de cincuenta años (1907-1961)−, los ejemplos seleccionados aúnan toda una serie de ‘coincidencias’ entre las que no resulta difícil establecer ciertos paralelismos: las tres marcan la talla de unos creadores que fueron capaces de dedicar la misma intensidad creativa a estos temas ‘menores’, corroborando que el carácter de la arquitectura también puede hacerse grande en lo pequeño; las tres, debido al momento de madurez en el que se abordó su diseño, reflejan su condición de laboratorio experimental al servicio de los intereses proyectuales que en ese momento ocupaban la mente de los arquitectos; las tres corroboran hipótesis ya apuntadas en arquitecturas anteriores, prueban líneas de trabajo no materializadas por falta de oportunidad y testan de manera menos comprometida soluciones que luego se trasladarán a obras con mayor vocación de permanencia; obras −y esto es algo especialmente sorprendente− con las que mantuvieron una estrecha relación en el espacio y en el tiempo, convirtiéndose incluso en plataformas de experimentación paralelas: baste en este sentido con apuntar la cercanía física −a ‘metros’ de distancia− y temporal −realizadas en los mismos años− entre la sastrería Kniže (1907- 1913;1928) y la Casa en la Michaelerplatz (1910-11); la tienda Vitrum (1930) y la Casa del Fascio (1929; 1932-36) o las oficinas de venta de las Iraqi Airways (1960-61) y la sede del The Economist (1959-64). Esta potencialidad que la tienda encierra para erigirse en laboratorio de experimentación y ensayo de la arquitectura, constituye la clave de la investigación que la tesis propone. ABSTRACT A little of everything that interests the architect is concentrated in the designing of a shop: it forms a kind of crossroads bringing together, apart from certain disciplinary questions rendering it particularly attractive and testing one’s ability as a designer, the need to coordinate compositional resources from fields peripheral to architecture in order to devise an adequate response to the specific requirements of image and persuasion that are part and parcel of business activity. The difficult start-up conditions, the generally not overly favourable spatial configurations ‒where the pre-existing conditions and shape of the site encroach on and enclose a space which has to be given a new order‒, the reduced size and possibilities afforded in terms of controlling the work, the short time frame and the rapid response imposed by the business tactics and its strategic position and direct frontal relationship with the street, make the shopfront and the display window are the ‘first advertisements” of the activity, or the integration and the reciprocal commentary between architecture and what takes place within: these are but some of the reasons explaining this interest and justifying the claim that the shop –a dimensional space so well suited to invention and innovation− constitutes a test-bed for trying out new concepts of architecture, combining in space and time the ideal conditions for experiment and the examination of its findings. Albeit not numerous, there are shops in contemporary architecture which have managed on their own merit to obtain a special place among the works of their authors. Among those earning such recognition, one should mention the ‘mythical’ Kniže tailoring establishment designed by Adolf Loos at the beginning of the 20th century in Vienna, the Negozio Vitrum designed by Giuseppe Terragni in Como in the thirties, or the London offices of Iraqi Airways built in the sixties by Alison and Peter Smithson. This selection, far from gratuitous, is based on well-founded reasons. Within the circumstances of the time-frame in which they were developed −the three were designed and built during the 20th century in a period that spans just over fifty years (1907-1961)− the chosen examples bring together a whole series of ‘coincidences’ where it is not difficult to draw certain parallels: the three bear witness to the stature of creators who were capable of devoting the same creative intensity to these ‘minor’ themes, thus corroborating the fact that the nature of the architecture can also be great in less important works; the three, thanks to the moment of maturity in which their design was carried out, reflect their condition as an experimental laboratory at the service of the particular designing interests which at the time occupied the minds of these architects; the three confirm hypotheses already displayed in previous architectures, they test lines of work which had not materialised through lack of opportunity, and in a less comprised manner check solutions that were later transferred to works with a greater vocation for permanence; works −and this is something especially surprising – with which they maintained a close relationship in time and space, even becoming parallel experimental platforms: in this sense, we need only to mention the physical proximity –just metres away− and proximity in time –built within the same years− between the Kniže shop (1907-1913; 1928) and the House of Michaelerplatz (1910-11); the Vitrum shop (1930) and the Casa del Fascio (1929;1932-36); and the Iraqi Airways sales offices (1960-61) and the headquarters of The Economist (1959-64). The potential of the shop to set itself up as an experimental laboratory and architectural rehearsal constitutes the main focus of the research put forward by this thesis.
Resumo:
O principal objetivo deste estudo foi identificar e analisar qual o impacto da tecnologia da informação (TI) na satisfação das pessoas em uma empresa pública. Este estudo pretendeu abordar o assunto de forma a concentrar-se na investigação, com um estudo de caso em uma empresa pública de saneamento ambiental da região do grande ABC paulista, o SEMASA, com o intuito de avaliar as mudanças nas rotinas operacionais dos diversos departamentos da empresa e o impacto causado pela TI na satisfação das pessoas envolvidas. Com base na literatura sobre trabalho e sociedade na era da globalização e empresas públicas, foram analisados inicialmente os motivos que podem contribuir para as pessoas buscarem ingressar na carreira pública. Esse estudo verificou a importância da adoção de ferramentas de tecnologia nos processos produtivos e na prestação de serviços das organizações. Verificou também, que estimular os funcionários de empresas públicas a criarem mecanismos para facilitarem seus trabalhos, através de ferramentas de TI atualizadas, pode ser benéfico, ao mesmo tempo em que pode proporcionar condições destes adquirirem novas capacitações profissionais com a aquisição de novos conhecimentos tecnológicos. Os resultados obtidos apontaram para um significativo aumento na satisfação das pessoas envolvidas sendo estas estimuladas a estarem em constante aperfeiçoamento, através da realização de novos treinamentos e cursos de tecnologia.(AU)
Resumo:
O principal objetivo deste estudo foi identificar e analisar qual o impacto da tecnologia da informação (TI) na satisfação das pessoas em uma empresa pública. Este estudo pretendeu abordar o assunto de forma a concentrar-se na investigação, com um estudo de caso em uma empresa pública de saneamento ambiental da região do grande ABC paulista, o SEMASA, com o intuito de avaliar as mudanças nas rotinas operacionais dos diversos departamentos da empresa e o impacto causado pela TI na satisfação das pessoas envolvidas. Com base na literatura sobre trabalho e sociedade na era da globalização e empresas públicas, foram analisados inicialmente os motivos que podem contribuir para as pessoas buscarem ingressar na carreira pública. Esse estudo verificou a importância da adoção de ferramentas de tecnologia nos processos produtivos e na prestação de serviços das organizações. Verificou também, que estimular os funcionários de empresas públicas a criarem mecanismos para facilitarem seus trabalhos, através de ferramentas de TI atualizadas, pode ser benéfico, ao mesmo tempo em que pode proporcionar condições destes adquirirem novas capacitações profissionais com a aquisição de novos conhecimentos tecnológicos. Os resultados obtidos apontaram para um significativo aumento na satisfação das pessoas envolvidas sendo estas estimuladas a estarem em constante aperfeiçoamento, através da realização de novos treinamentos e cursos de tecnologia.(AU)
Resumo:
New accelerator mass spectrometry radiocarbon dates taken directly on human remains from the Late Pleistocene sites of Vindija and Velika Pećina in the Hrvatsko Zagorje of Croatia are presented. Hominid specimens from both sites have played critical roles in the development of current perspectives on modern human evolutionary emergence in Europe. Dates of ≈28 thousand years (ka) before the present (B.P.) and ≈29 ka B.P. for two specimens from Vindija G1 establish them as the most recent dated Neandertals in the Eurasian range of these archaic humans. The human frontal bone from Velika Pećina, generally considered one of the earliest representatives of modern humans in Europe, dated to ≈5 ka B.P., rendering it no longer pertinent to discussions of modern human origins. Apart from invalidating the only radiometrically based example of temporal overlap between late Neandertal and early modern human fossil remains from within any region of Europe, these dates raise the question of when early modern humans first dispersed into Europe and have implications for the nature and geographic patterning of biological and cultural interactions between these populations and the Neandertals.
Resumo:
Adenovirus (Ad) gene transfer vectors are rapidly cleared from infected hepatocytes in mice. To determine which effector mechanisms are responsible for elimination of the Ad vectors, we infected mice that were genetically compromised in immune effector pathways [perforin, Fas, or tumor necrosis factor α (TNF-α)] with the Ad vector, Ad5-chloramphenicol acetyl transferase (CAT). Mice were sacrificed at 7–60 days postinfection, and the levels of CAT expression in the liver determined by a quantitative enzymatic assay. When the livers of infected mice were harvested 28 days postinfection, the levels of CAT expression revealed that the effectors most important for the elimination of the Ad vector were TNF-α > Fas > perforin. TNF-α did not have a curative effect on infected hepatocytes, as the administration of TNF-α to infected severe combined immunodeficient mice or to infected cultures in vitro had no specific effect on virus persistence. However, TNF-α-deficient mice demonstrated a striking reduction in the leukocytic infiltration early on in the infection, suggesting that TNF-α deficiency resulted in impaired recruitment of inflammatory cells to the site of inflammation. In addition, the TNF-deficient mice had a significantly reduced humoral immune response to virus infection. These results demonstrate a dominant role of TNF-α in elimination of Ad gene transfer vectors. This result is particularly important because viral proteins that disable TNF-α function have been removed from most Ad vectors, rendering them highly susceptible to TNF-α-mediated elimination.
Resumo:
Studies on the transmission of human (Hu) prions to transgenic (Tg) mice suggested that another molecule provisionally designated protein X participates in the formation of nascent scrapie isoform of prion protein (PrPSc). We report the identification of the site at which protein X binds to the cellular isoform of PrP (PrPC) using scrapie-infected mouse (Mo) neuroblastoma cells transfected with chimeric Hu/MoPrP genes even though protein X has not yet been isolated. Substitution of a Hu residue at position 214 or 218 prevented PrPSc formation. The side chains of these residues protrude from the same surface of the C-terminal α-helix and form a discontinuous epitope with residues 167 and 171 in an adjacent loop. Substitution of a basic residue at positions 167, 171, or 218 also prevented PrPSc formation: at a mechanistic level, these mutant PrPs appear to act as “dominant negatives” by binding protein X and rendering it unavailable for prion propagation. Our findings seem to explain the protective effects of basic polymorphic residues in PrP of humans and sheep and suggest therapeutic and prophylactic approaches to prion diseases.
Resumo:
Tyk2 belongs to the Janus kinase (JAK) family of receptor associated tyrosine kinases, characterized by a large N-terminal region, a kinase-like domain and a tyrosine kinase domain. It was previously shown that Tyk2 contributes to interferon-α (IFN-α) signaling not only catalytically, but also as an essential intracellular component of the receptor complex, being required for high affinity binding of IFN-α. For this function the tyrosine kinase domain was found to be dispensable. Here, it is shown that mutant cells lacking Tyk2 have significantly reduced IFN-α receptor 1 (IFNAR1) protein level, whereas the mRNA level is unaltered. Expression of the N-terminal region of Tyk2 in these cells reconstituted wild-type IFNAR1 level, but did not restore the binding activity of the receptor. Studies of mutant Tyk2 forms deleted at the N terminus indicated that the integrity of the N-terminal region is required to sustain IFNAR1. These studies also showed that the N-terminal region does not directly modulate the basal autophosphorylation activity of Tyk2, but it is required for efficient in vitro IFNAR1 phosphorylation and for rendering the enzyme activatable by IFN-α. Overall, these results indicate that distinct Tyk2 domains provide different functions to the receptor complex: the N-terminal region sustains IFNAR1 level, whereas the kinase-like domain provides a function toward high affinity ligand binding.
Resumo:
The elimination of identified cells is a powerful tool for investigating development and system function. Here we report on genetically mediated cell disruption effected by the toxic Caenorhabditis elegans mec-4(d) allele. We found that ectopic expression of mec-4(d) in the nematode causes dysfunction of a wide range of nerve, muscle, and hypodermal cells. mec-4(d)-mediated toxicity is dependent on the activity of a second gene, mec-6, rendering cell disruption conditionally dependent on genetic background. We describe a set of mec-4(d) vectors that facilitate construction of cell-specific disruption reagents and note that genetic cell disruption can be used for functional analyses of specific neurons or neuronal classes, for confirmation of neuronal circuitry, for generation of nematode populations lacking defined classes of functional cells, and for genetic screens. We suggest that mec-4(d) and/or related genes may be effective general tools for cell inactivation that could be used toward similar purposes in higher organisms.
Resumo:
Cyclin E is an important regulator of cell cycle progression that together with cyclin-dependent kinase (cdk) 2 is crucial for the G1/S transition during the mammalian cell cycle. Previously, we showed that severe overexpression of cyclin E protein in tumor cells and tissues results in the appearance of lower molecular weight isoforms of cyclin E, which together with cdk2 can form a kinase complex active throughout the cell cycle. In this study, we report that one of the substrates of this constitutively active cyclin E/cdk2 complex is retinoblastoma susceptibility gene product (pRb) in populations of breast cancer cells and tissues that also overexpress p16. In these tumor cells and tissues, we show that the expression of p16 and pRb is not mutually exclusive. Overexpression of p16 in these cells results in sequestering of cdk4 and cdk6, rendering cyclin D1/cdk complexes inactive. However, pRb appears to be phosphorylated throughout the cell cycle following an initial lag, revealing a time course similar to phosphorylation of glutathione S-transferase retinoblastoma by cyclin E immunoprecipitates prepared from these synchronized cells. Hence, cyclin E kinase complexes can function redundantly and replace the loss of cyclin D-dependent kinase complexes that functionally inactivate pRb. In addition, the constitutively overexpressed cyclin E is also the predominant cyclin found in p107/E2F complexes throughout the tumor, but not the normal, cell cycle. These observations suggest that overexpression of cyclin E in tumor cells, which also overexpress p16, can bypass the cyclin D/cdk4-cdk6/p16/pRb feedback loop, providing yet another mechanism by which tumors can gain a growth advantage.
Resumo:
Linear peptides derived from the membrane proximal region of the gp41 ectodomain are effective inhibitors of HIV type 1 (HIV-1)-mediated fusion events. These inhibitory peptides lack structure in solution, rendering mechanistic interpretation of their activity difficult. Using structurally constrained analogs of these molecules, we demonstrate that the peptides inhibit infectivity by adopting a helical conformation. Moreover, we show that a specific face of the helix must be exposed to block viral infectivity. Recent crystal structures show that the region of gp41 corresponding to the inhibitory peptides is helical and uses the analogous face to pack against a groove formed by an N-terminal coiled-coil trimer. Our results provide a direct link between the inhibition of HIV-1 infectivity by these peptides and the x-ray structures, and suggest that the conformation of gp41 observed by crystallography represents the fusogenic state. Other agents that block HIV-1 infectivity by binding to this groove may hold promise for the treatment of AIDS.