986 resultados para Procesadores especializados
Resumo:
El concepto de casa crecedera, tal y como lo conocemos en la actualidad, se acuñó por primera vez en 1932 en el concurso Das Wachsende Haus organizado por Martin Wagner y Hans Poelzig dentro del marco de la Exposición Internacional Sonne, Luft und Haus für alle, promovida por la Oficina de Turismo de la ciudad de Berlín. En dicho concurso, se definía este tipo de vivienda como aquella célula básica o vivienda semilla que, dependiendo de las necesidades y posibilidades de los habitantes, podía crecer mediante otras estancias, conformando una vivienda completa en sí misma en cada fase de crecimiento. Numerosos arquitectos de primer orden, tales como Walter Gropius, Bruno Taut, Erich Mendelsohn o Hans Scharoun, participaron en este concurso, abriendo una nueva vía de exploración dentro de la vivienda flexible, la del crecimiento programado. A partir de ese momento, en Europa, y subsecuentemente en EEUU y otras regiones desarrolladas, se iniciaron numerosas investigaciones teóricas y prácticas en torno al fenómeno del crecimiento en la vivienda desde un enfoque vinculado a la innovación, tanto espacial como técnica. Por otro lado, aunque dentro del marco de la arquitectura popular de otros países, ya se ensayaban viviendas crecederas desde el siglo XVIII debido a que, por su tamaño, eran más asequibles dentro del mercado. Desde los años treinta, numerosos países en vías de desarrollo tuvieron que lidiar con migraciones masivas del campo a la ciudad, por lo que se construyeron grandes conjuntos habitacionales que, en numerosos casos, estaban conformados por viviendas crecederas. En todos ellos, la aproximación al crecimiento de la vivienda se daba desde una perspectiva diferente a la de los países desarrollados. Se primaba la economía de medios, el uso de sistemas constructivos de bajo costo y, en muchos casos, se fomentaba incluso la autoconstrucción guiada, frente a las construcciones prefabricadas ensambladas por técnicos especializados que se proponían, por ejemplo, en los casos europeos. Para realizar esta investigación, se recopiló información de estas y otras viviendas. A continuación, se identificaron distintas maneras de producir el crecimiento, atendiendo a su posición relativa respecto de la vivienda semilla, a las que se denominó mecanismos de ampliación, utilizados indistintamente sin tener en cuenta la ubicación geográfica de cada casa. La cuestión de porqué se prefiere un mecanismo en lugar de otro en un caso determinado, desencadenó el principal objetivo de esta Tesis: la elaboración de un sistema de análisis y diagnóstico de la vivienda crecedera que, de acuerdo a determinados parámetros, permitiera indicar cuál es la ampliación o sucesión de ampliaciones óptimas para una familia concreta, en una ubicación establecida. Se partió de la idea de que el crecimiento de la vivienda está estrechamente ligado a la evolución de la unidad de convivencia que reside en ella, de manera que la casa se transformó en un hábitat dinámico. Además se atendió a la complejidad y variabilidad del fenómeno, sujeto a numerosos factores socio-económicos difícilmente previsibles en el tiempo, pero fácilmente monitorizables según unos patrones determinados vinculados a la normatividad, el número de habitantes, el ahorro medio, etc. Como consecuencia, para el diseño del sistema de optimización de la vivienda crecedera, se utilizaron patrones evolutivos. Dichos patrones, alejados ya del concepto espacial y morfológico usualmente utilizado en arquitectura por figuras como C. Alexander o J. Habraken, pasaron a entenderse como una secuencia de eventos en el tiempo (espaciales, sociales, económicos, legales, etc.), que describen el proceso de transformación y que son peculiares de cada vivienda. De esta manera, el tiempo adquirió una especial importancia al convertirse en otro material más del proyecto arquitectónico. Fue en la construcción de los patrones donde se identificaron los mencionados mecanismos de ampliación, entendidos también como sistemas de compactación de la ciudad a través de la ocupación tridimensional del espacio. Al estudiar la densidad, mediante los conceptos de holgura y hacinamiento, se aceptó la congestión de las ciudades como un valor positivo. De esta forma, las posibles transformaciones realizadas por los habitantes (previstas desde un inicio) sobre el escenario del habitar (vivienda semilla), se convirtieron también en herramientas de proyecto urbano que responden a condicionantes del lugar y de los habitantes con distintas intensidades de crecimiento, ocupación y densidad. Igualmente, en el proceso de diseño del sistema de optimización, se detectaron las estrategias para la adaptabilidad y transformación de la casa crecedera, es decir, aquella serie de acciones encaminadas a la alteración de la vivienda para facilitar su ampliación, y que engloban desde sistemas constructivos en espera, que facilitan las costuras entre crecimiento y vivienda semilla, hasta sistemas espaciales que permiten que la casa altere su uso transformándose en un hábitat productivo o en un artefacto de renta. Así como los mecanismos de ampliación están asociados a la morfología, se descubrió que su uso es independiente de la localización, y que las estrategias de adaptabilidad de la vivienda se encuentran ligadas a sistemas constructivos o procesos de gestión vinculados a una región concreta. De esta manera, la combinación de los mecanismos con las estrategias caracterizan el proceso de evolución de la vivienda, vinculándola a unos determinados condicionantes sociales, geográficos y por tanto, constructivos. Finalmente, a través de la adecuada combinación de mecanismos de ampliación y estrategias de adaptabilidad en el proyecto de la vivienda con crecimiento programado es posible optimizar su desarrollo en términos económicos, constructivos, sociales y espaciales. Como resultado, esto ayudaría no sólo a mejorar la vida de los habitantes de la vivienda semilla en términos cualitativos y cuantitativos, sino también a compactar las ciudades mediante sistemas incluyentes, ya que las casas crecederas proporcionan una mayor complejidad de usos y diversidad de relaciones sociales. ABSTRACT The growing house concept -as we currently know it- was used for the first time back in 1932 in the competition Das Wachsende Haus organized by Martin Wagner and Hans Poelzig during the International Exhibition Sonne, Luft und Haus für alle, promoted by Berlin's Tourist Office. In that competition this type of housing was defined as a basic cell or a seed house unit, and depending on the needs and capabilities of the residents it could grow by adding rooms and defining itself as a complete house unit during each growing stage. Many world-top class architects such as Walter Gropius, Bruno Taut, Erich Mendelsohn or Hans Scharoun, were part of this competition exploring a new path in the flexible housing field, the scheduled grownth. From that moment and on, in Europe -and subsequently in the USA and other developed areas- many theorical and pragmatical researchs were directed towards the growing house phenomena, coming from an initial approach related to innovation, spacial and technical innovation. Furthermore -inside the traditional architecture frame in other countries, growing houses were already tested in the XVIII century- mainly due to the size were more affordable in the Real State Market. Since the 30's decade many developing countries had to deal with massive migration movements from the countryside to cities, building large housing developments were -in many cases- formed by growing housing units. In all of these developing countries the growing house approach was drawn from a different perspective than in the developed countries. An economy of means was prioritized, the utilization of low cost construction systems and -in many cases- a guided self-construction was prioritized versus the prefabricated constructions set by specialized technics that were proposed -for instance- in the European cases. To proceed with this research, information from these -and other- housing units was gathered. From then and on different ways to perform the growing actions were identified, according to its relative position from the seed house unit, these ways were named as addition or enlargement mechanisms indifferently utilized without adknowledging the geographic location for each house. The question of why one addition mechanism is preferred over another in any given case became the main target of this Thesis; the ellaboration of an analysis and diagnosis system for the growing house -according to certain parameters- would allow to point out which is the addition or addition process more efficient for a certain family in a particular location. As a starting point the grownth of the housing unit is directly linked to the evolution of the family unit that lives on it, so the house becomes a dynamic habitat. The complexity and the variability of the phenomena was taken into consideration related to a great number of socio-economic factors hardly able to be foreseen ahead on time but easy to be monitored according to certain patterns linked to regulation, population, average savings, etc As a consequence, to design the optimization system for the growing house, evolutionary patterns were utilized. Those patterns far away from the spatial and morphologic concept normally utilized in Architecture by characters like C. Alexander or J. Habraken, started to be understood like a sequence of events on time (spatial events, social events, economic events, legal events, etc) that describes the transformation process and that are particular for each housing unit. Therefore time became something important as another ingredient in the Architectural Project. The before mentioned addition or enlargement mechanisms were identified while building the patterns; these mechanisms were also understood as city's system of compactation through the tridimendional ocupation of space. Studying density, thorough the concepts of comfort and overcrowding, traffic congestion in the city was accepted as a positive value. This way, the possible transformations made by the residents (planned from the begining) about the residencial scenary (seed house), also became tools of the urban project that are a response to site's distinctive features and to the residents with different grownth intensities, activities and density Likewise, during the process of designing the optimization system, strategies for adaptations and transformation of the growing house were detected, in other words, the serial chain of actions directed to modify the house easing its enlargement or addition, and that comprehends from constructive systems on hold -that smooths the costures between grownth and housing seed- to spatial systems that allows that the house modify its utilization, becoming a productive habitat or a rental asset. Because the enlargement mechanisms are linked to the morphology, it was discovered that the use it's not related to the location, and that the adaptation strategies of the houses are linked to constructive systems or management processes linked to a particular area. This way the combination of mechanisms and strategies characterizes the process of housing evolution, linking it to certain social and geographic peculiarities and therefore constructives. At last, through the certain combination of enlargement mechanisms and adaptability strategies in the housing with scheduled grownth project is possible to optimize its development in economic, constructive, social and spatial terms. As a result, this would help not only to improve the life of the seed house residents in qualitative and quantitative terms but also to compact the cities through inclusive systems, given that the growing houses provide a larger complexity of uses and social relations.
Resumo:
El sistema energético mundial actual es insostenible a largo plazo debido a la fuerte presencia de los combustibles fósiles. Es por ello que se está llevando a cabo gradualmente un proceso de cambio de modelo energético, teniendo como base la incorporación de las energías renovables. Dentro de este tipo de energías la energía solar, tanto fotovoltaica como de concentración, es una de las tecnologías con más crecimiento y potencial en el futuro. Las mejoras en materiales y dispositivos en energía solar permiten la reducción de costes y la mejora de la eficiencia causando un aumento en la competitividad de esta tecnología. El objetivo de este proyecto es el de diseñar y construir un sistema de orientación solar electrónico. Para ello será necesario la utilización de sensores de luminosidad, un controlador y un motor eléctrico. El sistema detectará el punto de mayor intensidad lumínica y orientará la superficie de una placa hacia este punto. El proyecto se desarrollará empleando la plataforma Arduino, una serie de micro procesadores de libre acceso destinados al uso en aplicaciones de electrónica general en el ámbito educativo y de bajo coste. Todo el sistema estará dirigido por un programa que controlará las lecturas de luz y el movimiento del motor.
Resumo:
La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.
Resumo:
Debido al creciente aumento del tamaño de los datos en muchos de los actuales sistemas de información, muchos de los algoritmos de recorrido de estas estructuras pierden rendimento para realizar búsquedas en estos. Debido a que la representacion de estos datos en muchos casos se realiza mediante estructuras nodo-vertice (Grafos), en el año 2009 se creó el reto Graph500. Con anterioridad, otros retos como Top500 servían para medir el rendimiento en base a la capacidad de cálculo de los sistemas, mediante tests LINPACK. En caso de Graph500 la medicion se realiza mediante la ejecución de un algoritmo de recorrido en anchura de grafos (BFS en inglés) aplicada a Grafos. El algoritmo BFS es uno de los pilares de otros muchos algoritmos utilizados en grafos como SSSP, shortest path o Betweeness centrality. Una mejora en este ayudaría a la mejora de los otros que lo utilizan. Analisis del Problema El algoritmos BFS utilizado en los sistemas de computación de alto rendimiento (HPC en ingles) es usualmente una version para sistemas distribuidos del algoritmo secuencial original. En esta versión distribuida se inicia la ejecución realizando un particionado del grafo y posteriormente cada uno de los procesadores distribuidos computará una parte y distribuirá sus resultados a los demás sistemas. Debido a que la diferencia de velocidad entre el procesamiento en cada uno de estos nodos y la transfencia de datos por la red de interconexión es muy alta (estando en desventaja la red de interconexion) han sido bastantes las aproximaciones tomadas para reducir la perdida de rendimiento al realizar transferencias. Respecto al particionado inicial del grafo, el enfoque tradicional (llamado 1D-partitioned graph en ingles) consiste en asignar a cada nodo unos vertices fijos que él procesará. Para disminuir el tráfico de datos se propuso otro particionado (2D) en el cual la distribución se haciá en base a las aristas del grafo, en vez de a los vertices. Este particionado reducía el trafico en la red en una proporcion O(NxM) a O(log(N)). Si bien han habido otros enfoques para reducir la transferecnia como: reordemaniento inicial de los vertices para añadir localidad en los nodos, o particionados dinámicos, el enfoque que se va a proponer en este trabajo va a consistir en aplicar técnicas recientes de compression de grandes sistemas de datos como Bases de datos de alto volume o motores de búsqueda en internet para comprimir los datos de las transferencias entre nodos.---ABSTRACT---The Breadth First Search (BFS) algorithm is the foundation and building block of many higher graph-based operations such as spanning trees, shortest paths and betweenness centrality. The importance of this algorithm increases each day due to it is a key requirement for many data structures which are becoming popular nowadays. These data structures turn out to be internally graph structures. When the BFS algorithm is parallelized and the data is distributed into several processors, some research shows a performance limitation introduced by the interconnection network [31]. Hence, improvements on the area of communications may benefit the global performance in this key algorithm. In this work it is presented an alternative compression mechanism. It differs with current existing methods in that it is aware of characteristics of the data which may benefit the compression. Apart from this, we will perform a other test to see how this algorithm (in a dis- tributed scenario) benefits from traditional instruction-based optimizations. Last, we will review the current supercomputing techniques and the related work being done in the area.
Resumo:
O caderno semanal Folhetim, da Folha de S. Paulo, foi publicado entre 1977 e 1989. Teve três fases distintas, caracterizadas pela semelhança com a imprensa alternativa (no período 1977-1979), pela abertura de espaços à discussão sobre a retomada da democracia, sobre temas sociais e por uma aproximação com as universidades (1979-1982) e pela publicação de ensaios altamente especializados (1982-1989). Procura-se analisar os fatores determinantes dessas reorientações editoriais do Folhetim, como a influência do mercado de jornais, do processo de abertura política e das reformas operadas na Folha a partir de 1974.(AU)
Resumo:
O caderno semanal Folhetim, da Folha de S. Paulo, foi publicado entre 1977 e 1989. Teve três fases distintas, caracterizadas pela semelhança com a imprensa alternativa (no período 1977-1979), pela abertura de espaços à discussão sobre a retomada da democracia, sobre temas sociais e por uma aproximação com as universidades (1979-1982) e pela publicação de ensaios altamente especializados (1982-1989). Procura-se analisar os fatores determinantes dessas reorientações editoriais do Folhetim, como a influência do mercado de jornais, do processo de abertura política e das reformas operadas na Folha a partir de 1974.(AU)
Resumo:
A partir da perspectiva da Análise de Discurso de linha francesa, este trabalho analisa os discursos especializados (científico, religioso, jurídico, jornalístico, político) presentes em artigos na mídia massiva sobre a cobertura da Lei de Biossegurança, sobretudo a partir do ajuizamento da ADI Nº 3510, pelo ex-procurador geral da República, Claudio Fontelles. Os dados são artigos opinativos publicados nos jornais Folha de S. Paulo e O Estado de S. Paulo, no primeiro semestre de 2005, bem como os documentos-fonte do Magistério Católico citados (Evangelium Vitae; Declaração sobre a Produção e o Uso Científico e Terapêutico das Células Estaminais Embrionárias Humanas; e a Instrução Donum Vitae,). Pretende-se verificar o modus operandi da linguagem nestes discursos, sobretudo os aspectos ideológicos de sua construção como elementos persuasivos. Os resultados da pesquisa permitem concluir a presença de elementos dogmáticos nestes discursos, alinhados com o posicionamento ideológico dos grupos aos quais pertencem os articulistas, bem como a presença de elementos mítico-filosófico-religiosos, conforme a noção de Discurso Fundador, de Eni Orlandi.(AU)
Resumo:
A partir da perspectiva da Análise de Discurso de linha francesa, este trabalho analisa os discursos especializados (científico, religioso, jurídico, jornalístico, político) presentes em artigos na mídia massiva sobre a cobertura da Lei de Biossegurança, sobretudo a partir do ajuizamento da ADI Nº 3510, pelo ex-procurador geral da República, Claudio Fontelles. Os dados são artigos opinativos publicados nos jornais Folha de S. Paulo e O Estado de S. Paulo, no primeiro semestre de 2005, bem como os documentos-fonte do Magistério Católico citados (Evangelium Vitae; Declaração sobre a Produção e o Uso Científico e Terapêutico das Células Estaminais Embrionárias Humanas; e a Instrução Donum Vitae,). Pretende-se verificar o modus operandi da linguagem nestes discursos, sobretudo os aspectos ideológicos de sua construção como elementos persuasivos. Os resultados da pesquisa permitem concluir a presença de elementos dogmáticos nestes discursos, alinhados com o posicionamento ideológico dos grupos aos quais pertencem os articulistas, bem como a presença de elementos mítico-filosófico-religiosos, conforme a noção de Discurso Fundador, de Eni Orlandi.(AU)
Resumo:
O câncer em crianças até cerca de duas décadas, era considerado uma doença crônica, com prognóstico desfavorável, resultando na maioria dos casos, em morte. Atualmente, tem-se apresentado como uma doença com melhores perspectivas, onde 70% das crianças acometidas por essa doença podem ser curadas, quando diagnosticadas precocemente, e tratadas em centros especializados¹. Este estudo teve como objetivo, avaliar a qualidade de vida e o stress de crianças e adolescentes com câncer, em remissão e recidiva. Trata-se de um estudo correlacional, quali-quantitativo, transversal. Foi desenvolvido no ambulatório de oncologia pediátrica da Faculdade de Medicina do ABC, e na enfermaria do Hospital Mário Covas. Contou com a colaboração de 40 sujeitos, com idades entre 06 a 14 anos, de ambos os sexos. Como instrumento para medir a qualidade de vida, foi utilizado o Child Health Questionnaire (CHQ-PF50), que possui 15 conceitos em saúde, abrangendo aspectos físicos e psicossociais e para medir o stress, a Escala de Stress Infantil (ESI), que tem como objetivo, avaliar o stress da criança, através de reações físicas e psicológicas. Os resultados indicaram que no domínio físico (PhS), as crianças em situação clínica de recidiva e remissão não apresentam diferenças significativas em relação às variáveis: qualidade de vida e stress, porém, no domínio psicossocial (PsS), houve diferença estatisticamente significante, indicando que os meninos apresentam melhor qualidade de vida e menor stress, se comparados com as meninas, mostrando que o emocional interfere nesse resultado.(AU)
Resumo:
O câncer em crianças até cerca de duas décadas, era considerado uma doença crônica, com prognóstico desfavorável, resultando na maioria dos casos, em morte. Atualmente, tem-se apresentado como uma doença com melhores perspectivas, onde 70% das crianças acometidas por essa doença podem ser curadas, quando diagnosticadas precocemente, e tratadas em centros especializados¹. Este estudo teve como objetivo, avaliar a qualidade de vida e o stress de crianças e adolescentes com câncer, em remissão e recidiva. Trata-se de um estudo correlacional, quali-quantitativo, transversal. Foi desenvolvido no ambulatório de oncologia pediátrica da Faculdade de Medicina do ABC, e na enfermaria do Hospital Mário Covas. Contou com a colaboração de 40 sujeitos, com idades entre 06 a 14 anos, de ambos os sexos. Como instrumento para medir a qualidade de vida, foi utilizado o Child Health Questionnaire (CHQ-PF50), que possui 15 conceitos em saúde, abrangendo aspectos físicos e psicossociais e para medir o stress, a Escala de Stress Infantil (ESI), que tem como objetivo, avaliar o stress da criança, através de reações físicas e psicológicas. Os resultados indicaram que no domínio físico (PhS), as crianças em situação clínica de recidiva e remissão não apresentam diferenças significativas em relação às variáveis: qualidade de vida e stress, porém, no domínio psicossocial (PsS), houve diferença estatisticamente significante, indicando que os meninos apresentam melhor qualidade de vida e menor stress, se comparados com as meninas, mostrando que o emocional interfere nesse resultado.(AU)
Resumo:
O trabalho analisa a relação entre Comunicação e Inovação nos Portais Corporativos das empresas Embraer, Natura, Faber-Castell e Rigesa. Ou seja, como essas instituições inovam em suas comunicações no meio on-line e como divulgam o conteúdo sobre Inovação. Estas empresas foram selecionadas como corpus central da pesquisa por estarem entre as mais inovadoras do Brasil, de acordo com a primeira versão do Índice Brasil de Inovação de 2007. A metodologia central para o desenvolvimento do projeto é a de Estudos de Caso Múltiplos, a partir da qual foi feita a comparação da comunicação digital por meio dos portais corporativos. Também são utilizados os recursos da Análise de Conteúdo e da Análise do Discurso. A proposta inclui também o exame da utilização das Tecnologias da Informação e Comunicação para a veiculação de informações institucionais e sobre Inovação por meio das Salas de Imprensa. E ainda, são destacadas as características dos profissionais responsáveis pela gestão dos portais corporativos. Os resultados da pesquisa evidenciam que há uma contradição entre as empresas serem inovadoras em produtos e processos, mas não no planejamento, gestão, arquitetura e divulgação da imagem institucional e de informações sobre inovação por meio dos portais corporativos. Revela ainda um nicho de mercado que precisa de profissionais especializados.(AU)
Resumo:
O trabalho analisa a relação entre Comunicação e Inovação nos Portais Corporativos das empresas Embraer, Natura, Faber-Castell e Rigesa. Ou seja, como essas instituições inovam em suas comunicações no meio on-line e como divulgam o conteúdo sobre Inovação. Estas empresas foram selecionadas como corpus central da pesquisa por estarem entre as mais inovadoras do Brasil, de acordo com a primeira versão do Índice Brasil de Inovação de 2007. A metodologia central para o desenvolvimento do projeto é a de Estudos de Caso Múltiplos, a partir da qual foi feita a comparação da comunicação digital por meio dos portais corporativos. Também são utilizados os recursos da Análise de Conteúdo e da Análise do Discurso. A proposta inclui também o exame da utilização das Tecnologias da Informação e Comunicação para a veiculação de informações institucionais e sobre Inovação por meio das Salas de Imprensa. E ainda, são destacadas as características dos profissionais responsáveis pela gestão dos portais corporativos. Os resultados da pesquisa evidenciam que há uma contradição entre as empresas serem inovadoras em produtos e processos, mas não no planejamento, gestão, arquitetura e divulgação da imagem institucional e de informações sobre inovação por meio dos portais corporativos. Revela ainda um nicho de mercado que precisa de profissionais especializados.(AU)
Resumo:
Esta tese tem como tema principal o discurso ambiental local. Trata-se de uma proposta de análise, que pode ser aplicada a este tipo de discurso em qualquer localidade, e um estudo de caso, que aplicou a análise proposta na tese. O objetivo geral desta pesquisa foi analisar a informação local sobre meio ambiente veiculada por meio dos discursos jornalístico, político e empresarial, estabelecendo relações históricas, sociais e ideológicas do discurso ambiental que permeiam as três áreas em questão. A metodologia incluiu três fases: pesquisa bibliográfica e revisão de literatura sobre os principais conceitos levantados no trabalho; levantamento de discursos locais disponíveis na mídia para análise no estudo de caso; análise dos discursos a partir de protocolo elaborado com base na Análise do Discurso de linha francesa. O estudo de caso traz a análise do discurso ambiental no município de Frutal-MG, onde hoje estão em andamento várias pesquisas e projetos na área ambiental. A principal conclusão do trabalho confirma a hipótese da pesquisa de que a informação ambiental fruto dos discursos político, jornalístico e empresarial em âmbito local tem caráter predominantemente situacional, mercadológico e propagandístico, pouco focada em conscientizar e educar e com ênfase em interesses comerciais e eleitorais e na resolução de problemas emergenciais.
Resumo:
Inclui anexo lista dos orgãos especializados nos parlamentos dos estados-membros.
Resumo:
Acompanhando a tendência mundial, o Brasil apresenta um processo de envelhecimento de sua população, caracterizado pelo aumento das condições crônicas, inclusive do câncer. O quadro convoca mudanças profundas nos sistemas de saúde, demandando a implantação de Redes de Atenção, a fim de garantir acesso a todos os níveis de atenção, superando a fragmentação do cuidado. Com o intuito de conhecer os avanços no que se refere à atenção oncológica em rede, analisou-se o acesso ao tratamento do câncer em São Paulo, especialmente a partir do surgimento da Lei dos sessenta dias. Foram considerados os sistemas de monitoramento da atenção oncológica no município, além de analisados os itinerários assistenciais de usuárias, utilizando o câncer de mama como condição traçadora. Não foi possível identificar uma redução do tempo de espera para iniciar o tratamento, a partir do banco do Registro Hospitalar de Câncer de são Paulo, considerando que não há completude na base a partir de 2013, sendo observado que o tempo indicado na lei foi ultrapassado nos dois anos anteriores. Da mesma forma, notou-se um aumento da proporção de estádios avançados nesse período. Ainda com relação à variável tempo, as informações no SIGA demonstraram que, em 2013, o tempo médio para uma consulta em Onco-mastologia nos serviços de gestão municipal que estão sob regulação foi de apenas 4 dias. Por meio dos Sistemas de Informação Ambulatorial e Hospitalar, observou-se um aumento estatisticamente significativo na produção de radioterapia e de cirurgias oncológicas entre os anos 2011 e 2014, e uma tendência de redução dos procedimentos quimioterápicos. O Sistema de Informação sobre Câncer de Mama demonstrou aumento no percentual de mamografias alteradas, aspecto que, ao ser analisado em conjunto com o aumento da proporção de estadiamentos avançados, pode ser indicativo de maior dificuldade no acesso ao diagnóstico precoce do câncer de mama. Observou-se que a judicialização esteve muito relacionada a acesso a medicamentos quimioterápicos, de prescrição após a entrada nos serviços especializados, o que confirma que o acesso ao tratamento de câncer de mama no município não apresenta grandes barreiras. Um importante efeito visualizado com o surgimento da Lei foi a padronização dos protocolos de acesso aos serviços de gestão municipal e estadual. Entretanto, a rede de oncologia em São Paulo continua fragmentada dentre seus componentes estruturais, as ações permanecem no plano da construção de fluxos de encaminhamento, ficando restrita à atenção especializada. A atenção oncológica na cidade é atravessada pelo setor privado, o que deixa na dependência dos prestadores a disponibilização de vagas para acesso e o fluxo interno de cada serviço. O poder ainda continua com os grandes prestadores, não sendo bem conhecidos os caminhos para o acesso a algumas instituições, nem publicizadas as informações sobre fila e tempo de espera. A legislação sozinha não é indutora de melhoria de acesso, nem muito menos de garantia de integralidade. Um importante desafio para o SUS é a integração dos serviços e a construção de redes de atenção com centralidade na APS, garantindo, acima de tudo, o diagnóstico em tempo oportuno e a efetiva gestão sobre os serviços privados contratados de média e alta complexidade.