178 resultados para Leveraged buyouts


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due to the significant increase of population and their natural desire of improving their standard of living, usage of energy extracted from world commodities, especially shaped as electricity, has increased in an intense manner during the last decades. This fact brings up a challenge with a complicated solution, which is how to guarantee that there will be enough energy so as to satisfy the energy demand of the world population. Among all the possible solutions that can be adopted to mitigate this problem one of them is almost of mandatory adoption, which consists of rationalizing energy utilization, in a way that its wasteful usage is minimized and it can be leveraged during a longer period of time. One of the ways to achieve it is by means of the improvement of the power distribution grid, so that it will be able to react in a more efficient manner against common issues, such as energy demand peaks or inaccurate electricity consumption forecasts. However, in order to be able to implement this improvement it is necessary to use technologies from the ICT (Information and Communication Technologies) sphere that often present challenges in some key areas: advanced metering infrastructure integration, interoperability and interconnectivity of the devices, interfaces to offer the applications, security measures design, etc. All these challenges may imply slowing down the adoption of the smart grid as a system to prolong the lifespan and utilization of the available energy. A proposal for an intermediation architecture that will make possible solving these challenges is put forward in this Master Thesis. Besides, one implementation and the tests that have been carried out to know the performance of the presented concepts have been included as well, in a way that it can be proved that the challenges set out by the smart grid can be resolved. RESUMEN. Debido al incremento significativo de la población y su deseo natural de mejorar su nivel de vida, la utilización de la energía extraída de las materias primas mundiales, especialmente en forma de electricidad, ha aumentado de manera intensa durante las últimas décadas. Este hecho plantea un reto de solución complicada, el cual es cómo garantizar que se dispondrá de la energía suficiente como para satisfacer la demanda energética de la población mundial. De entre todas las soluciones posibles que se pueden adoptar para mitigar este problema una de ellas es de casi obligatoria adopción, la cual consiste en racionalizar la utilización de la energía, de tal forma que se minimice su malgasto y pueda aprovecharse durante más tiempo. Una de las maneras de conseguirlo es mediante la mejora de la red de distribución de electricidad para que ésta pueda reaccionar de manera más eficaz contra problemas comunes, tales como los picos de demanda de energía o previsiones imprecisas acerca del consumo de electricidad. Sin embargo, para poder implementar esta mejora es necesario utilizar tecnologías del ámbito de las TIC (Tecnologías de la Información y la Comunicación) que a menudo presentan problemas en algunas áreas clave: integración de infraestructura de medición avanzada, interoperabilidad e interconectividad de los dispositivos, interfaces que ofrecer a las aplicaciones, diseño de medidas de seguridad, etc. Todos estos retos pueden implicar una ralentización en la adopción de la red eléctrica inteligente como un sistema para alargar la vida y la utilización de la energía disponible. En este Trabajo Fin de Máster se sugiere una propuesta para una arquitectura de intermediación que posibilite la resolución de estos retos. Además, una implementación y las pruebas que se han llevado a cabo para conocer el rendimiento de los conceptos presentados también han sido incluidas, de tal forma que se demuestre que los retos que plantea la red eléctrica inteligente pueden ser solventados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los Pabellones de las Exposiciones Universales suelen considerarse dentro de las arquitecturas efímeras, pero habría que puntualizar que toda construcción tiene su tiempo y su periodo de extinción pudiendo ser éstos indefinidos, lo permanente en lo efímero. Muchas de las obras míticas del siglo XX existieron sólo durante unos meses, en escenarios efímeros, modificando el curso de la arquitectura con unas pocas imágenes, lo que llevaría a cuestionar si las circunstancias por las que no han sobrevivido o lo han hecho en circunstancias poco comunes, no se deben tanto a una condición efímera sino a su carácter experimental. Determinadas Exposiciones Universales fueron plataforma para que los pabellones, hitos con los que se ha construido una parte significativa de la Historia de la Arquitectura contemporánea, pasaran a convertirse en mitos, por su distancia en el tiempo, porque ya no existen y porque a veces de ellos sólo nos queda una anticuada y limitada imaginería. Las diversas Historias de la Arquitectura ponen de manifiesto la importancia de algunos pabellones y el papel que ejercieron, ejercen y ejercerán algunos de los construidos para determinadas Exposiciones Universales, pues son el testimonio de que se mantienen vivos, permaneciendo en el tiempo, desempeñando cada uno una función, bien de base para nuevos avances tecnológicos o constructivos, bien para experimentar nuevas formas de habitar, bien para educar, bien para encumbrar a sus autores hasta entonces apenas conocidos. Tanto los que se han mantenido en pie, como los que han sido trasladados y reconstruidos en un nuevo emplazamiento, o incluso los que siguieron su destino fatal y se convirtieron en arquitecturas ausentes, pero que por lo que supusieron de innovación y experimentación, todos han permanecido vivos en la arquitectura de hoy en día. Esta tesis estudia el conjunto de factores que contribuyeron a conferirles esa condición de hito, qué tipo de publicaciones hablan de ellos, en qué términos se tratan y en qué medida los relacionan con la producción de la época y/o de su autor, qué aspectos destacan, cuáles son los valores icónicos que se han ido estableciendo con el paso del tiempo…Qué es lo que permanece. Por otra parte, también aborda en qué medida su condición de construcción efímera, y gracias a su inherente necesidad de desaparecer físicamente, favoreciendo su ausencia en el recuerdo, lo que los ha dotado de representatividad. Esto podría resultar hoy en día algo contradictorio, dado el gran valor concedido a la imagen en la sociedad actual hasta el punto de convertirse en un componente esencial de la representatividad: la imagen sustituye al recuerdo pareciendo que lo que carezca de manifestación física en realidad no existiera, hasta llegar a hacerle perder toda capacidad de representación. Sin embargo, y considerando la imagen como elemento esencial de lo icónico, la reconstrucción de los pabellones una vez concluidas las exposiciones, en muchos casos no ha hecho más que potenciar su valor como arquitecturas efímeras, ya que desposeídos de su carácter temporal, los pabellones de las exposiciones pierden su razón de ser. El Pabellón de España de Corrales y Molezún para la EXPO Bruselas’58 es un claro ejemplo de ello, como se mostrará en el desarrollo de la tesis. En la tesis se exponen los distintos casos de los pabellones elegidos, rastreando, fundamentalmente en las publicaciones periódicas, el papel que en cada uno de ellos ejerció su destino final que, a pesar de no ser el objetivo o fin de la presente tesis, sí podría haber contribuido en algunos casos a dotarle de esa categoría de hito en la historia de la arquitectura. Se trata en definitiva de rastrear las vicisitudes que los han conducido a su condición de referentes arquitectónicos, de hitos de la Historia de la Arquitectura. El estudio se centra en Pabellones de las Exposiciones Universales de Bruselas’58, Montreal’67 y Osaka’70 por dos motivos fundamentales: el primero, su catalogación por el Bureau International des Expositions (BIE) como Exposiciones Universales de 1ª categoría; y el segundo, el período en el que se celebraron, período comprendido entre los años 1945 a 1970, años de profundos y determinantes cambios en la arquitectura y en los que tiene lugar el desarrollo y posterior revisión de la modernidad tras la 2ª Guerra Mundial. Se analiza la trayectoria bibliográfica de los pabellones más nombrados de estas tres Exposiciones Universales que son: de Bruselas ’58, el Pabellón de la República Federal de Alemania, de Egon Eiermann y Sep Ruf; el Pabellón Philips de Le Corbusier, y el Pabellón de España, de José Antonio Corrales y Ramón Molezún; de Montreal ’67, el Pabellón de la República Federal de Alemania, de Frei Otto, y el Pabellón de Estados Unidos, de Richard Buckminster Fuller; y de Osaka ’70, el Theme Pavilion, de Kenzo Tange, el Takara Beautilion, de Kisho Kurokawa, y el Pabellón del Grupo Fuji, de Yutaka Murata. Mediante el análisis se detecta que, ya en las revistas coetáneas a las exposiciones, estos pabellones se señalaban como edificios importantes para la historia de la arquitectura futura. Hecho que se constata con la aparición de los mismos en las historias, incluso en las más recientes, lo que demuestra su condición de hitos en la Historia de la Arquitectura ya consolidada. ABSTRACT Pavilions of the Universal Exhibitions are often considered as ephemeral architecture. However it is worth mentioning that every construction has its time and its extinction period and both of them could be indefinite/infinite, the permanent in the ephemeral. Many of the iconic works of the twentieth century lasted only for a few months, in ephemeral scenarios, changing the course of architecture but not with many images. This leads to question whether their survival under special circumstances or their extinction is mainly due to their experimental nature, and not so much to their ephemeral condition. Pavilions are at the basis of a significant part of the history of contemporary architecture. Specific Universal Exhibitions served as platforms for these landmarks to become myths, be it because of their endurance, or because they no longer exist, or even because in some cases we only have a limited and outdated imagery of them. The different Histories of Architecture highlight the importance of some pavilions and the influence they have had, have and will have some of those that were built for particular Universal Exhibitions. They are a live testimony, lasting over time, playing a specific role as basis for new technological or constructive breakthroughs; to experience new ways of living; or to educate or to raise the profile of their authors hitherto little known. Thanks to their experimental or innovative approach, some pavilions enduring overtime or that have been moved and rebuilt in a new location, or even those that followed their fate and became absent architectures, are still alive in today’s architecture. This thesis analyses the set of elements that contributed to confer the status of landmark to pavilions: what kind of publications speak of them; how they are referred to and the extent to which they are linked to their contemporary production time and / or to their author; what are elements that make them stand out; what are the iconic values that have been established as time goes by and what are those that are still valid…What is it that remains. It also assesses to what extend the condition of pavilion constructions is ephemeral. And finally, what confers them representativeness, giving their inherent need to physically disappear, favoring their absence in the memory. Today this may result somewhat contradictory as the high value of images in contemporary society has made them an essential component of representativeness. They replace remembrances to the point that it seems that what lacks physical manifestation doesn’t exist anymore, and therefore loses representation capacity. However, and considering images as an essential element of what is iconic, in most cases the reconstruction of pavilions upon completion of the exhibitions has leveraged their value as ephemeral architectures; although once deprived of their temporary character, they would lose their reason to exist. The Pavilion of Spain Corrales and Molezún for the Brusels'58 EXPO is a clear example of this, as described in the development of this document. This thesis explores the case of specific pavilions and assesses the role each one had in their final destination, by mainly tracking them in regular publications. Even though the latter is not the objective or the purpose of this thesis, the final destination of these pavilions may have contributed in some cases to grant them their landmark status in the history of architecture. Actually, this thesis is about tracking the events that have led to grant these pavilions their condition as architectural references, as landmark in the history of architecture. The study focuses on pavilions of the Universal Exhibition Brussels'58, Montreal'67 and Osaka'70 for two main reasons: first, their classification by the Bureau International des Expositions (BIE) and Universal Exhibitions 1st category; and second, the period in which they were held, from 1945 to 1970, a time of profound and decisive changes in the architecture and in the development and subsequent revision of modernity after the II World. It analyzes the bibliographic path of the most cited pavilions in the three Universal Exhibitions: in Brussels '58, the pavilion of the RFA by Egon Eiermann and Sep Rup, the pavilion of Philips by Le Corbusier and the Spain pavilion from José Antonio Corrales and Ramón Molezún; in Montreal '67 the pavilion of RFA by Frei Otto and the United States pavilion by Richard Buckminster Fuller; and in Osaka '70, the Theme Pavilion by Kenzo Tange, the Takara Beautilion by Kisho Kurokawa and the Fuji Group pavilion by Yutaka Murata. Through the analysis it is noticeable that in the contemporary publications to the exhibitions, these pavilions were already signaled out as relevant buildings to the future architecture history. The fact that they became part of the history themselves, even in the most recent times, is a prove of their condition as milestones of the consolidated History of Architecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No Brasil nasce uma criança com Síndrome de Down (SD) a cada 600 nascimentos, o que representa aproximadamente 8.000 bebês com SD por ano. As peculiaridades no desenvolvimento dessas crianças exigem que os pais desenvolvam habilidades especiais para contemplarem cada necessidade diferenciada da criança que poderia passar despercebida ou facilmente captada nas crianças sem nenhum tipo de Síndrome. A interação com os pais, agentes primordiais nesse processo, é essencial, inclusive, para minimizar os efeitos da Síndrome; porém pouco se tem estudado sobre a vivência dos cuidadores no encontro com a criança. Nesse contexto, objetivou-se compreender como se deu a construção do \"ser pai/mãe\" de uma criança com Síndrome de Down, desde o diagnóstico da Síndrome de Down até o momento da entrevista. Para tanto se utilizou o método clínico-qualitativo, através do estudo de caso coletivo. Como referencial teórico para análise a psicanálise winnicottiana. Realizou-se entrevistas semiabertas, individuais, face a face, com 5 casais de pais de crianças com Síndrome de Down, com idade de 7 a 10 anos. As entrevistas foram audiogravadas e transcritas na íntegra. Os resultados foram apresentados através de quatro categorias, a saber: \"Amor a segunda vista\" aborda o processo interativo inicial, os pais relatam o choque ao receber a notícia da Síndrome e os desafios na readaptação dos sonhos e expectativas. \"O ambiente lugar e não lugar\" descreve como os pais perceberam os diversos ambientes, alguns hostis que não contribuíram para que os mesmos pudessem ser acolhidos e potencializados na tarefa de cuidar desse filho, ressaltando que a ausência de suporte acarreta em sobrecarga na percepção dos pais; Por outro lado, consideram que o maior suporte que tiveram foi do parceiro, o que auxiliou na aceitação da notícia e em encontrar possibilidades de cuidado. \"Encontro Suficientemente Bom\" coloca em relevo a descrição dos participantes de que há maneiras diferentes de ajustar o cuidado na interação com seus filhos que perpassaram tanto por incômodos, quanto pela possibilidade do gesto criativo que se apresenta em atividades triviais e importantes do desenvolvimento. \"Trans-formações\" destaca às mudanças que os pais vivenciam ao poder se aproximar do filho \"real\", assumindo novos papéis, transformando-se através da abertura ao novo do outro e de si mesmos. A partir desse estudo pôde-se compreender que a relação vai se constituindo e se regulando reciprocamente, os cuidados precisam ser ajustados à demanda e possibilidade do outro. Compreendeu-se, ainda, que criatividade é a característica que permite que os pais sejam espontâneoss e recontruam significados e modos de interagir pessoais com seus filhos. Os pais entrevistados indicam que quanto mais lento e exigente o cuidado com seus filhos com Síndrome de Down, mais possibilidades de encontros surgem, e quando esses podem ser suficientemente bons, são \"trans-formadores\" para ambos: pais e filho. Ampliou-se a compreensão quanto a necessidade de acolhimento às angústias vividas, e suporte para o processo da construção da parentalidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As imagens de alta resolução espacial impulsionaram os estudos de Sensoriamento Remoto em ambientes urbanos, já que elas permitem uma melhor distinção dos elementos que compõem esse ambiente tão heterogêneo. Técnicas de Geoestatística são cada vez mais utilizadas em estudos de Sensoriamento Remoto e o variograma é uma importante ferramenta de análise geoestatística, pois permitem entender o comportamento espacial de uma variável regionalizada, neste caso, os níveis de cinza de uma imagem de satélite. O presente trabalho pretende avaliar a proposta metodológica que consiste em identificar padrões residenciais urbanos de três classes de uso e ocupação do solo por meio da análise dos valores apresentados pelos parâmetros, alcance, patamar e efeito pepita de um variograma. A hipótese é que os valores correspondentes a esses parâmetros representem o comportamento espectral padrão de cada classe e, portando, indicam que há um padrão na organização espacial de cada uma das classes. Para a presente pesquisa foram utilizadas imagem IKONOS 2002, e a classificação de uso e ocupação do solo da sub-bacia do córrego Bananal na bacia do Rio Cabuçu de Baixo em São Paulo SP. Amostras das imagens de cada classe foram extraídas e os valores de nível de cinza em cada pixel foram utilizados para calcular os variogramas. Após análise dos resultados obtidos, apenas o parâmetro alcance foi levado em consideração, pois é através desse parâmetro que se observa o grau de homogeneidade de cada amostra. Os valores de alcance obtidos nos cálculos dos variogramas identificaram com melhor precisão a classe Conjuntos Residenciais que é uma classe com padrões e características singulares, já a identificação das classes Ocupação Densa Regular e Ocupação Densa Irregular não obteve uma precisão boa, sendo que essas classes são similares em diversos aspectos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In today's internet world, web browsers are an integral part of our day-to-day activities. Therefore, web browser security is a serious concern for all of us. Browsers can be breached in different ways. Because of the over privileged access, extensions are responsible for many security issues. Browser vendors try to keep safe extensions in their official extension galleries. However, their security control measures are not always effective and adequate. The distribution of unsafe extensions through different social engineering techniques is also a very common practice. Therefore, before installation, users should thoroughly analyze the security of browser extensions. Extensions are not only available for desktop browsers, but many mobile browsers, for example, Firefox for Android and UC browser for Android, are also furnished with extension features. Mobile devices have various resource constraints in terms of computational capabilities, power, network bandwidth, etc. Hence, conventional extension security analysis techniques cannot be efficiently used by end users to examine mobile browser extension security issues. To overcome the inadequacies of the existing approaches, we propose CLOUBEX, a CLOUd-based security analysis framework for both desktop and mobile Browser EXtensions. This framework uses a client-server architecture model. In this framework, compute-intensive security analysis tasks are generally executed in a high-speed computing server hosted in a cloud environment. CLOUBEX is also enriched with a number of essential features, such as client-side analysis, requirements-driven analysis, high performance, and dynamic decision making. At present, the Firefox extension ecosystem is most susceptible to different security attacks. Hence, the framework is implemented for the security analysis of the Firefox desktop and Firefox for Android mobile browser extensions. A static taint analysis is used to identify malicious information flows in the Firefox extensions. In CLOUBEX, there are three analysis modes. A dynamic decision making algorithm assists us to select the best option based on some important parameters, such as the processing speed of a client device and network connection speed. Using the best analysis mode, performance and power consumption are improved significantly. In the future, this framework can be leveraged for the security analysis of other desktop and mobile browser extensions, too.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In many eurozone countries, domestic banks often hold more than 20% of domestic public debt, which is an unsatisfactory situation given that banks are highly leveraged and that sovereign debt is inherently subject to default risk within the euro area. This paper by Daniel Gros finds, however, that the relative concentration of public debt on bank balance sheets is not just a result of the euro crisis, for there are strong additional incentives for banks in some countries to increase their sovereign. His contribution discusses a number of these regulatory incentives – the most important of which is specific to the euro area – and explores ways in which euro area banks can be weaned from massive investments in government bonds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comprendre ce qui amène un leader à émettre des comportements de leadership transformationnel fascine les chercheurs et praticiens depuis plusieurs années (Bommer, Rubin, & Baldwin, 2004; Bono & Judge, 2004; Shamir & Howell, 1999 ; Stogdill, 1948; Yukl, 1999). Or, jusqu’à présent, ces facteurs sont encore bien peu étudiés et compris comparativement aux conséquences de ce style de leadership. Dans cette lignée, la présente thèse répond à différents enjeux soulevés par les auteurs à ce sujet (Dinh & Lord, 2012; Zaccaro, 2007) en cherchant à préciser le rôle joué par différents antécédents individuels et contextuels du leadership transformationnel. Cet objectif sera poursuivi par l’adoption d’une perspective interactionniste qui intègre des antécédents de personnalité et de contexte ainsi par l’évaluation de la personnalité à l’aide d’une modélisation de la personnalité orientée vers le critère à prédire (variable composite). La présente thèse est composée de trois articles poursuivant les objectifs suivant : 1) Effectuer une synthèse de la littérature empirique portant sur les antécédents individuels et contextuels du leadership transformationnel; 2) Vérifier les liens empiriques entre la personnalité mesurée à l’aide de variables composites, plus précisément le modèle des Great Eight de Bartram (2005), et le leadership transformationnel; 3) Tester empiriquement l’effet d’interaction entre les variables de personnalité et les variables contextuelles pour prédire le leadership transformationnel. Le premier article vise d’abord à circonscrire et organiser les connaissances empiriques actuelles provenant d’une quarantaine d’articles concernant les antécédents du leadership transformationnel. L’article s’organise en trois thèmes principaux : les antécédents individuels de personnalité, les antécédents contextuels et l’étude des interactions entre le volet individuel et contextuel. Plusieurs constats et pistes de recherches sont discutés et mettent la table pour les deux articles subséquents. Ainsi, le second article s’intéresse au potentiel explicatif d’un modèle de personnalité orienté vers le critère pour prédire le leadership. Plus spécifiquement, le modèle des Great Eight proposé par Bartram (2005) est mis en relation avec les comportements de leadership transformationnel et de récompense contingente. Les résultats, obtenus auprès de 113 gestionnaires et de leurs 799 subordonnés, donnent peu d’appui à la valeur ajoutée du modèle utilisé, mais indiquent que certaines tendances de personnalité sont associées au leadership. Des analyses supplémentaires permettent de nuancer la compréhension des effets observés dans la documentation scientifique et offrent quelques pistes de groupements de traits pouvant prédire les différents comportements de leadership. Le troisième article s’inspire de la théorie de l’activation des traits (Tett & Burnett, 2003) pour vérifier l’effet combiné de la personnalité du gestionnaire et du contexte dans lequel il évolue en vue de prédire le leadership transformationnel. Les résultats (ngestionnaires = 89; nsubordonnés = 643) n’offrent qu’un appui modéré au rationnel sous-jacent du modèle de l’activation des traits. Toutefois, il en ressort que l’aspect relationnel du gestionnaire (opérationnalisé par le composite de personnalité « soutien et coopération ») est associé à l’émergence du leadership transformationnel uniquement lorsque les facteurs contextuels (considération organisationnelle, latitude décisionnelle) sont perçus positivement par le gestionnaire. L’étude permet donc d’éclaircir une part de la variabilité observée dans les études antérieures concernant la tendance relationnelle du gestionnaire, en soulignant sa sensibilité à des facteurs contextuels positifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Before the ECB takes over responsibility for overseeing Europe’s largest banks, as foreseen in the establishment of a eurozone banking union, it plans to conduct an Asset Quality Review (AQR) throughout the coming year, which will identify the capital shortfalls of these banks. This study finds that a comprehensive and decisive AQR will most likely reveal a substantial lack of capital in many peripheral and core European banks. The authors provide estimates of the capital shortfalls of banks that will be stress-tested under the AQR using publicly available data and a series of shortfall measures. Their analysis identifies which banks will most likely need capital, where a public back stop is likely to be needed and, since many countries are already highly leveraged, where an EU-wide backstop might be necessary.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Comprehensive Assessment conducted by the European Central Bank (ECB) represents a considerable step forward in enhancing transparency in euro-area banks’ balance sheets. The most notable progress since the previous European stress test has been the harmonisation of the definition of non-performing loans and other concepts as well as uncovering hidden losses, which resulted in a €34 billion aggregate capital-charge net of taxes. Despite this tightening, most banks were able to meet the 5.5% common equity tier 1 (CET1) threshold applied in the test, which suggests that the large majority of the euro-area banks have improved their financial position sufficiently that they should no longer be constrained in financing the economy. As shown in this CEPS Policy Brief by Willem Pieter de Groen, however, the detailed results provide a more nuanced picture: there remain a large number of the banks in the euro area that are still highly leveraged and in many cases unable to meet the regulatory capital requirements that will be introduced in the coming years under the adverse stress test scenario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper describes the aggregate rural capital markets of the EU and the main differences between the markets of its member countries. The results of our study suggest that the agricultural credit markets are still quite segmented and the segments are country- rather than currency- or region specific. Financial instability in Europe is also penetrating the agricultural sector and the variation of interest rates for agricultural credit is increasing across countries. Perhaps the most dramatic signal of growing financial instability is that the financial leverage (gearing rate) of European farms rose in 2008 by almost 4 percentage points, from 14 to 18%. The 4 percentage-point annual rise was twice the 2 percentage-point rise observed during the economic recession in the late 1980s and early 1990s. The distribution of the financial leverage of agriculture across countries does not, however, reflect the distribution of country-specific risk premiums in the manner that they are observed in government bond yields. Therefore, in those countries that have the weakest financial situation in the public sector and in which the bond markets are encumbered with high country-specific risk premiums, the agricultural sector is not directly exposed to a very large risk of increasing interest rates, since it is not so highly leveraged. For example in Greek and Spanish agriculture, the financial leverage (gearing) rate is only 0.6% and 2.2% respectively, while the highest gearing rates are found elsewhere (in Denmark), reaching 50%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet traffic classification is a relevant and mature research field, anyway of growing importance and with still open technical challenges, also due to the pervasive presence of Internet-connected devices into everyday life. We claim the need for innovative traffic classification solutions capable of being lightweight, of adopting a domain-based approach, of not only concentrating on application-level protocol categorization but also classifying Internet traffic by subject. To this purpose, this paper originally proposes a classification solution that leverages domain name information extracted from IPFIX summaries, DNS logs, and DHCP leases, with the possibility to be applied to any kind of traffic. Our proposed solution is based on an extension of Word2vec unsupervised learning techniques running on a specialized Apache Spark cluster. In particular, learning techniques are leveraged to generate word-embeddings from a mixed dataset composed by domain names and natural language corpuses in a lightweight way and with general applicability. The paper also reports lessons learnt from our implementation and deployment experience that demonstrates that our solution can process 5500 IPFIX summaries per second on an Apache Spark cluster with 1 slave instance in Amazon EC2 at a cost of $ 3860 year. Reported experimental results about Precision, Recall, F-Measure, Accuracy, and Cohen's Kappa show the feasibility and effectiveness of the proposal. The experiments prove that words contained in domain names do have a relation with the kind of traffic directed towards them, therefore using specifically trained word embeddings we are able to classify them in customizable categories. We also show that training word embeddings on larger natural language corpuses leads improvements in terms of precision up to 180%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comprendre ce qui amène un leader à émettre des comportements de leadership transformationnel fascine les chercheurs et praticiens depuis plusieurs années (Bommer, Rubin, & Baldwin, 2004; Bono & Judge, 2004; Shamir & Howell, 1999 ; Stogdill, 1948; Yukl, 1999). Or, jusqu’à présent, ces facteurs sont encore bien peu étudiés et compris comparativement aux conséquences de ce style de leadership. Dans cette lignée, la présente thèse répond à différents enjeux soulevés par les auteurs à ce sujet (Dinh & Lord, 2012; Zaccaro, 2007) en cherchant à préciser le rôle joué par différents antécédents individuels et contextuels du leadership transformationnel. Cet objectif sera poursuivi par l’adoption d’une perspective interactionniste qui intègre des antécédents de personnalité et de contexte ainsi par l’évaluation de la personnalité à l’aide d’une modélisation de la personnalité orientée vers le critère à prédire (variable composite). La présente thèse est composée de trois articles poursuivant les objectifs suivant : 1) Effectuer une synthèse de la littérature empirique portant sur les antécédents individuels et contextuels du leadership transformationnel; 2) Vérifier les liens empiriques entre la personnalité mesurée à l’aide de variables composites, plus précisément le modèle des Great Eight de Bartram (2005), et le leadership transformationnel; 3) Tester empiriquement l’effet d’interaction entre les variables de personnalité et les variables contextuelles pour prédire le leadership transformationnel. Le premier article vise d’abord à circonscrire et organiser les connaissances empiriques actuelles provenant d’une quarantaine d’articles concernant les antécédents du leadership transformationnel. L’article s’organise en trois thèmes principaux : les antécédents individuels de personnalité, les antécédents contextuels et l’étude des interactions entre le volet individuel et contextuel. Plusieurs constats et pistes de recherches sont discutés et mettent la table pour les deux articles subséquents. Ainsi, le second article s’intéresse au potentiel explicatif d’un modèle de personnalité orienté vers le critère pour prédire le leadership. Plus spécifiquement, le modèle des Great Eight proposé par Bartram (2005) est mis en relation avec les comportements de leadership transformationnel et de récompense contingente. Les résultats, obtenus auprès de 113 gestionnaires et de leurs 799 subordonnés, donnent peu d’appui à la valeur ajoutée du modèle utilisé, mais indiquent que certaines tendances de personnalité sont associées au leadership. Des analyses supplémentaires permettent de nuancer la compréhension des effets observés dans la documentation scientifique et offrent quelques pistes de groupements de traits pouvant prédire les différents comportements de leadership. Le troisième article s’inspire de la théorie de l’activation des traits (Tett & Burnett, 2003) pour vérifier l’effet combiné de la personnalité du gestionnaire et du contexte dans lequel il évolue en vue de prédire le leadership transformationnel. Les résultats (ngestionnaires = 89; nsubordonnés = 643) n’offrent qu’un appui modéré au rationnel sous-jacent du modèle de l’activation des traits. Toutefois, il en ressort que l’aspect relationnel du gestionnaire (opérationnalisé par le composite de personnalité « soutien et coopération ») est associé à l’émergence du leadership transformationnel uniquement lorsque les facteurs contextuels (considération organisationnelle, latitude décisionnelle) sont perçus positivement par le gestionnaire. L’étude permet donc d’éclaircir une part de la variabilité observée dans les études antérieures concernant la tendance relationnelle du gestionnaire, en soulignant sa sensibilité à des facteurs contextuels positifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis (Ph.D.)--University of Washington, 2016-06

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis (Ph.D.)--University of Washington, 2016-06