908 resultados para information flow
Resumo:
This research was designed to answer the question of which direction the restructuring of financial regulators should take – consolidation or fragmentation. This research began by examining the need for financial regulation and its related costs. It then continued to describe what types of regulatory structures exist in the world; surveying the regulatory structures in 15 jurisdictions, comparing them and discussing their strengths and weaknesses. This research analyzed the possible regulatory structures using three methodological tools: Game-Theory, Institutional-Design, and Network-Effects. The incentives for regulatory action were examined in Chapter Four using game theory concepts. This chapter predicted how two regulators with overlapping supervisory mandates will behave in two different states of the world (where they can stand to benefit from regulating and where they stand to lose). The insights derived from the games described in this chapter were then used to analyze the different supervisory models that exist in the world. The problem of information-flow was discussed in Chapter Five using tools from institutional design. The idea is based on the need for the right kind of information to reach the hands of the decision maker in the shortest time possible in order to predict, mitigate or stop a financial crisis from occurring. Network effects and congestion in the context of financial regulation were discussed in Chapter Six which applied the literature referring to network effects in general in an attempt to conclude whether consolidating financial regulatory standards on a global level might also yield other positive network effects. Returning to the main research question, this research concluded that in general the fragmented model should be preferable to the consolidated model in most cases as it allows for greater diversity and information-flow. However, in cases in which close cooperation between two authorities is essential, the consolidated model should be used.
Resumo:
BACKGROUND: A precise, non-invasive, non-toxic, repeatable, convenient and inexpensive follow-up of renal transplants, especially following biopsies, is in the interest of nephrologists. Formerly, the rate of biopsies leading to AV fistulas had been underestimated. Imaging procedures suited to a detailed judgement of these vascular malformations are to be assessed. METHODS: Three-dimensional (3D) reconstruction techniques of ultrasound flow-directed and non-flow-directed energy mode pictures were compared with a standard procedure, gadolinium-enhanced nuclear magnetic resonance imaging angiography (MRA) using the phase contrast technique. RESULTS: Using B-mode and conventional duplex information, AV fistulas were localized in the upper pole of the kidney transplant of the index patient. The 3D reconstruction provided information about the exact localization and orientation of the fistula in relation to other vascular structures, and the flow along the fistula. The MRA provided localization and orientation information, but less functional information. Flow-directed and non-flow-directed energy mode pictures could be reconstructed to provide 3D information about vascular malformations in transplanted kidneys. CONCLUSION: In transplanted kidneys, 3D-ultrasound angiography may be equally as effective as MRA in localizing and identifying AV malformations. Advantages of the ultrasound method are that it is cheaper, non-toxic, non-invasive, more widely availability and that it even provides more functional information. Future prospective studies will be necessary to evaluate the two techniques further.
Resumo:
Der Kommissionierprozess stellt im Rahmen der innerbetrieblichen Logistik - gerade auch im Hinblick auf Just-In-Time-Lieferungen und Fragen der Produkthaftung - einen zentralen Baustein des Material- und Informationsflusses in Unternehmen dar. Dabei ist die Wahl des Kommissioniersystems ausschlaggebend für die Optimierung der personal- und zeitaufwendigen Kommissioniervorgänge und dient damit zur Leistungssteigerung unter gleichzeitiger Reduzierung der Fehlerquote.
Resumo:
Zur Optimierung innerbetrieblicher Logistikprozesse ist eine ganzheitliche Prozessdarstellung unter Berücksichtigung von Material-, Informationsfluss und der eingesetzten Ressourcen erforderlich. In diesem Aufsatz werden verschiedene, häufig verwendete Methoden zur Prozessdarstellung diesbezüglich miteinander verglichen und bewertet. Die verschiedenen Stärken und Schwächen werden in Form eines Benchmarks zusammengefasst, das als Grundlage für eine neue Methode dient, die im Rahmen des IGF-Forschungsprojekts 16187 N/1 erarbeitet wurde.
Resumo:
An understanding of interruptions in healthcare is important for the design, implementation, and evaluation of health information systems and for the management of clinical workflow and medical errors. The purpose of this study is to identify and classify the types of interruptions experienced by Emergency Department(ED) nurses working in a Level One Trauma Center. This was an observational field study of Registered Nurses (RNs) employed in a Level One Trauma Center using the shadowing method. Results of the study indicate that nurses were both recipients and initiators of interruptions. Telephones, pagers, and face-to-face conversations were the most common sources of interruptions. Unlike other industries, the healthcare community has not systematically studied interruptions in clinical settings to determine and weigh the necessity of the interruption against their sometimes negative results such as medical errors, decreased efficiency, and increased costs. Our study presented here is an initial step to understand the nature, causes, and effects of interruptions, thereby improving both the quality of healthcare and patient safety. We developed an ethnographic data collection technique and a data coding method for the capturing and analysis of interruptions. The interruption data we collected are systematic, comprehensive, and close to exhaustive. They confirmed the findings from earlier studies by other researchers that interruptions are frequent events in critical care and other healthcare settings. We are currently using these data to analyze the workflow dynamics of ED clinicians, to identify the bottlenecks of information flow, and to develop interventions to improve the efficiency of emergency care through the management of interruptions.
Resumo:
An understanding of interruptions in healthcare is important for the design, implementation, and evaluation of health information systems and for the management of clinical workflow and medical errors. The purpose of this study is to identify and classify the types of interruptions experienced by ED nurses working in a Level One Trauma Center. This was an observational field study of Registered Nurses employed in a Level One Trauma Center using the shadowing method. Results of the study indicate that nurses were both recipients and initiators of interruptions. Telephone, pagers, and face-to-face conversations were the most common sources of interruptions. Unlike other industries, the outcomes caused by interruptions resulting in medical errors, decreased efficiency and increased cost have not been systematically studied in healthcare. Our study presented here is an initial step to understand the nature, causes, and effects of interruptions, and to develop interventions to manage interruptions to improve healthcare quality and patient safety. We developed an ethnographic data collection technique and a data coding method for the capturing and analysis of interruptions. The interruption data we collected are systematic, comprehensive, and close to exhaustive. They confirmed the findings from early studies by other researchers that interruptions are frequent events in critical care and other healthcare settings. We are currently using these data to analyze the workflow dynamics of ED clinicians, identify the bottlenecks of information flow, and develop interventions to improve the efficiency of emergency care through the management of interruptions.
Resumo:
Quantitative EEG (qEEG) has modified our understanding of epileptic seizures, shifting our view from the traditionally accepted hyper-synchrony paradigm toward more complex models based on re-organization of functional networks. However, qEEG measurements are so far rarely considered during the clinical decision-making process. To better understand the dynamics of intracranial EEG signals, we examine a functional network derived from the quantification of information flow between intracranial EEG signals. Using transfer entropy, we analyzed 198 seizures from 27 patients undergoing pre-surgical evaluation for pharmaco-resistant epilepsy. During each seizure we considered for each network the in-, out- and total "hubs", defined respectively as the time and the EEG channels with the maximal incoming, outgoing or total (bidirectional) information flow. In the majority of cases we found that the hubs occur around the middle of seizures, and interestingly not at the beginning or end, where the most dramatic EEG signal changes are found by visual inspection. For the patients who then underwent surgery, good postoperative clinical outcome was on average associated with a higher percentage of out- or total-hubs located in the resected area (for out-hubs p = 0.01, for total-hubs p = 0.04). The location of in-hubs showed no clear predictive value. We conclude that the study of functional networks based on qEEG measurements may help to identify brain areas that are critical for seizure generation and are thus potential targets for focused therapeutic interventions.
Resumo:
onceptual design phase is partially supported by product lifecycle management/computer-aided design (PLM/CAD) systems causing discontinuity of the design information flow: customer needs — functional requirements — key characteristics — design parameters (DPs) — geometric DPs. Aiming to address this issue, it is proposed a knowledge-based approach is proposed to integrate quality function deployment, failure mode and effects analysis, and axiomatic design into a commercial PLM/CAD system. A case study, main subject of this article, was carried out to validate the proposed process, to evaluate, by a pilot development, how the commercial PLM/CAD modules and application programming interface could support the information flow, and based on the pilot scheme results to propose a full development framework.
Resumo:
Today?s knowledge management (KM) systems seldom account for language management and, especially, multilingual information processing. Document management is one of the strongest components of KM systems. If these systems do not include a multilingual knowledge management policy, intranet searches, excessive document space occupancy and redundant information slow down what are the most effective processes in a single language environment. In this paper, we model information flow from the sources of knowledge to the persons/systems searching for specific information. Within this framework, we focus on the importance of multilingual information processing, which is a hugely complex component of modern organizations.
Resumo:
La seguridad verificada es una metodología para demostrar propiedades de seguridad de los sistemas informáticos que se destaca por las altas garantías de corrección que provee. Los sistemas informáticos se modelan como programas probabilísticos y para probar que verifican una determinada propiedad de seguridad se utilizan técnicas rigurosas basadas en modelos matemáticos de los programas. En particular, la seguridad verificada promueve el uso de demostradores de teoremas interactivos o automáticos para construir demostraciones completamente formales cuya corrección es certificada mecánicamente (por ordenador). La seguridad verificada demostró ser una técnica muy efectiva para razonar sobre diversas nociones de seguridad en el área de criptografía. Sin embargo, no ha podido cubrir un importante conjunto de nociones de seguridad “aproximada”. La característica distintiva de estas nociones de seguridad es que se expresan como una condición de “similitud” entre las distribuciones de salida de dos programas probabilísticos y esta similitud se cuantifica usando alguna noción de distancia entre distribuciones de probabilidad. Este conjunto incluye destacadas nociones de seguridad de diversas áreas como la minería de datos privados, el análisis de flujo de información y la criptografía. Ejemplos representativos de estas nociones de seguridad son la indiferenciabilidad, que permite reemplazar un componente idealizado de un sistema por una implementación concreta (sin alterar significativamente sus propiedades de seguridad), o la privacidad diferencial, una noción de privacidad que ha recibido mucha atención en los últimos años y tiene como objetivo evitar la publicación datos confidenciales en la minería de datos. La falta de técnicas rigurosas que permitan verificar formalmente este tipo de propiedades constituye un notable problema abierto que tiene que ser abordado. En esta tesis introducimos varias lógicas de programa quantitativas para razonar sobre esta clase de propiedades de seguridad. Nuestra principal contribución teórica es una versión quantitativa de una lógica de Hoare relacional para programas probabilísticos. Las pruebas de correción de estas lógicas son completamente formalizadas en el asistente de pruebas Coq. Desarrollamos, además, una herramienta para razonar sobre propiedades de programas a través de estas lógicas extendiendo CertiCrypt, un framework para verificar pruebas de criptografía en Coq. Confirmamos la efectividad y aplicabilidad de nuestra metodología construyendo pruebas certificadas por ordendor de varios sistemas cuyo análisis estaba fuera del alcance de la seguridad verificada. Esto incluye, entre otros, una meta-construcción para diseñar funciones de hash “seguras” sobre curvas elípticas y algoritmos diferencialmente privados para varios problemas de optimización combinatoria de la literatura reciente. ABSTRACT The verified security methodology is an emerging approach to build high assurance proofs about security properties of computer systems. Computer systems are modeled as probabilistic programs and one relies on rigorous program semantics techniques to prove that they comply with a given security goal. In particular, it advocates the use of interactive theorem provers or automated provers to build fully formal machine-checked versions of these security proofs. The verified security methodology has proved successful in modeling and reasoning about several standard security notions in the area of cryptography. However, it has fallen short of covering an important class of approximate, quantitative security notions. The distinguishing characteristic of this class of security notions is that they are stated as a “similarity” condition between the output distributions of two probabilistic programs, and this similarity is quantified using some notion of distance between probability distributions. This class comprises prominent security notions from multiple areas such as private data analysis, information flow analysis and cryptography. These include, for instance, indifferentiability, which enables securely replacing an idealized component of system with a concrete implementation, and differential privacy, a notion of privacy-preserving data mining that has received a great deal of attention in the last few years. The lack of rigorous techniques for verifying these properties is thus an important problem that needs to be addressed. In this dissertation we introduce several quantitative program logics to reason about this class of security notions. Our main theoretical contribution is, in particular, a quantitative variant of a full-fledged relational Hoare logic for probabilistic programs. The soundness of these logics is fully formalized in the Coq proof-assistant and tool support is also available through an extension of CertiCrypt, a framework to verify cryptographic proofs in Coq. We validate the applicability of our approach by building fully machine-checked proofs for several systems that were out of the reach of the verified security methodology. These comprise, among others, a construction to build “safe” hash functions into elliptic curves and differentially private algorithms for several combinatorial optimization problems from the recent literature.
Resumo:
Among the main features that are intended to become part of what can be expected from the Smart City, one of them should be an improved energy management system, in order to benefit from a healthier relation with the environment, minimize energy expenses, and offer dynamic market opportunities. A Smart Grid seems like a very suitable infrastructure for this objective, as it guarantees a two-way information flow that will provide the means for energy management enhancement. However, to obtain all the required information, another entity must care about all the devices required to gather the data. What is more, this entity must consider the lifespan of the devices within the Smart Grid—when they are turned on and off or when new appliances are added—along with the services that devices are able to provide. This paper puts forward SMArc—an acronym for semantic middleware architecture—as a middleware proposal for the Smart Grid, so as to process the collected data and use it to insulate applications from the complexity of the metering facilities and guarantee that any change that may happen at these lower levels will be updated for future actions in the system.
Resumo:
Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.
Resumo:
El sector de la edificación es uno de los principales sectores económicos en España y, además, es un componente básico de la actividad económica y social, debido a su importante papel como generador de empleo, proveedor de bienes e incentivador del crecimiento. Curiosamente, es uno de los sectores con menos regulación y organización y que, además, está formado mayoritariamente por empresas de pequeña y mediana dimensión (pymes) que, por su menor capacidad, a menudo, se quedan detrás de las grandes empresas en términos de adopción de soluciones innovadoras. La complejidad en la gestión de toda la información relacionada con un proyecto de edificación ha puesto de manifiesto claras ineficiencias que se traducen en un gasto innecesario bastante representativo. La información y los conocimientos aprendidos rara vez son transmitidos de una fase a otra dentro del proyecto de edificación y, mucho menos, reutilizados en otros proyectos similares. De este modo, no sólo se produce un gasto innecesario, sino que incluso podemos encontrar información contradictoria y obsoleta y, por tanto, inútil para la toma de decisiones. A lo largo de los años, esta situación ha sido motivada por la propia configuración del sector, poniendo de manifiesto la necesidad de una solución que pudiera solventar este reto de gestión interorganizacional. Así, la cooperación interorganizacional se ha convertido en un factor clave para mejorar la competitividad de las organizaciones, típicamente pymes, que componen el sector de la edificación. La información es la piedra angular de cualquier proceso de negocio. Durante la última década, una amplia gama de industrias han experimentado importantes mejoras de productividad con la aplicación eficiente de las TIC, asociadas, principalmente, a incrementos en la velocidad de proceso de información y una mayor coherencia en la generación de datos, accesibilidad e intercambio de información. La aplicación eficaz de las TIC en el sector de la edificación requiere una combinación de aspectos estratégicos y tácticos, puesto que no sólo se trata de utilizar soluciones puntuales importadas de otros sectores para su aplicación en diferentes áreas, sino que se buscaría que la información multi-agente estuviera integrada y sea coherente para los proyectos de edificación. El sector de la construcción ha experimentado un descenso significativo en los últimos años en España y en Europa como resultado de la crisis financiera que comenzó en 2007. Esta disminución está acompañada de una baja penetración de las TIC en la interorganizacionales orientadas a los procesos de negocio. El descenso del mercado ha provocado una desaceleración en el sector de la construcción, donde sólo las pymes flexibles han sido capaces de mantener el ritmo a pesar de la especialización y la innovación en los servicios adaptados a las nuevas demandas del mercado. La industria de la edificación está muy fragmentada en comparación con otras industrias manufactureras. El alto grado de esta fragmentación está íntimamente relacionado con un impacto significativo en la productividad y el rendimiento. Muchos estudios de investigación han desarrollado y propuesto una serie de modelos de procesos integrados. Por desgracia, en la actualidad todavía no se está en condiciones para la formalización de cómo debe ser la comunicación y el intercambio de información durante el proceso de construcción. El paso del proceso secuencial tradicional a los procesos de interdependencia recíproca sin lugar a duda son una gran demanda asociada a la comunicación y el flujo de información en un proyecto de edificación. Recientemente se está poniendo mucho énfasis en los servicios para el hogar como un primer paso hacia esta mejora en innovación ya que la industria de los servicios digitales interactivos tiene un alto potencial para generar innovación y la ventaja estratégica para las empresas existentes. La multiplicidad de servicios para el hogar digital (HD) y los proveedores de servicios demandan, cada vez más, la aparición de una plataforma capaz de coordinar a todos los agentes del sector con el usuario final. En consecuencia, las estructuras organizacionales tienden a descentralizarse en busca de esa coordinación y, como respuesta a esta demanda, se plantea, también en este ámbito, el concepto de cooperación interorganizacional. Por lo tanto, ambos procesos de negocio -el asociado a la construcción y el asociado a la provisión de servicios del hogar digital, también considerado como la propia gestión de ese hogar digital o edificio, inteligente o no- deben de ser vistos en su conjunto mediante una plataforma tecnológica que les dé soporte y que pueda garantizar la agregación e integración de los diversos procesos, relacionados con la construcción y gestión, que se suceden durante el ciclo de vida de un edificio. Sobre esta idea y atendiendo a la evolución permanente de los sistemas de información en un entorno de interrelación y cooperación daría lugar a una aplicación del concepto de sistema de información interorganizacional (SIIO). El SIIO proporciona a las organizaciones la capacidad para mejorar los vínculos entre los socios comerciales a lo largo de la cadena de suministro, por lo que su importancia ha sido reconocida por organizaciones de diversos sectores. Sin embargo, la adopción de un SIIO en diferentes ámbitos ha demostrado ser complicada y con una alta dependencia de las características particulares de cada sector, siendo, en este momento, una línea de investigación abierta. Para contribuir a esta línea de investigación, este trabajo pretende recoger, partiendo de una revisión de la literatura relacionada, un enfoque en un modelo de adopción de un SIIO para el objeto concreto de esta investigación. El diseño de un SIIO está basado principalmente, en la identificación de las necesidades de información de cada uno de sus agentes participantes, de ahí la importancia en concretar un modelo de SIIO en el ámbito de este trabajo. Esta tesis doctoral presenta el modelo de plataforma virtual de la asociación entre diferentes agentes del sector de la edificación, el marco de las relaciones, los flujos de información correspondientes a diferentes procesos y la metodología que subyace tras el propio modelo, todo ello, con el objeto de contribuir a un modelo unificado que dé soporte tanto a los procesos relacionados con la construcción como con la gestión de servicios en el hogar digital y permitiendo cubrir los requisitos importantes que caracterizan este tipo de proyectos: flexibilidad, escalabilidad y robustez. El SIIO se ha convertido en una fuente de innovación y una herramienta estratégica que permite a las pymes obtener ventajas competitivas. Debido a la complejidad inherente de la adopción de un SIIO, esta investigación extiende el modelo teórico de adopción de un SIIO de Kurnia y Johnston (2000) con un modelo empírico para la caracterización de un SIIO. El modelo resultante tiene como objetivo fomentar la innovación de servicios en el sector mediante la identificación de los factores que influyen en la adopción de un SIIO por las pymes en el sector de la edificación como fuente de ventaja competitiva y de colaboración. Por tanto, esta tesis doctoral, proyectada sobre una investigación empírica, proporciona un enfoque para caracterizar un modelo de SIIO que permita dar soporte a la gestión integrada de los procesos de construcción y gestión de servicios para el hogar digital. La validez del modelo de SIIO propuesto, como fuente y soporte de ventajas competitivas, está íntimamente relacionada con la necesidad de intercambio de información rápido y fiable que demandan los agentes del sector para mejorar la gestión de su interrelación y cooperación con el fin de abordar proyectos más complejos en el sector de la edificación, relacionados con la implantación del hogar digital, y contribuyendo, así a favorecer el desarrollo de la sociedad de la información en el segmento residencial. ABSTRACT The building industry is the largest industry in the world. Land purchase, building design, construction, furnishing, building equipment, operations maintenance and the disposition of real estate have an unquestionable prominence not only at economic but also at social level. In Spain, the building sector is one of the main drivers of economy and also a basic component of economic activity and its role in generating employment, supply of goods or incentive for growth is crucial in the evolution of the economy. Surprisingly, it is one of the sectors with less regulation and organization. Another consistent problem is that, in this sector, the majority of companies are small and medium (SMEs), and often behind large firms in terms of their adoption of innovative solutions. The complexity of managing all information related to this industry has lead to a waste of money and time. The information and knowledge gathered is frequently stored in multiple locations, involving the work of thousands of people, and is rarely transferred on to the next phase. This approach is inconsistent and makes that incorrect information is used for decisions. This situation needs a viable solution for interorganizational information management. So, interorganizational co-operation has become a key factor for organization competitiveness within the building sector. Information is the cornerstone of any business process. Therefore, information and communication technologies (ICT) offer a means to change the way business is conducted. During the last decade, significant productivity improvements were experienced by a wide range of industries with ICT implementation. ICT has provided great advantages in speed of operation, consistency of data generation, accessibility and exchange of information. The wasted money resulting from reentering information, errors and omissions caused through poor decisions and actions, and the delays caused while waiting for information, represent a significant percentage of the global benefits. The effective application of ICT in building construction sector requires a combination of strategic and tactical developments. The building sector has experienced a significant decline in recent years in Spain and in Europe as a result of the financial crisis that began in 2007. This drop goes hand in hand with a low penetration of ICT in inter-organizational-oriented business processes. The market decrease has caused a slowdown in the building sector, where only flexible SMEs have been able to keep the pace though specialization and innovation in services adapted to new market demands. The building industry is highly fragmented compared with other manufacturing industries. This fragmentation has a significant negative impact on productivity and performance. Many research studies have developed and proposed a number of integrated process models. Unfortunately, these studies do not suggest how communication and information exchange within the construction process can be achieved, without duplication or lost in quality. A change from the traditional sequential process to reciprocal interdependency processes would increase the demand on communication and information flow over the edification project. Focusing on home services, the digital interactive service industry has the potential to generate innovation and strategic advantage for existing business. Multiplicity of broadband home services (BHS) and suppliers suggest the need for a figure able to coordinate all the agents in sector with the final user. Consequently, organizational structures tend to be decentralized. Responding to this fact, the concept of interorganizational co-operation also is raising in the residential market. Therefore, both of these business processes, building and home service supply, must be complemented with a technological platform that supports these processes and guarantees the aggregation and integration of the several services over building lifecycle. In this context of a technological platform and the permanent evolution of information systems is where the relevance of the concept of inter-organizational information system (IOIS) emerges. IOIS improves linkages between trading partners along the supply chain. However, IOIS adoption has proved to be difficult and not fully accomplished yet. This research reviews the literature in order to focus a model of IOIS adoption. This PhD Thesis presents a model of virtual association, a framework of the relationships, an identification of the information requirements and the corresponding information flows, using the multi-agent system approach. IOIS has become a source of innovation and a strategic tool for SMEs to obtain competitive advantage. Because of the inherent complexity of IOIS adoption, this research extends Kurnia and Johnston’s (2000) theoretical model of IOIS adoption with an empirical model of IOIS characterization. The resultant model aims to foster further service innovation in the sector by identifying the factors influencing IOIS adoption by the SMEs in the building sector as a source of competitive and collaborative advantage. Therefore, this PhD Thesis characterizes an IOIS model to support integrated management of building processes and home services. IOIS validity, as source and holder of competitive advantages, is related to the need for reliable information interchanges to improve interrelationship management. The final goal is to favor tracking of more complex projects in building sector and to contribute to consolidation of the information society through the provision of broadband home services and home automation.
Resumo:
Es, en el encuentro de los edificios con el terreno, donde el suelo como realidad se transforma en cualidad arquitectónica. La presente tesis aborda el estudio del plano del suelo, haciendo una revisión crítica de la arquitectura como mecanismo de pensamiento proyectual. Este análisis se enmarca a partir de los años sesenta, por considerar que es cuando comienza a evidenciarse la ruptura respecto a la herencia del Movimiento Moderno. Es entonces cuando la arquitectura marca un punto de inflexión, y empiezan a surgir diferentes actitudes metodológicas respecto al suelo, totalmente nuevas. Las clásicas acciones de encuentro como posar, elevar o enterrar fueron poco a poco sustituidas por otras más complejas como plegar, inclinar o esponjar. Utilizando como marco de restricción los encuentros o desencuentros del objeto arquitectónico con el terreno, se analiza el suelo como estrategia arquitectónica tratando de demostrar como su manipulación puede ser una eficaz herramienta con la que establecer relaciones específicas con el lugar. La capacidad que presenta el suelo, como elemento arquitectónico, de explorar y modificar las características de cada entorno, hacen de esta superficie una eficiente forma de contextualización. Por tanto, la manipulación del suelo que aquí se plantea, opera transcodificando los elementos específicos de cada lugar y actúa como estrategia arquitectónica que pone en relación al edificio con el contexto, modificando las particularidades formales de dicho plano. Frente a la tendencia que reduce la expresión arquitectónica a una simple apariencia formal autónoma, se plantea la manipulación del plano del suelo como mecanismo de enraizamiento con el lugar, enfatizando para ello la condición terrestre de la arquitectura. El plano del suelo es el que ata al edificio mediante la gravedad a la corteza terrestre. En realidad se trata de realzar el carácter mediador del suelo en la arquitectura, definiendo para ello el establecimiento de elementos comunes entre realidades distintas, potenciando el valor del suelo como herramienta que puede transcodificar el entorno, trasformando su datos en elementos arquitectónicos concretos. En este proceso de traducción de información, el suelo pasa de ser un objeto pasivo a ser uno operativo, convirtiéndose en parte activa de las acciones que sobre él se ejercen. La tesis tiene también como propósito demostrar cómo, la clave de la rápida evolución que el suelo como estrategia arquitectónica ha sufrido en los últimos años, mucho debe a la expansión del suelo en otras artes como en la escultura, y mas concretamente en el landart. Surgen entonces nuevas disciplinas, en las que se propone la comprensión del lugar en los proyectos desarrollando una visión integral del mundo natural, convirtiéndolo en un tejido viviente y conector que pone en relación las actividades que sustenta. También encontramos en Utzon, y sus plataformas geológicas, al precursor de la importancia que más tarde se le daría al plano del suelo en la arquitectura, ya que inicia cierta actitud crítica, que hizo avanzar hacia una arquitectura más expresiva que requería nuevos mecanismos que la relacionasen con el suelo que los soportaba, proponiendo con sus plataformas una transformación infraestructural del suelo. Con su interpretación transcultural de las estructuras espaciales arquetípicas mayas, chinas y japonesas, irá enriqueciendo el panorama arquitectónico, adquiriendo de este modo más valor el contexto que acabará por ser entendido de forma más compleja. Los proyectos de arquitectura en muchas ocasiones se han convertido en territorios propicios de especulación donde construir teoría arquitectónica. Desde este contexto se analizan cuatro estrategias de suelo a través del estudio de cuatro posiciones arquitectónicas muy significativas desde el punto de vista de la manipulación del plano del suelo, que construyen una interesante metodología proyectual con la que operar. Los casos de estudio, propuestos son; la Terminal Pasajeros (1996-2002) en Yokohama del estudio FOA, la Casa de la Música (1999-2005) de OMA en Oporto, el Memorial Judío (1998-2005) de Berlín de Peter Eisenman, y por último el Museo MAXXI (1998-2009) de Zaha Hadid en Roma. Descubrir las reglas, referencias y metodologías que cada uno nos propone, nos permite descubrir cuáles son los principales posicionamientos en relación al proyecto y su relación con el lugar. Las propuestas aquí expuestas abordan una nueva forma de entender el suelo, que hizo avanzar a la arquitectura hacia nuevos modos de encuentro con el terreno. Nos permite también establecer cuáles son las principales aportaciones arquitectónicas del suelo, como estrategia arquitectónica, que han derivado en su reformulación. Dichas contribuciones abren nuevas formas de abordar la arquitectura basadas en el movimiento y en la flexibilidad funcional, o en la superposición de flujos de información y circulación. También plantean nuevas vías desdibujando la figura contra el fondo, y refuerzan la idea del suelo como plataforma infraestructural que ya había sido enunciada por Utzon. Se trata en definitiva de proponer la exploración de la superficie del suelo como el elemento más revelador de las formas emergentes del espacio. ABSTRACT Where the building hits the ground, it is where the latter as reality becomes architectural quality. This thesis presents the study of the ground plane, making a critical review of architecture as a mechanism of projectual thought. This analysis starts from the sixties, because it is when the break begins to be demonstrated with regard to the inheritance of the Modern Movement. It is then when architecture marks a point of inflexion, and different, completely new methodological attitudes to the ground start to emerge. The classic meeting action like place, raise or bury are gradually replaced by more complex operations such as fold, bend or fluff up. Framing it within the meetings or disagreements between architectural object and ground, we analyzed it as architectural strategy trying to show how handling can be an effective tool to establish a specific relationship with the place. The capacity ground has, as an architectural element, to explore and modify the characteristics of each environment, makes this area an efficient tool for contextualization. Therefore, the manipulation of ground that is analyzed here, operates transcoding the specifics of each place and acts as architectural strategy that relates to the building with the context, modifying the structural peculiarities of such plane. Opposite to the reductive tendency of the architectural expression to a simple formal autonomous appearance, the manipulation of the ground plane is considered as a rooting mechanism place that emphasises the earthly condition of architecture. The ground plane is the one that binds the building by gravity to the earth’s crust. In fact, it tries to study the mediating character of the ground in architecture, defining for it to establish commonalities among different realities, enhancing the value of the ground as a tool that can transcode the environment, transforming its data into specific architectural elements. In this process of translating information, the ground goes from being a liability, to become active part of the actions exerted on the object. The thesis also tries to demonstrate how the key of the rapid evolution that the ground likes architectural strategy has gone through recently, much due to its use expansion in other arts such as sculpture. New disciplines arise then, in which one proposes the local understanding in the projects, developing an integral vision of the natural world and turning it into an element linking the activities it supports. We also find in Utzon, and his geological platforms, the precursor of the importance that later would be given to the ground plane in architecture, since it initiates a certain critical attitude, which advances towards a more expressive architecture, with new mechanisms that relate to the ground that it sits in, proposing with its platforms an infrastructural transformation of the ground. With his transcultural interpretation of the spatial archetypal structures, he will enrich the architectural discourse, making the context become understood in more complex ways. Architectural projects in many cases have become territories prone to architectural theory speculation. Within this context, four strategies are analyzed through the study of four very significant architectural positions, from the point of view of handling the ground plane, and the project methodology within which to operate. The case studies analyzed are; Passenger Terminal (1996-2002) in Yokohama from FOA, The House of the music (1999-2005) the OMA in Oporto, The Jew monument (1998-2005) in Berlin the Peter Eisenman, and finally the MAXXI Museum (1998-2009) the Zaha Hadid in Rome. Discovering the rules, references and methodologies that each of those offer, it allows to discover what the main positions are regarding the building and its relationship with the place where it is located. The proposals exposed here try to shed a different light on the ground, which architecture advancing in new ways on how meet it. The crossing of the different studied positions, allows us to establish what the main contributions of ground as architectural strategy are. Such contributions open up new approaches to architecture based on movement and functional flexibility, overlapping information flow and circulation, consider new ways that blur the figure against the background, and reinforce the idea of ground as infrastructural platform, already raised by Utzon. Summarizing, it tries to propose the exploration of the ground plane as the most revealing form of spatial exploration.
Resumo:
O jornalismo é um dos principais meios de oferta de temas para a discussão e formação da opinião pública, porém depende de um sistema técnico para ser transmitido. Durante mais de cem anos as informações produzidas pela imprensa foram emitidas, armazenadas, transmitidas e recebidas pelos chamados veículos de comunicação de massa que utilizam a rede centralizada cujas características estão na escassez material, produção em série e massificação. Esse sistema separa no tempo e no espaço emissores e receptores criando uma relação desigual de força em que as grandes empresas controlaram o fluxo informativo, definindo quais fatos seriam veiculados como notícia. Em 1995, a internet cuja informação circula sob a tecnologia da rede distribuída, foi apropriada pela sociedade, alterando a forma de produção, armazenamento e transmissão de informação. A tecnologia despertou a esperança de que esta ferramenta poderia proporcionar uma comunicação mais dialógica e democrática. Mas aos poucos pode-se perceber novas empresas se apropriando da tecnologia da rede distribuída sob a qual circula a internet, gerando um novo controle do fluxo informativo. Realizou-se nessa pesquisa um levantamento bibliográfico para estabelecer uma reflexão crítica dos diferentes intermediários entre fato e a notícia tanto da rede centralizada como na rede distribuída, objetivando despertar uma discussão que possa oferecer novas ideias para políticas, bem como alternativas para uma comunicação mais democrática e mais libertária.