390 resultados para interdependencia


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La provincia de Santa Fe, Argentina, se encuentra en una localización estratégica. La potencialidad de la Hidrovía Paraná-Paraguay, los corredores bioceánicos viales y la red existente de trazados ferroviarios le confieren gran dinamismo a su integración económica, social, cultural y política, no sólo hacia el interior del propio territorio, sino también en relación a las demás provincias y más allá de los confines nacionales. La región capital, cuyo núcleo es la ciudad de Santa Fe, se encuentra caracterizada por factores realmente dinámicos: el riesgo hídrico que es intrínseco del área, la intensificación de los flujos económicos pasantes, los procesos de concentración demográfica y la creciente interdependencia entre ciudades, como es el casode Santa Fe y Paraná (capital de la vecina provincia de Entre Ríos), bajo un progresivo proceso de metropolización binuclear. Estos factores, sumados a la escasa cantidad de conexiones físicas sobre el sistema fluvial del río Paraná, han instalado la creciente necesidad de contar con un nuevo enlace interprovincial, adaptado a una hipótesis de reactivación ferroviaria. El proyecto se encuentra en fase preliminar. La cuestión principal gira en torno a la decisión de su localización específica, que deberá considerar el profundo efecto transformador propio de una obra civil de gran calibre, tanto en relación a la plataforma natural como al sistema de asentamientos humanos. También sus alcances territoriales y el impacto potencial en la micro, meso y macroescala. El propósito de la investigación reside en profundizar sobre las dimensiones involucradas por el proyecto (técnica, social, económica, ambiental, de movilidad), en la búsqueda de una toma de posición que permita echar luz sobre los escenarios más beneficiosos y/o menos desfavorables, en relación a las numerosas propuestas de localización que se encuentran actualmente en discusión. El resultado es una matriz analítica basada en variables cuantitativas y cualitativas, que permite una evaluación integral de las propuestas en función de considerar, en síntesis, el grado de impacto sobre la plataforma natural sustentante, sus capacidades para revertir las problemáticas territoriales actuales, y finalmente sus posibilidades para generar nuevos ejes de desarrollo en la región o bien potenciar los existentes. Se concluye que análisis preliminares de tipo pluridimensional son necesarios para someter a discusión, como instancia previa a estudios específicos de factibilidad y viabilidad, puesto que permiten una visualización integral de las variables intervinientes, marcando el camino hacia su adecuada ponderación. Palabras clave: enlace, multimodalidad, región, transformaciones

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las sociedades en su afán de aprovechar los recursos naturales que la tierra le provee, han ido transformando permanentemente el medio que habitamos, generando una crisis ambiental que es tema de preocupación y permanente discusión en organismos, foros y conferencias relacionados con el cuidado y protección del medio ambiente. En las regiones áridas y semiáridas uno de los problemas ambientales más comunes es la degradación de tierras por efecto del sobrepastoreo. La tercera parte de la superficie terrestre del planeta es árida y semiárida y en ella los procesos de desertización se han intensificado en los últimos decenios. Según la Convención de las Naciones Unidas de lucha contra la Desertificación (CNULD), este problema amenaza al 40 por ciento aproximadamente, de la masa terrestre de nuestro planeta. Más de 1000 millones de personas en alrededor de 100 países están afectadas directamente por la desertificación o corren peligro de estarlo (CNULD, 2003), estimándose que "la pérdida de ingresos en las áreas afectadas alcanza a unos 42.000 millones de dólares". Argentina en general y la Patagonia en particular, no son ajenas a esta situación. La Secretaría de Recursos Naturales y Medio Ambiente Humano (1996), calcula que aproximadamente el 75 por ciento de nuestro territorio nacional se encuentra afectado por crecientes condiciones de aridez y en la Patagonia, el 90 por ciento de la superficie (unos 780.000 km2) presenta signos de degradación. De esta superficie, un 30 por ciento, está bajo procesos erosivos eólicos e hídricos severos o graves con tendencia a agravarse. Teniendo en cuenta esta situación, esta tesis tiene como propósito aplicar las concepciones metodológicas de la geoecología de los paisajes en el Departamento Minas (Provincia de Neuquén), con vistas a estudiar la estructura y funcionamiento de los paisajes, herramienta fundamental para comprender el fenómeno de la degradación de la tierra. El objetivo central de este trabajo consiste en estudiar la degradación de los paisajes de este lugar a partir de los preceptos de la geoecología, con apoyo de los Sistemas de Información Geográfica y la teledetección, estableciendo índices diagnósticos que reflejen la interacción e interdependencia entre los componentes naturales y sociales del paisaje. El estudio de los paisajes brinda la posibilidad de integrar transdisciplinariamente los conocimientos y percepciones de la diversidad geoecológica y socioeconómica desde una perspectiva dinámica. Mediante este análisis se puede arribar al conocimiento de las formas de ocupación y conservación de los recursos naturales procurando la protección de la oferta ecológica a largo plazo. El paisaje geográfico o geosistema se concibe como "un sistema espacio-temporal, complejo y abierto, que se origina y evoluciona justamente en la interfase naturaleza-sociedad, en un constante estado de intercambio de energía, materia e información, donde su estructura, funcionamiento, dinámica y evolución reflejan la interacción entre los componentes naturales (abióticos y bióticos), técnico-económicos y socio-culturales (Mateo, J. 1991; Salinas. E. 1991y 1997). Se trata de una formación socio-natural que constituye una categoría científica y como tal, será adoptada en este trabajo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta tesis es ofrecer una reconstrucción de la teoría de la investigación de John Dewey, prestando atención a sus antecedentes en los escritos del padre del pragmatismo, Charles Sanders Peirce, y a algunas derivaciones de tal teoría en la teoría de la argumentación contemporánea y en los estudios sociales de la ciencia. La misma está dividida en tres partes dedicadas a (I) explorar algunos antecedentes de la teoría de la investigación de Dewey, (II) desarrollar y analizar críticamente los aspectos centrales de tal teoría y, por último, (III) seguir la pista de algunas de sus derivaciones. El punto de partida es el análisis de la concepción de la lógica de la investigación de Peirce, tal como éste la fuera construyendo a partir de su crítica a la filosofía moderna. Ofrecemos una reconstrucción de las ideas de Peirce que permite dar cuenta de que, pese a las importantes diferencias entre las ideas de Peirce y Dewey, los desarrollos de este último pueden ser considerados como una prosecución, en nuevas y profundas direcciones, de algunas de las ideas más destacadas del primero y que constituyen, por ello, una lectura posible de algunos de los escritos más destacados de Peirce. En la segunda parte, la central de esta tesis, se aborda la teoría de la investigación de Dewey. En este marco, se reconstruye la teoría de la experiencia de Dewey, que constituye, como se argumenta, un verdadero punto de partida para la teoría de la investigación. Se argumenta que la teoría de la experiencia de Dewey puede ser considerada como un análisis de las consecuencias para la filosofía de algunos de los resultados más influyentes en el campo de la biología, la psicología y la antropología social en relación con la comprensión de los seres humanos. Se reconstruye también la teoría de la investigación que, al ser comprendida como una forma de la experiencia, permite dar cuenta del carácter mediador y transformacional del conocimiento. Se analizan, asimismo, las consecuencias que para la comprensión de la lógica se siguen de dicha concepción y se argumenta que, pese a lo que Peirce y algunos intérpretes contemporáneos sostienen, la lógica de Dewey puede ser considerada una verdadera lógica. Además, en esta segunda parte se analiza la concepción deweyana de la valoración y se reconstruye una perspectiva acerca de la interdependencia del conocimiento y los valores. Asimismo, se argumenta que, y contra lo que las críticas de Horkheimer y Adorno sugieren, la teoría de la valoración de Dewey tiene un potencial crítico que permite plantear y abordar el problema de los fines de la acción y, en especial, los de esa acción cognitiva a la que llamamos ciencia. En la tercera y última parte de esta tesis se abordan algunas de las derivaciones de la teoría de la investigación de Dewey. En primer lugar, se exploran las relaciones entre la propuesta de Dewey y la de uno de los más destacados representantes de la teoría de la argumentación contemporánea, a saber, Stephen Toulmin. Se muestra que en la obra de este último puede identificarse una dimensión pragmatista y deweyana. En segundo lugar, se aborda la cuestión de la relación entre la teoría de la investigación de Dewey y el giro hacia las prácticas de los estudios sociales de la ciencia. En particular, se analizan algunos aspectos de la obra de Bruno Latour y de la de Karin Knorr Cetina, mostrando las profundas e interesantes continuidades que suponen con el trabajo de Dewey. Además, se aborda un problema fuertemente discutido en el ámbito de la sociología del conocimiento, a saber, el problema de la reflexividad de los estudios de la ciencia, con el objetivo de ofrecer una mirada deweyana sobre tal cuestión, lo que permitirá sostener una interpretación de la filosofía del conocimiento de Dewey como filosofía política de la ciencia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La disponibilidad los valores coste-tolerancia de un proceso de producción es un aspecto de interés desde el punto de vista de la Ingeniería de Proyectos en general y de la Ingeniería de Procesos de Producción en particular. Tanto en la fase de planificación de un proyecto como en las etapas de diseño de cada uno de los procesos de producción que posibilitarán su ejecución, las especificaciones del producto deben estar contenidas en un intervalo de tolerancia cuyo coste de obtención es tanto mayor cuanto menor es el margen de variación admisible. Por este motivo, el conocimiento del coste asociado a cada tolerancia es una herramienta de gran utilidad para el ingeniero de proyectos. A pesar de su interés, las curvas de coste-tolerancia se manejan con menor profusión de la que sería deseable, dada la gran interdependencia existente entre ellas y la localización espacio-temporal de los recursos a las que se asignan. El presente trabajo propone un método que permite establecer una relación coste-tolerancia a los procesos de producción de la Ingeniería de Proyectos, basada de la variabilidad derivada de los recursos de cada proceso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis estudia el Pabellón de los Países Nórdicos (1958-1962), uno de los ejemplos más significativos de la obra del arquitecto Sverre Fehn (1924-2009). El Pabellón es el resultado de la obtención del primer premio en el concurso de ideas restringido convocado en 1958 por un comité formado por los gobiernos de Suecia, Finlandia y Noruega, cuya finalidad era la creación de un espacio en el recinto de la Bienal de Venecia que albergara las exposiciones bianuales de estos paises. El elemento más característico de esta obra es su cubierta, un tamiz denso de dos capas de vigas de hormigón superpuestas que se interrumpe puntualmente para permitir el paso de los árboles que viven en su interior. Su espesor de dos metros bloquea los rayos de luz directa de forma que se genera un plano de iluminación difusa. Esta configuración de la cubierta resuelve los dos condicionantes principales del proyecto: la creación de un espacio expositivo flexible y la preservación de los árboles de mayor porte. Bajo el plano superior filtrante, se genera un espacio horizontal en continuidad física y sensorial con la arboleda en la que se asienta, caracterizado por la variación lumínica a lo largo del día. Los objetivos de esta tesis son contribuir a un conocimiento amplio y riguroso del Pabellón Nórdico, y explicar el singular espacio que propone. Para lograr estos objetivos, el primer paso ha consistido en la elaboración de las bases del estudio de esta obra, mediante la recopilación y selección de la documentación existente -que en gran parte permanece inédita hasta la fecha- y la aportación de nuevos planos que completen fases no documentadas: el estado construído y el estado actual de la obra. Se parte de la hipótesis de que todas las decisiones de proyecto -el vínculo con el lugar, la incorporación de las preexistencias, la respuesta al programa y la construcción- son consecuencia de la acción de la cubierta y se derivan del hecho de la filtración de la luz. En el Pabellón, la iluminación cenital y espacio horizontal en continuidad con el entorno se aunan de forma insólita. El curso de la investigación está guiado por la búsqueda de las cualidades de un espacio planteado con su límite superior permeable -cubierta filtrante- y por el debilitamiento de algunos de sus límites verticales. La tesis se estructura en tres capítulos principales -crónica, re-construcción y re-lectura-, que abordan la descripción, el análisis y la síntesis del Pabellón de acuerdo con la metodología de la investigación seguida. La crónica se dedica a la descripción exhaustiva de la sede nórdica desde varios puntos de vista. El objetivo de este capítulo es el de ubicar la obra en su contexto y facilitar la comprensión del conjunto de los aspectos y condicionantes que determinaron la formalización del Pabellón. El capítulo comienza con una síntesis de las circunstancias que desencadenaron la convocatoria del concurso. El apartado pormenoriza el programa propuesto por el comité nórdico y las propuestas presentadas por cada uno de los arquitectos invitados a participar en el concurso de cada país promotor: el noruego Sverre Fehn, el sueco Klas Anshelm y el finés Reima Piëtila. A continuación se explica el desarrollo y evolución del proyecto de Fehn y las fases que atraviesa la obra hasta su materialización, así como los cambios y modificaciones más relevantes que el edificio ha experimentado hasta nuestros días. Este apartado finaliza con una descripción de la sede como espacio expositivo desde su inauguración hasta la actualidad y cómo se ha ido adaptando a tal uso. La re-construcción aborda el análisis de la obra a partir de la disección de su identidad en cuatro aspectos elementales: su relación con el lugar y las preexistencias, la respuesta que el proyecto ofrece al programa planteado, las cualidades del espacio que genera la luz filtrada por la cubierta y la construcción desde los puntos de vista del proceso, el sistema y la materialidad. En estas parcelas se pretende identificar los elementos que constituyen la naturaleza, la organización espacial y la formalización del Pabellón y veremos que todos ellos están relacionados con su singular cubierta y con el fenómeno de la filtración de la luz. La re-lectura ofrece una mirada crítica del Pabellón en base a un análisis comparativo de la obra con un panorama de referencias que plantean los mismos temas arquitectónicos. En este capítulo se busca profundizar en los aspectos fundamentales del proyecto que se derivan del estudio realizado previamente, y así obtener una lectura más profunda los conceptos desarrollados por Fehn y su alcance. Uno de los temas de mayor importancia que acomete Fehn en esta obra es la interacción entre arquitectura y árbol. Se revisa la incidencia que tiene sobre el trazado de la planta la ocupación previa de árboles en el solar, así como las diferentes posturas que adopta la arquitectura ante este hecho. Se estudian algunos casos representativos de obras que establecen un vínculo de interdependencia con la fronda preexistente y la incorporan al proyecto como un estrato más del límite. Por último, se enumeran las consecuencias de la incorporación del árbol al espacio interior y las dificultades o beneficios que surgen de esta coexistencia. El segundo gran tema que se deriva del estudio del Pabellón es la búsqueda de un espacio expositivo flexible basado en la diafanidad, la iluminación natural homogénea y la apertura física al parque. En primer lugar se analiza la planta liberada de las servidumbres de estructura, instalaciones, espacios servidores y accesos fijos como soporte de la versatilidad de uso, así como la ocupación del espacio diáfano. En segundo lugar establecemos un análisis comparativo de la configuración del filtro lumínico en otras cubiertas que, al igual que el Pabellón, también persiguen la generación de una iluminación homogénea. Por último se analiza el grado de apertura física del espacio interior al exterior y los niveles de relación que se establecen con el espacio público circundante. La relectura finaliza con el estudio del Pabellón en el contexto de los espacios expositivos de Sverre Fehn para comprender la singularidad de este edificio en el conjunto de la obra del arquitecto noruego y comprobar cómo se plantean en los casos estudiados la exhibición del objeto, el recorrido y la luz. El desarrollo de esta tesis en torno al Pabellón está motivada por la consideración de que constituye un ejemplo en el que se condensan valores fundamentales de la arquitectura. Esta obra propone un espacio antimonumental que interactúa con las personas y que está caracterizada por la manipulación de los límites físicos, el compromiso con el programa, las preexistencias y el lugar donde se implanta. Representa un proyecto rotundo cuya estructura y sistema de relaciones se fundamenta en el plano de la realidad concreta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La relación entre fútbol y medios de comunicación exhibe señales claras de interdependencia. La presente investigación se planteó determinar el tratamiento que los principales medios impresos españoles dieron a la información durante la cobertura de cuatro derbis Barça-Madrid en abril y mayo de 2011. Se realizó un análisis de contenido de los diarios El País, Marca, Sport y La Vanguardia, estudiando la caracterización del mensaje elaborado por cada uno de ellos y las influencias que sobre el discurso periodístico tienen factores extradeportivos, principalmente económicos y sociopolíticos. El estudio muestra los cambios que está experimentando la prensa escrita para cubrir un fenómeno de impacto global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo de Tesis se desarrolla en el marco de los escenarios de ejecución distribuida de servicios móviles y contribuye a la definición y desarrollo del concepto de usuario prosumer. El usuario prosumer se caracteriza por utilizar su teléfono móvil para crear, proveer y ejecutar servicios. Este nuevo modelo de usuario contribuye al avance de la sociedad de la información, ya que el usuario prosumer se transforma de creador de contenidos a creador de servicios (estos últimos formados por contenidos y la lógica para acceder a ellos, procesarlos y representarlos). El objetivo general de este trabajo de Tesis es la provisión de un modelo de creación, distribución y ejecución de servicios para entorno móvil que permita a los usuarios no programadores (usuarios prosumer), pero expertos en un determinado dominio, crear y ejecutar sus propias aplicaciones y servicios. Para ello se definen, desarrollan e implementan metodologías, procesos, algoritmos y mecanismos adaptables a dominios específicos, para construir entornos de ejecución distribuida de servicios móviles para usuarios prosumer. La provisión de herramientas de creación adaptadas a usuarios no expertos es una tendencia actual que está siendo desarrollada en distintos trabajos de investigación. Sin embargo, no se ha propuesto una metodología de desarrollo de servicios que involucre al usuario prosumer en el proceso de diseño, desarrollo, implementación y validación de servicios. Este trabajo de Tesis realiza un estudio de las metodologías y tecnologías más innovadoras relacionadas con la co‐creación y utiliza este análisis para definir y validar una metodología que habilita al usuario para ser el responsable de la creación de servicios finales. Siendo los entornos móviles prosumer (mobile prosumer environments) una particularización de los entornos de ejecución distribuida de servicios móviles, en este trabajo se tesis se investiga en técnicas de adaptación, distribución, coordinación de servicios y acceso a recursos identificando como requisitos las problemáticas de este tipo de entornos y las características de los usuarios que participan en los mismos. Se contribuye a la adaptación de servicios definiendo un modelo de variabilidad que soporte la interdependencia entre las decisiones de personalización de los usuarios, incorporando mecanismos de guiado y detección de errores. La distribución de servicios se implementa utilizando técnicas de descomposición en árbol SPQR, cuantificando el impacto de separar cualquier servicio en distintos dominios. Considerando el plano de comunicaciones para la coordinación en la ejecución de servicios distribuidos hemos identificado varias problemáticas, como las pérdidas de enlace, conexiones, desconexiones y descubrimiento de participantes, que resolvemos utilizando técnicas de diseminación basadas en publicación subscripción y algoritmos Gossip. Para lograr una ejecución flexible de servicios distribuidos en entorno móvil, soportamos la adaptación a cambios en la disponibilidad de los recursos, proporcionando una infraestructura de comunicaciones para el acceso uniforme y eficiente a recursos. Se han realizado validaciones experimentales para evaluar la viabilidad de las soluciones propuestas, definiendo escenarios de aplicación relevantes (el nuevo universo inteligente, prosumerización de servicios en entornos hospitalarios y emergencias en la web de la cosas). Abstract This Thesis work is developed in the framework of distributed execution of mobile services and contributes to the definition and development of the concept of prosumer user. The prosumer user is characterized by using his mobile phone to create, provide and execute services. This new user model contributes to the advancement of the information society, as the prosumer is transformed from producer of content, to producer of services (consisting of content and logic to access them, process them and represent them). The overall goal of this Thesis work is to provide a model for creation, distribution and execution of services for the mobile environment that enables non‐programmers (prosumer users), but experts in a given domain, to create and execute their own applications and services. For this purpose I define, develop and implement methodologies, processes, algorithms and mechanisms, adapted to specific domains, to build distributed environments for the execution of mobile services for prosumer users. The provision of creation tools adapted to non‐expert users is a current trend that is being developed in different research works. However, it has not been proposed a service development methodology involving the prosumer user in the process of design, development, implementation and validation of services. This thesis work studies innovative methodologies and technologies related to the co‐creation and relies on this analysis to define and validate a methodological approach that enables the user to be responsible for creating final services. Being mobile prosumer environments a specific case of environments for distributed execution of mobile services, this Thesis work researches in service adaptation, distribution, coordination and resource access techniques, and identifies as requirements the challenges of such environments and characteristics of the participating users. I contribute to service adaptation by defining a variability model that supports the dependency of user personalization decisions, incorporating guiding and error detection mechanisms. Service distribution is implemented by using decomposition techniques based on SPQR trees, quantifying the impact of separating any service in different domains. Considering the communication level for the coordination of distributed service executions I have identified several problems, such as link losses, connections, disconnections and discovery of participants, which I solve using dissemination techniques based on publish‐subscribe communication models and Gossip algorithms. To achieve a flexible distributed service execution in mobile environments, I support adaptation to changes in the availability of resources, while providing a communication infrastructure for the uniform and efficient access to resources. Experimental validations have been conducted to assess the feasibility of the proposed solutions, defining relevant application scenarios (the new intelligent universe, service prosumerization in hospitals and emergency situations in the web of things).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resulta imposible disociar la evolución de la arquitectura de Enric Miralles de lo que fue el desarrollo de un sistema de representación propio. Partiendo de una posición heredada de su formación en la Escuela de Arquitectura de Barcelona y de su práctica en el estudio Viaplana-Piñón, donde adquiere el gusto por la precisión en el dibujo técnico, la delineación sobre papel vegetal o el grafismo constituido exclusivamente a base de líneas del mismo grosor, Miralles pronto evoluciona hacia un método caracterizado por un personal uso del sistema diédrico, vinculado a una concepción fragmentaria de la planta de arquitectura y del espacio mismo. Miralles proyectará por fragmentos de planta, asignándoles una geometría característica para diferenciarlos entre sí y desarrollar su espacialidad y sección con cierta autonomía, a través de planos y maquetas independientes. Gran parte de la arquitectura que elabora con Carme Pinós, en solitario o con Benedetta Tagliabue, estará compuesta por colecciones de piezas heterogéneas herederas de los fragmentos de la planta original, que encajan entre sí no en base a esquemas clásicos de integración subordinada o jerárquica, sino a través de posiciones relativas de yuxtaposición o superposición, caracterizadas por una ausencia de compacidad en la solución de conjunto. Este sistema de representación se apoya por tanto en la geometría como mecanismo de diferenciación por piezas, se basa en la fragmentación del diédrico desde la fragmentación de la planta, y en la falta de compacidad como soporte de pensamiento separativo. Un sistema que se define como “planta Miralles”, término que incluye todas las técnicas de representación empleadas por el arquitecto, desde planos a maquetas, pero que enfatiza la importancia estratégica de la planta como origen y guía del proyecto de arquitectura. La tesis se estructura en los tres primeros capítulos como un corolario de las categorías enunciadas, explicando, en orden cronológico a través de los proyectos, la evolución de la geometría, la utilización del diédrico, y el impacto de la falta de compacidad en la obra construida. Mientras que estos capítulos son globales, se refieren a la trayectoria de este método en su totalidad, el cuarto y último es un estudio de detalle de su aplicación en un proyecto particular, el Ayuntamiento de Utrecht, a través de los dibujos originales de Miralles. Tanto en la explicación global como en el estudio de detalle de este sistema de representación, la tesis pone de manifiesto su instrumentalidad en el pensamiento de esta arquitectura, argumentando que ésta no podría haber sido desarrollada sin la existencia del mismo. La relación entre representación y pensamiento es por tanto un tema capital para explicar esta obra. No obstante, hasta la fecha, las referencias al mismo en la bibliografía disponible no han pasado de ser una colección de opiniones dispersas, incapaces de construir por sí mismas un cuerpo estructurado y coherente de conocimiento. Se ha insistido sobremanera en el análisis y contextualización de los proyectos individuales, y poco en el estudio de la técnica proyectual utilizada para pensarlos y llevarlos a cabo. En definitiva, se han priorizado los resultados frente a los procesos creativos, existiendo por tanto un inexplicable vacío teórico respecto a un tema de gran importancia. Este vacío es el marco donde se inserta la necesidad de esta tesis doctoral. La investigación que aquí se presenta explica el origen y evolución del sistema de representación de Enric Miralles, desde su etapa como estudiante en la Escuela de Arquitectura de Barcelona hasta los últimos proyectos que elabora con Benedetta Tagliabue, así como el estudio de sus consecuencias en la obra construida. Termina concluyendo que su desarrollo es paralelo al de la arquitectura de Miralles, poniendo de manifiesto su vinculación y mutua interdependencia. ABSTRACT It is impossible to dissociate the evolution of the architecture of Enric Miralles from the development of his own system of representation. Starting from a position inherited from his training at the Barcelona School of Architecture and his practice at the office of Viaplana-Piñón, where he acquires a liking for precision in drafting and a graphic style based exclusively on lines of the same thickness, Miralles soon moves into a method defined by a customized use of the dihedral system, connected to a fragmented conception of the floorplan and space itself. Breaking up the floorplan into multiple fragments, Miralles will design an architecture where each of them has a unique shape and geometry, developing their sections and spatial qualities with a certain degree of autonomy within the whole, through separate plans and models. Many of the projects he designs with Carme Pinós, individually or with Benedetta Tagliabue, will consist of collections of heterogeneous pieces, heirs of the original floorplan fragments, which do not fit together according to classical principles of subordinate or hierarchical integration, but based on relative positions of juxtaposition or superposition that lead to a lack of compactness in the overall scheme. This system of representation is thus based on the use of geometry as a way of differentiating architectural pieces, on the fragmentation of the dihedral system from the fragmentation of the floorplan, and on a lack of compactness as a device of separative thinking. This system is defined as “Miralles plan”, a term that includes all techniques of representation used by the architect, from plans to models, and that emphasizes the particular importance of the floorplan as the guiding force of the design process. The first three chapters of the thesis have been structured as a corollary of these categories, explaining, in chronological order through Miralles’ projects, the evolution of geometry, the customization of the dihedral system, and the impact of the lack of compactness on the built work. While these three chapters are global, for they refer to the overall evolution of this system, the fourth and last one is a case study of its application to a particular project, the Utrecht Town Hall, through Miralles’ original drawings. Both in the global and particular explanations of this system of representation, the thesis highlights its instrumentality in the process of thinking this architecture, arguing that it could not have been designed without its parallel development. The relationship between thinking and representation is therefore a key issue to explain this architecture. However, to date, existing references to it in the available literature have not evolved from a collection of scattered opinions, unable to build for themselves a structured and coherent body of knowledge. Great emphasis has been put on the critical contextualization of this architecture through the analysis of the projects themselves, but little on the study of the design technique used to think and carry them out. Results have been prioritized over creative processes, existing therefore an inexplicable theoretical void on an issue of great importance. This void is the conceptual framework where the need for this thesis is inserted. This research explains the origin and evolution of Enric Miralles’ system of representation, from his time as student at the Barcelona School of Architecture to the last projects he designed with Benedetta Tagliabue, as well as the study of its impact on the built work. It concludes that the development of this system runs parallel to that of the architecture it is used for, making it explicit its indissolubility and mutual interdependence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La informática se está convirtiendo en la quinta utilidad (gas, agua, luz, teléfono) en parte debido al impacto de Cloud Computing en las mayorías de las organizaciones. Este uso de informática es usada por cada vez más tipos de sistemas, incluidos Sistemas Críticos. Esto tiene un impacto en la complejidad internad y la fiabilidad de los sistemas de la organización y los que se ofrecen a los clientes. Este trabajo investiga el uso de Cloud Computing por sistemas críticos, centrándose en las dependencias y especialmente en la fiabilidad de estos sistemas. Se han presentado algunos ejemplos de su uso, y aunque su utilización en sistemas críticos no está extendido, se presenta cual puede llegar a ser su impacto. El objetivo de este trabajo es primero definir un modelo que pueda representar de una forma cuantitativa las interdependencias en fiabilidad y interdependencia para las organizaciones que utilicen estos sistemas, y aplicar este modelo en un sistema crítico del campo de sanidad y mostrar sus resultados. Los conceptos de “macro-dependability” y “micro-dependability” son introducidos en el modelo para la definición de interdependencia y para analizar la fiabilidad de sistemas que dependen de otros sistemas. ABSTRACT With the increasing utilization of Internet services and cloud computing by most organizations (both private and public), it is clear that computing is becoming the 5th utility (along with water, electricity, telephony and gas). These technologies are used for almost all types of systems, and the number is increasing, including Critical Infrastructure systems. Even if Critical Infrastructure systems appear not to rely directly on cloud services, there may be hidden inter-dependencies. This is true even for private cloud computing, which seems more secure and reliable. The critical systems can began in some cases with a clear and simple design, but evolved as described by Egan to "rafted" networks. Because they are usually controlled by one or few organizations, even when they are complex systems, their dependencies can be understood. The organization oversees and manages changes. These CI systems have been affected by the introduction of new ICT models like global communications, PCs and the Internet. Even virtualization took more time to be adopted by Critical systems, due to their strategic nature, but once that these technologies have been proven in other areas, at the end they are adopted as well, for different reasons such as costs. A new technology model is happening now based on some previous technologies (virtualization, distributing and utility computing, web and software services) that are offered in new ways and is called cloud computing. The organizations are migrating more services to the cloud; this will have impact in their internal complexity and in the reliability of the systems they are offering to the organization itself and their clients. Not always this added complexity and associated risks to their reliability are seen. As well, when two or more CI systems are interacting, the risks of one can affect the rest, sharing the risks. This work investigates the use of cloud computing by critical systems, and is focused in the dependencies and reliability of these systems. Some examples are presented together with the associated risks. A framework is introduced for analysing the dependability and resilience of a system that relies on cloud services and how to improve them. As part of the framework, the concepts of micro and macro dependability are introduced to explain the internal and external dependability on services supplied by an external cloud. A pharmacovigilance model system has been used for framework validation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuestro cerebro contiene cerca de 1014 sinapsis neuronales. Esta enorme cantidad de conexiones proporciona un entorno ideal donde distintos grupos de neuronas se sincronizan transitoriamente para provocar la aparición de funciones cognitivas, como la percepción, el aprendizaje o el pensamiento. Comprender la organización de esta compleja red cerebral en base a datos neurofisiológicos, representa uno de los desafíos más importantes y emocionantes en el campo de la neurociencia. Se han propuesto recientemente varias medidas para evaluar cómo se comunican las diferentes partes del cerebro a diversas escalas (células individuales, columnas corticales, o áreas cerebrales). Podemos clasificarlos, según su simetría, en dos grupos: por una parte, la medidas simétricas, como la correlación, la coherencia o la sincronización de fase, que evalúan la conectividad funcional (FC); mientras que las medidas asimétricas, como la causalidad de Granger o transferencia de entropía, son capaces de detectar la dirección de la interacción, lo que denominamos conectividad efectiva (EC). En la neurociencia moderna ha aumentado el interés por el estudio de las redes funcionales cerebrales, en gran medida debido a la aparición de estos nuevos algoritmos que permiten analizar la interdependencia entre señales temporales, además de la emergente teoría de redes complejas y la introducción de técnicas novedosas, como la magnetoencefalografía (MEG), para registrar datos neurofisiológicos con gran resolución. Sin embargo, nos hallamos ante un campo novedoso que presenta aun varias cuestiones metodológicas sin resolver, algunas de las cuales trataran de abordarse en esta tesis. En primer lugar, el creciente número de aproximaciones para determinar la existencia de FC/EC entre dos o más señales temporales, junto con la complejidad matemática de las herramientas de análisis, hacen deseable organizarlas todas en un paquete software intuitivo y fácil de usar. Aquí presento HERMES (http://hermes.ctb.upm.es), una toolbox en MatlabR, diseñada precisamente con este fin. Creo que esta herramienta será de gran ayuda para todos aquellos investigadores que trabajen en el campo emergente del análisis de conectividad cerebral y supondrá un gran valor para la comunidad científica. La segunda cuestión practica que se aborda es el estudio de la sensibilidad a las fuentes cerebrales profundas a través de dos tipos de sensores MEG: gradiómetros planares y magnetómetros, esta aproximación además se combina con un enfoque metodológico, utilizando dos índices de sincronización de fase: phase locking value (PLV) y phase lag index (PLI), este ultimo menos sensible a efecto la conducción volumen. Por lo tanto, se compara su comportamiento al estudiar las redes cerebrales, obteniendo que magnetómetros y PLV presentan, respectivamente, redes más densamente conectadas que gradiómetros planares y PLI, por los valores artificiales que crea el problema de la conducción de volumen. Sin embargo, cuando se trata de caracterizar redes epilépticas, el PLV ofrece mejores resultados, debido a la gran dispersión de las redes obtenidas con PLI. El análisis de redes complejas ha proporcionado nuevos conceptos que mejoran caracterización de la interacción de sistemas dinámicos. Se considera que una red está compuesta por nodos, que simbolizan sistemas, cuyas interacciones se representan por enlaces, y su comportamiento y topología puede caracterizarse por un elevado número de medidas. Existe evidencia teórica y empírica de que muchas de ellas están fuertemente correlacionadas entre sí. Por lo tanto, se ha conseguido seleccionar un pequeño grupo que caracteriza eficazmente estas redes, y condensa la información redundante. Para el análisis de redes funcionales, la selección de un umbral adecuado para decidir si un determinado valor de conectividad de la matriz de FC es significativo y debe ser incluido para un análisis posterior, se convierte en un paso crucial. En esta tesis, se han obtenido resultados más precisos al utilizar un test de subrogadas, basado en los datos, para evaluar individualmente cada uno de los enlaces, que al establecer a priori un umbral fijo para la densidad de conexiones. Finalmente, todas estas cuestiones se han aplicado al estudio de la epilepsia, caso práctico en el que se analizan las redes funcionales MEG, en estado de reposo, de dos grupos de pacientes epilépticos (generalizada idiopática y focal frontal) en comparación con sujetos control sanos. La epilepsia es uno de los trastornos neurológicos más comunes, con más de 55 millones de afectados en el mundo. Esta enfermedad se caracteriza por la predisposición a generar ataques epilépticos de actividad neuronal anormal y excesiva o bien síncrona, y por tanto, es el escenario perfecto para este tipo de análisis al tiempo que presenta un gran interés tanto desde el punto de vista clínico como de investigación. Los resultados manifiestan alteraciones especificas en la conectividad y un cambio en la topología de las redes en cerebros epilépticos, desplazando la importancia del ‘foco’ a la ‘red’, enfoque que va adquiriendo relevancia en las investigaciones recientes sobre epilepsia. ABSTRACT There are about 1014 neuronal synapses in the human brain. This huge number of connections provides the substrate for neuronal ensembles to become transiently synchronized, producing the emergence of cognitive functions such as perception, learning or thinking. Understanding the complex brain network organization on the basis of neuroimaging data represents one of the most important and exciting challenges for systems neuroscience. Several measures have been recently proposed to evaluate at various scales (single cells, cortical columns, or brain areas) how the different parts of the brain communicate. We can classify them, according to their symmetry, into two groups: symmetric measures, such as correlation, coherence or phase synchronization indexes, evaluate functional connectivity (FC); and on the other hand, the asymmetric ones, such as Granger causality or transfer entropy, are able to detect effective connectivity (EC) revealing the direction of the interaction. In modern neurosciences, the interest in functional brain networks has increased strongly with the onset of new algorithms to study interdependence between time series, the advent of modern complex network theory and the introduction of powerful techniques to record neurophysiological data, such as magnetoencephalography (MEG). However, when analyzing neurophysiological data with this approach several questions arise. In this thesis, I intend to tackle some of the practical open problems in the field. First of all, the increase in the number of time series analysis algorithms to study brain FC/EC, along with their mathematical complexity, creates the necessity of arranging them into a single, unified toolbox that allow neuroscientists, neurophysiologists and researchers from related fields to easily access and make use of them. I developed such a toolbox for this aim, it is named HERMES (http://hermes.ctb.upm.es), and encompasses several of the most common indexes for the assessment of FC and EC running for MatlabR environment. I believe that this toolbox will be very helpful to all the researchers working in the emerging field of brain connectivity analysis and will entail a great value for the scientific community. The second important practical issue tackled in this thesis is the evaluation of the sensitivity to deep brain sources of two different MEG sensors: planar gradiometers and magnetometers, in combination with the related methodological approach, using two phase synchronization indexes: phase locking value (PLV) y phase lag index (PLI), the latter one being less sensitive to volume conduction effect. Thus, I compared their performance when studying brain networks, obtaining that magnetometer sensors and PLV presented higher artificial values as compared with planar gradiometers and PLI respectively. However, when it came to characterize epileptic networks it was the PLV which gives better results, as PLI FC networks where very sparse. Complex network analysis has provided new concepts which improved characterization of interacting dynamical systems. With this background, networks could be considered composed of nodes, symbolizing systems, whose interactions with each other are represented by edges. A growing number of network measures is been applied in network analysis. However, there is theoretical and empirical evidence that many of these indexes are strongly correlated with each other. Therefore, in this thesis I reduced them to a small set, which could more efficiently characterize networks. Within this framework, selecting an appropriate threshold to decide whether a certain connectivity value of the FC matrix is significant and should be included in the network analysis becomes a crucial step, in this thesis, I used the surrogate data tests to make an individual data-driven evaluation of each of the edges significance and confirmed more accurate results than when just setting to a fixed value the density of connections. All these methodologies were applied to the study of epilepsy, analysing resting state MEG functional networks, in two groups of epileptic patients (generalized and focal epilepsy) that were compared to matching control subjects. Epilepsy is one of the most common neurological disorders, with more than 55 million people affected worldwide, characterized by its predisposition to generate epileptic seizures of abnormal excessive or synchronous neuronal activity, and thus, this scenario and analysis, present a great interest from both the clinical and the research perspective. Results revealed specific disruptions in connectivity and network topology and evidenced that networks’ topology is changed in epileptic brains, supporting the shift from ‘focus’ to ‘networks’ which is gaining importance in modern epilepsy research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La extracción de madera de caoba de las zonas remotas del Valle de Sico-Paulaya es un difícil y costoso proceso en el que intervienen muchos y diferentes actores, cada uno con sus propios intereses. La coordinación para realizar este proceso debería repercutir en mejoras para todos los actores y en la creación de unas relaciones de interdependencia. El proceso de extracción de la madera de caoba para exportación se viene realizando desde el año 2000 por alguna de estas cooperativas agroforestales, por lo que se trata de un proceso ya afianzado en el que el mayor problema es la sostenibilidad del aprovechamiento en el corto plazo. La gran ingobernabilidad que reina en la zona provoca que hasta los mismos cooperativistas que llevan años desarrollando un excelente trabajo (premio de la FAO al buen manejo forestal incluido para una de las cooperativas) pongan en tela de juicio compartir con la comunidad los beneficios económicos que la cooperativa genera, según les va a exigir la próxima Ley de Forestería Comunitaria. La mayoría de las recomendaciones nos indican que es necesario un fortalecimiento institucional en el sector forestal para poder combatir la situación reinante y poder así asegurar el trabajo de estas cooperativas agroforestales, con la consiguiente protección ambiental que ellas generan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El sector de la edificación es uno de los principales sectores económicos en España y, además, es un componente básico de la actividad económica y social, debido a su importante papel como generador de empleo, proveedor de bienes e incentivador del crecimiento. Curiosamente, es uno de los sectores con menos regulación y organización y que, además, está formado mayoritariamente por empresas de pequeña y mediana dimensión (pymes) que, por su menor capacidad, a menudo, se quedan detrás de las grandes empresas en términos de adopción de soluciones innovadoras. La complejidad en la gestión de toda la información relacionada con un proyecto de edificación ha puesto de manifiesto claras ineficiencias que se traducen en un gasto innecesario bastante representativo. La información y los conocimientos aprendidos rara vez son transmitidos de una fase a otra dentro del proyecto de edificación y, mucho menos, reutilizados en otros proyectos similares. De este modo, no sólo se produce un gasto innecesario, sino que incluso podemos encontrar información contradictoria y obsoleta y, por tanto, inútil para la toma de decisiones. A lo largo de los años, esta situación ha sido motivada por la propia configuración del sector, poniendo de manifiesto la necesidad de una solución que pudiera solventar este reto de gestión interorganizacional. Así, la cooperación interorganizacional se ha convertido en un factor clave para mejorar la competitividad de las organizaciones, típicamente pymes, que componen el sector de la edificación. La información es la piedra angular de cualquier proceso de negocio. Durante la última década, una amplia gama de industrias han experimentado importantes mejoras de productividad con la aplicación eficiente de las TIC, asociadas, principalmente, a incrementos en la velocidad de proceso de información y una mayor coherencia en la generación de datos, accesibilidad e intercambio de información. La aplicación eficaz de las TIC en el sector de la edificación requiere una combinación de aspectos estratégicos y tácticos, puesto que no sólo se trata de utilizar soluciones puntuales importadas de otros sectores para su aplicación en diferentes áreas, sino que se buscaría que la información multi-agente estuviera integrada y sea coherente para los proyectos de edificación. El sector de la construcción ha experimentado un descenso significativo en los últimos años en España y en Europa como resultado de la crisis financiera que comenzó en 2007. Esta disminución está acompañada de una baja penetración de las TIC en la interorganizacionales orientadas a los procesos de negocio. El descenso del mercado ha provocado una desaceleración en el sector de la construcción, donde sólo las pymes flexibles han sido capaces de mantener el ritmo a pesar de la especialización y la innovación en los servicios adaptados a las nuevas demandas del mercado. La industria de la edificación está muy fragmentada en comparación con otras industrias manufactureras. El alto grado de esta fragmentación está íntimamente relacionado con un impacto significativo en la productividad y el rendimiento. Muchos estudios de investigación han desarrollado y propuesto una serie de modelos de procesos integrados. Por desgracia, en la actualidad todavía no se está en condiciones para la formalización de cómo debe ser la comunicación y el intercambio de información durante el proceso de construcción. El paso del proceso secuencial tradicional a los procesos de interdependencia recíproca sin lugar a duda son una gran demanda asociada a la comunicación y el flujo de información en un proyecto de edificación. Recientemente se está poniendo mucho énfasis en los servicios para el hogar como un primer paso hacia esta mejora en innovación ya que la industria de los servicios digitales interactivos tiene un alto potencial para generar innovación y la ventaja estratégica para las empresas existentes. La multiplicidad de servicios para el hogar digital (HD) y los proveedores de servicios demandan, cada vez más, la aparición de una plataforma capaz de coordinar a todos los agentes del sector con el usuario final. En consecuencia, las estructuras organizacionales tienden a descentralizarse en busca de esa coordinación y, como respuesta a esta demanda, se plantea, también en este ámbito, el concepto de cooperación interorganizacional. Por lo tanto, ambos procesos de negocio -el asociado a la construcción y el asociado a la provisión de servicios del hogar digital, también considerado como la propia gestión de ese hogar digital o edificio, inteligente o no- deben de ser vistos en su conjunto mediante una plataforma tecnológica que les dé soporte y que pueda garantizar la agregación e integración de los diversos procesos, relacionados con la construcción y gestión, que se suceden durante el ciclo de vida de un edificio. Sobre esta idea y atendiendo a la evolución permanente de los sistemas de información en un entorno de interrelación y cooperación daría lugar a una aplicación del concepto de sistema de información interorganizacional (SIIO). El SIIO proporciona a las organizaciones la capacidad para mejorar los vínculos entre los socios comerciales a lo largo de la cadena de suministro, por lo que su importancia ha sido reconocida por organizaciones de diversos sectores. Sin embargo, la adopción de un SIIO en diferentes ámbitos ha demostrado ser complicada y con una alta dependencia de las características particulares de cada sector, siendo, en este momento, una línea de investigación abierta. Para contribuir a esta línea de investigación, este trabajo pretende recoger, partiendo de una revisión de la literatura relacionada, un enfoque en un modelo de adopción de un SIIO para el objeto concreto de esta investigación. El diseño de un SIIO está basado principalmente, en la identificación de las necesidades de información de cada uno de sus agentes participantes, de ahí la importancia en concretar un modelo de SIIO en el ámbito de este trabajo. Esta tesis doctoral presenta el modelo de plataforma virtual de la asociación entre diferentes agentes del sector de la edificación, el marco de las relaciones, los flujos de información correspondientes a diferentes procesos y la metodología que subyace tras el propio modelo, todo ello, con el objeto de contribuir a un modelo unificado que dé soporte tanto a los procesos relacionados con la construcción como con la gestión de servicios en el hogar digital y permitiendo cubrir los requisitos importantes que caracterizan este tipo de proyectos: flexibilidad, escalabilidad y robustez. El SIIO se ha convertido en una fuente de innovación y una herramienta estratégica que permite a las pymes obtener ventajas competitivas. Debido a la complejidad inherente de la adopción de un SIIO, esta investigación extiende el modelo teórico de adopción de un SIIO de Kurnia y Johnston (2000) con un modelo empírico para la caracterización de un SIIO. El modelo resultante tiene como objetivo fomentar la innovación de servicios en el sector mediante la identificación de los factores que influyen en la adopción de un SIIO por las pymes en el sector de la edificación como fuente de ventaja competitiva y de colaboración. Por tanto, esta tesis doctoral, proyectada sobre una investigación empírica, proporciona un enfoque para caracterizar un modelo de SIIO que permita dar soporte a la gestión integrada de los procesos de construcción y gestión de servicios para el hogar digital. La validez del modelo de SIIO propuesto, como fuente y soporte de ventajas competitivas, está íntimamente relacionada con la necesidad de intercambio de información rápido y fiable que demandan los agentes del sector para mejorar la gestión de su interrelación y cooperación con el fin de abordar proyectos más complejos en el sector de la edificación, relacionados con la implantación del hogar digital, y contribuyendo, así a favorecer el desarrollo de la sociedad de la información en el segmento residencial. ABSTRACT The building industry is the largest industry in the world. Land purchase, building design, construction, furnishing, building equipment, operations maintenance and the disposition of real estate have an unquestionable prominence not only at economic but also at social level. In Spain, the building sector is one of the main drivers of economy and also a basic component of economic activity and its role in generating employment, supply of goods or incentive for growth is crucial in the evolution of the economy. Surprisingly, it is one of the sectors with less regulation and organization. Another consistent problem is that, in this sector, the majority of companies are small and medium (SMEs), and often behind large firms in terms of their adoption of innovative solutions. The complexity of managing all information related to this industry has lead to a waste of money and time. The information and knowledge gathered is frequently stored in multiple locations, involving the work of thousands of people, and is rarely transferred on to the next phase. This approach is inconsistent and makes that incorrect information is used for decisions. This situation needs a viable solution for interorganizational information management. So, interorganizational co-operation has become a key factor for organization competitiveness within the building sector. Information is the cornerstone of any business process. Therefore, information and communication technologies (ICT) offer a means to change the way business is conducted. During the last decade, significant productivity improvements were experienced by a wide range of industries with ICT implementation. ICT has provided great advantages in speed of operation, consistency of data generation, accessibility and exchange of information. The wasted money resulting from reentering information, errors and omissions caused through poor decisions and actions, and the delays caused while waiting for information, represent a significant percentage of the global benefits. The effective application of ICT in building construction sector requires a combination of strategic and tactical developments. The building sector has experienced a significant decline in recent years in Spain and in Europe as a result of the financial crisis that began in 2007. This drop goes hand in hand with a low penetration of ICT in inter-organizational-oriented business processes. The market decrease has caused a slowdown in the building sector, where only flexible SMEs have been able to keep the pace though specialization and innovation in services adapted to new market demands. The building industry is highly fragmented compared with other manufacturing industries. This fragmentation has a significant negative impact on productivity and performance. Many research studies have developed and proposed a number of integrated process models. Unfortunately, these studies do not suggest how communication and information exchange within the construction process can be achieved, without duplication or lost in quality. A change from the traditional sequential process to reciprocal interdependency processes would increase the demand on communication and information flow over the edification project. Focusing on home services, the digital interactive service industry has the potential to generate innovation and strategic advantage for existing business. Multiplicity of broadband home services (BHS) and suppliers suggest the need for a figure able to coordinate all the agents in sector with the final user. Consequently, organizational structures tend to be decentralized. Responding to this fact, the concept of interorganizational co-operation also is raising in the residential market. Therefore, both of these business processes, building and home service supply, must be complemented with a technological platform that supports these processes and guarantees the aggregation and integration of the several services over building lifecycle. In this context of a technological platform and the permanent evolution of information systems is where the relevance of the concept of inter-organizational information system (IOIS) emerges. IOIS improves linkages between trading partners along the supply chain. However, IOIS adoption has proved to be difficult and not fully accomplished yet. This research reviews the literature in order to focus a model of IOIS adoption. This PhD Thesis presents a model of virtual association, a framework of the relationships, an identification of the information requirements and the corresponding information flows, using the multi-agent system approach. IOIS has become a source of innovation and a strategic tool for SMEs to obtain competitive advantage. Because of the inherent complexity of IOIS adoption, this research extends Kurnia and Johnston’s (2000) theoretical model of IOIS adoption with an empirical model of IOIS characterization. The resultant model aims to foster further service innovation in the sector by identifying the factors influencing IOIS adoption by the SMEs in the building sector as a source of competitive and collaborative advantage. Therefore, this PhD Thesis characterizes an IOIS model to support integrated management of building processes and home services. IOIS validity, as source and holder of competitive advantages, is related to the need for reliable information interchanges to improve interrelationship management. The final goal is to favor tracking of more complex projects in building sector and to contribute to consolidation of the information society through the provision of broadband home services and home automation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La batería acústica es un instrumento de percusión muy complejo que requiere altas dosis de coordinación, interdependencia y musicalidad. Los músicos necesitan nuevas formas de desarrollarse y expresarse. Buscando caminos que mejoren su comprensión. Así también los aprendices requieren herramientas para poder disfrutar del instrumento musical. Construir un disparador MIDI mejora esas prestaciones. Aumenta la cantidad de soni-dos, es adaptable a la forma de tocar y simplifica los conceptos evitando problemas a los principiantes. Actualmente existen escasos disparadores MIDI en el mercado. En su lugar se presen-tan módulos electrónicos con altas características, complejos de utilizar y con alto coste. El proyecto a implementar consiste en un disparador MIDI, un equipo cuyo fin es cap-tar los impactos que efectúa un músico; un percusionista. En el proyecto se estudian y analizan las problemáticas a las que se enfrenta este tipo de dispositivo, se propondrá distintas soluciones de concepto y, finalmente se construirá dicho sistema que será probado en un ordenador personal. Con un ideal en mente, emular una batería acústica y ser un proyecto abierto en el sentido de ser modulable y ampliable. ABSTRACT. Drum set is a very complex percussion instrument that requires a lot of coordination, interdependence and musicality. Musicians need new ways to develop and express themselves, as well as learners re-quire tools to enjoy the musical instrument. Build a MIDI drum trigger improves these benefits. It increases the amount of sounds, is customizable and simplifies problems for drummer beginners. There are currently a few MIDI triggers on the market. Instead, electronic modules with high features, complex to use and they are sold at high cost. The aim of the project is to implement a MIDI drum trigger, a kit to capture the impact that percussionist makes. The project studies and analyzes the problems which this type of device. Different solutions concept will be proposed and finally the system will be built. With an ideal in mind, emulate an acoustic drum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El impacto del fenómeno de interdependencia ventricular en la función diastólica del VD no es bien conocido. El VD es capaz de facilitar el llenado generando presión (P) negativa al inicio de la diástole pero los mecanismos implicados en este fenómeno están aún por dilucidar. Nos propusimos analizar la contribución de las fuerzas de retroceso elástico al llenado del VD y su relación con la geometría del septo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La distribución de nutrientes del suelo presenta una gran variabilidad. Algunos estudios indican la interdependencia entre atributos físico-químicos, concluyendo que se necesitan muestreos densos para caracterizar eficientemente la distribución espacial. Para la realización de este trabajo experimental se han empleado datos tanto espectrales, obtenidos con el espectrofotómetro Veris Vis-NIR, como de referencia, mediante análisis de laboratorio, correspondientes a 341 muestras de suelo de 41 ha. Para ambos tipos de datos se ha realizado un análisis de componentes principales (PCA), y un análisis de Conglomerados (Clúster). En las variables de referencia se escogieron aquellos atributos con mayor coeficiente de variación: arcilla, potasio, fósforo, calcio, magnesio, materia orgánica y capacidad de intercambio catiónica efectiva. El objetivo principal es establecer las necesidades mínimas de muestreo comparando los resultados obtenidos con plantillas cartesianas de distinta resolución, y determinar la relación existente entre la cantidad de nutrientes y la reflectancia espectral Vis-NIR.