53 resultados para Análisis de conceptos formales

em Universidad Politécnica de Madrid


Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tesis analiza los antecedentes y el contexto arquitectónico de aquellas obras que se pueden enmarcar dentro del concepto de lo Grande. Arrancando en los movimientos utópicos, megaestructuralistas o radicales de los años sesenta, nos conduce hasta conceptos, proyectos y teorías contemporáneos. Para ello es preciso, definir lo Grande no solo a través de cuestiones dimensionales, sino también de cambio de dimensión espacial y conceptual. Se estudian arquitecturas, que, una vez superado un cierto volumen, magnitud o grado de complejidad, se convierten en un ‘edificio grande’, adquiriendo propiedades de otra naturaleza, generando un cambio o salto entre escalas, o un desplazamiento entre campos, rompiendo los límites habituales de la escala, el tamaño u otras codificaciones con las que se categorizan los proyectos entre la ‘arquitectura’ y la ‘ciudad’. El cuerpo de tesis principal se estructura en dos secciones, ‘Genealogías y asociaciones’ y ‘Desplazamiento de conceptos’, y una Conclusión, que trata de compilar las consideraciones o conclusiones extraídas de lo anterior, construyendo así la propia teoría de lo Grande. Genealogías y asociaciones revisa las formas de conocimiento que contextualizan lo Grande, haciendo un barrido de las estructuras sociales, económicas y políticas, desde una perspectiva y un marco con influencia directa en la arquitectura. Recorre teorías, tesis y proyectos que reflexionan o trabajan en lo Grande y en los límites entre las escalas desde la década de los sesenta hasta hoy día. En ese barrido examina conceptos y condiciones capaces de abrir nuevos paradigmas y escenarios arquitectónicos. El contexto sociocultural que lo enmarca resulta crucial para definir posteriormente conceptos, en un barrido desde la cultura de masas a la sociedad de la información, repasando la influencia y repercusión que ha tenido la tecnología y la globalización en el desarrollo de la arquitectura. Por último, se estudian conceptos entre el espacio y a la política, mediante una análisis que enmarque las posiciones de apoyo, refuerzo o rechazo en la relación de la obra de arquitectura y la naturaleza política que esta adquiere por la mera condición de ser Grande. Desplazamiento de conceptos, ofrece condiciones y ejemplos que permiten definir las ‘propiedades’ de lo Grande, a través de una investigación teórica y analítica de las herramientas y estrategias que operan en estas escalas, para confirmar cómo, desarrollos aparentemente cuantitativos, pueden dar lugar a avances cualitativos o a mutaciones que permitan superar los paradigmas anteriores. El objetivo es la definición del conjunto de instrumentos, estrategias y operaciones que sintetizan los valores de cada concepto, con las que construir una ‘cosmogonía’ sobre el tema, apoyándose para ello en textos de referencia, proyectos paradigmáticos y conceptos derivados de los análisis. Los conceptos a estudio devienen directamente de ciertos atributos y características detectadas en las genealogías de lo Grande. Así, consideramos Grande a aquella arquitectura cuya escala y tamaño ha experimentado lo que definiremos como ‘cambio de dimensiones’, no solo a nivel dimensional, sino también perceptivo, técnico y contextual; su tamaño no solo depende de sus magnitudes sino también de la cantidad de materia que contiene el sistema o que circula por él; que tiene trazas, dotes y propiedades de infraestructura; que está instalada, y por tanto, es reactiva con el medio; por ello, es al mismo tiempo autónoma respecto al todo, aunque relacionada con él; un espacio capaz de aceptar la indeterminación de ciertas partes frente a la especificidad de otras, como forma de admitir la pérdida del control total y el detalle; por tanto, que ha desplazado la planificación y el diseño por la investigación programática y la estrategia operativa. En definitiva una arquitectura que desplaza o muta conceptos, atributos y estrategias de otras disciplinas, de los saltos entre escalas y de los nuevos programas. ABSTRACT The thesis will analyze the architectural background and context of those works which can be framed within the concept of Bigness. From the utopian, megastructuralism and radical movements of the sixties, it will lead to contemporary concepts, projects and theories, and ultimately define a theory of Bigness. It will be necessary to define Bigness or the Large, not only in terms of size, but also considering change in spatial and conceptual dimensions. Its case studies are architectures which, surpassing a certain volume, magnitude or degree of complexity, become a ‘large building’ and acquire characteristics of another nature. This generates a change or ‘leap’ in scale, or a displacement in fields, breaking the conventional limits of scale, size and other codes used to categorise projects within ‘architecture’ or the ‘city’. The main body of the thesis is structured into two sections, Genealogies and Associations and Displacement of Concepts, and the Conclusion, which will compile the considerations and conclusions extracted from the previous parts, building the actual theory of Bigness. The first section, Genealogies and Associations, will review the forms of knowledge which contextualize the Large, covering a spectrum of social, economic and political structures from the framework and perspective of their direct influence on architecture. It will account theories, thesis and projects which reflect or work on Bigness and on the limits between scales from the sixties to today, examining those concepts and conditions which may be useful to unfold new settings and paradigms. As the sociocultural context will also prove crucial in order to later define concepts, a broad sweep will cover from the mass society to the information society, revising the influence and repercussions of technology and globalization on the development of architecture. Lastly, it will study concepts in-between space and politics, by means of a study framing positions of support, assistance or rejection towards the work of architecture, and the political nature the work is given only due to its condition of being Big. The following section, Displacement of Concepts, provides conditions and examples which allow the definition of the ‘characteristics’ of Bigness by means of a theoretical and analytical investigation of the tools and strategies which operate on these scales. This is in order to confirm how apparently quantitative developments can lead to qualitative advances or to mutations that enable the overcoming of previous paradigms. The objective is to define the set of strategies, operations and tools, which synthesize the values of each concept; the grounding for a “cosmogony” of the subject, underpinned by relevant reference texts, paradigmatic projects and concepts stemming from the analyses. The concepts of study arise directly from certain attributes and characteristics detected in Bigness. For this purpose, it is that architecture whose dimensions and size have experienced what we will define as a ‘change of dimensions’, not only of size, but also perceptual, technical and contextual;its size depends not only on its magnitude but also the amount of material that contains or flows through system; which possesses traits, faculties and features of an infrastructure; which is installed, and is therefore reactive with its surroundings; due to this, it will be autonomous with respect to the whole and yet related to it; a space which can accept the undetermined nature of some of its parts as well as the specificity of other parts, acknowledging the loss of total control and detail; and thus, which has displaced planning and design with operational strategies. In conclusion, an architecture that displaces or mutates concepts, attributes and strategies stemming from other disciplines, from the jumps between scales, and from the new programs.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En la actualidad, se observa un creciente interés en el estudio de modelos empresariales inclusivos que promueven la generación de oportunidades para el desarrollo y que tienen por objetivo la mejora del nivel de vida de las personas que sufren exclusión social. La empresa social, entendida en sentido amplio como una organización que busca la creación de valor social a través de la realización de una actividad económica, puede tener un amplio potencial demostrador y erigirse en un modelo que sirva de referencia para diseñar las organizaciones sostenibles del futuro. Este artículo describe el concepto de empresa social desde dos puntos de vista diferentes – el de la tradición europea de economía social y el de las nuevas propuestas de empresas provenientes de contextos de países en desarrollo-, propone un modelo para el análisis organizativo de las empresas sociales y aplica este modelo al caso de la organización Grameen-Danone.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In recent years, interest has been drawn towards new inclusive business models designed to generate opportunities for human development and thus improve the living standards of the poorest. Social enterprise, defined as an organization that aims to create social value by developing an economic activity, can influence change and therefore serve as a model to create sustainable organizations in the coming years. This paper will describe the concept of social enterprise from two different points of view ? that of the traditional European social economy and the developing economies approach. In addition, it will propose a model for the organizational analysis and will apply the suggested model in the case of Grameen-Danone.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gestión del conocimiento y el capital intelectual son conceptos complejos de difícil implantación en las organizaciones y desde nuestra perspectiva, sólo es posible entenderlos desde un punto de vista socio-técnico, es decir, donde el componente humano establece una relación de sinergia con elementos tecnológicos y culturales para ampliar sus capacidades. El modelo exploratorio propuesto está basado en una relación causa-efecto, como resultado de la vinculación entre las TI/SI, la cultura y el capital humano con la gestión del conocimiento organizacional, en el marco de un modelo de madurez. La investigación fue desarrollada sobre un grupo de pymes latinoamericanas del sector industrial y manufacturero. Se usaron ecuaciones estructuradas (PLS) como herramientas de análisis estadístico. Estructuralmente se pudo demostrar la validez del modelo, quedando comprobada su fiabilidad, consistencia, estabilidad, calidad y poder de predicción. Mientras que funcionalmente, éste sirvió como apoyo para demostrar que las Pymes aun no han encontrado el equilibrio que les permita aprovechar eficientemente la tecnología instalada y la capacidad de su recurso humano para explotar su capital intelectual. Su desempeño sigue basado fundamentalmente en su cultura organizacional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se evalúa con indicadores de gobernanza urbana la sostenibilidad de las formas de hacer ciudad hibrida compleja del gobierno de la gestión visible (GGV). Argumenta que el GGV hace ciudad para legitimarse por desempeño y fortalecer la gobernanza local, en un contexto de mutaciones múltiples y radicales que tienden a diluir y centralizar el poder local y fractalizar la ciudad, profundizando la segregación sociopolítica-territorial y la ingobernabilidad genética de la ciudad hibrida, poniendo en riesgo el Estado federal descentralizado, el derecho a la ciudad, al gobierno local y la gobernanza urbana y multinivel (hipótesis). La estrategia de evaluación de gobernanza innovadora (EEG+i) diseñada para evaluar la relación entre las formas de hacer ciudad hibrida (variables espaciales) y gobernanza (variable a-espacial) es transversal, multidimensional y se construye desde la complejidad, el análisis de escenarios, formulación de constructos, modelos e indicadores de gobernanza, entretejiendo tres campos de conocimiento, gobierno, ciudad y sostenibilidad, en cuatro fases. La Fase 1, contextualiza la gobernanza en la dramática del siglo XXI. La Fase 2, desarrolla la fundamentación teórico-práctica, nuevos conceptos y un abordaje analítico propio ‘genética territorial’, para analizar y comprehender la complejidad de la ciudad hibrida de países en desarrollo, tejiendo ontogenética territorial y el carácter autopoiético del gen informal. En la Fase 3, se caracterizan las formas de hacer ciudad desde la genética del territorio, se formulan modelos e indicadores de gobernanza con los que se evalúan, aplicando un delphi y cuestionarios, los genes tipológicos-formas de hacer ciudad y validan las conclusiones. En la Fase 4, se correlacionan los resultados de los instrumentos aplicados con la praxis urbana del GGV, durante cuatro periodos de gobierno (1996-2010). Concluyendo que, la estrategia de evaluación comprobó las hipótesis y demostró la correlación transversal y multinivel existente entre, las mutaciones en curso que contradicen el modelo de gobernanza constitucional, el paisaje de gobernanza latinoamericano y venezolano, la praxis de los regímenes híbridos ricos en recursos naturales, las perspectivas de desarrollo globales y se expresa sociopolíticamente en déficit de gobernanza, Estado de derecho y cohesión-capital social y, espaciolocalmente, en la ciudad hibrida dispersa y diluida (compleja) y en el gobierno del poder diluido centralizado. La confrontación de flujos de poder centrípetos y centrífugos en la ciudad profundiza la fragmentación socioespacial y política y el deterioro de la calidad de vida, incrementando las protestas ciudadanas e ingobernabilidad que obstaculiza la superación de la pobreza y gobernanza urbana y multinivel. La evaluación de la praxis urbana del GGV evidenció que la correlación entre gobernanza, la producción de genes formales y la ciudad por iniciativa privada tiende a ser positiva y entre gobernanza, genes y producción de ciudad informal negativa, por el carácter autopoiético-autogobernable del gen informal y de los nuevos gobiernos sublocales que dificulta gobernar en gobernanza. La praxis del GGV es contraria al modelo de gobernanza formulado y la disolución centralizada del gobierno local y de la ciudad hibrida-dispersa es socio-espacial y políticamente insostenible. Se proponen estrategias y tácticas de gobernanza multinivel para recuperar la cohesión social y de planificación de la gestión innovadora (EG [PG] +i) para orquestar, desde el Consejo Local de Gobernanza (CLG) y con la participación de los espacios y gobiernos sublocales, un proyecto de ciudad compartido y sostenible. ABSTRACT The sustainability of the forms of making the hybrid-complex city by the visible management government (VMG) is evaluated using urban governance indicators. Argues that the VMG builds city to legitimate itself by performance and to strengthen local governance in a context of multiple and radical mutations that tend to dilute and centralize local power and fractalize the city, deepening the socio-spatial and political segregation, the genetic ingovernability of the hybrid city and placing the decentralized federal State, the right to city, local government and urban governance at risk (hypothesis). The innovative governance evaluation strategy (GES+i) designed to assess the relationship between the forms of making the hybrid city (spatial variables) and governance (a-spatial variable) is transversal, multidimensional; is constructed from complexity, scenario analysis, the formulation of concepts, models and governance indicators, weaving three fields of knowledge, government, city and sustainability in four phases. Phase 1, contextualizes governance in the dramatic of the twenty-first century. Phase 2, develops the theoretical and practical foundations, new concepts and a proper analytical approach to comprehend the complexity of the hybrid city from developing countries, weaving territorial ontogenetic with the autopiethic character of the informal city gen. In Phase 3, the ways of making city are characterized from the genetics of territory; governance indicators and models are formulated to evaluate, using delphi and questionnaires, the ways of making city and validate the conclusions. In Phase 4, the results of the instruments applied are correlated with the urban praxis of the VMG during the four periods of government analyzed (1996-2010). Concluding that, the evaluation strategy proved the hypothesis and showed the transversal and multilevel correlation between, mutations that contradict the constitutional governance model, the governance landscape of Latinamerica and the country, the praxis of the hybrid regimes rich in natural resources, the perspectives of the glocal economy and expresses socio-politically the governance and rule of law and social capital-cohesion deficit and spatial-temporarily the hybrid disperse and diluted city (complex) and the diluted-centralized local government. The confrontation of flows of power centripetal and centrifugal in the city deepens the socio-spatial and political fragmentation and deterioration of the quality of life, increasing citizens' protests and ingovernability which hinders poverty eradication and, multilevel and urban governance. The evaluation of the VMG urban praxis showed the correlation between governance, the production of formal genes and city by private initiative tended to be positive and, between informal genes-city production and governance negative, due to its autopiethic-self governable character that hinders governance. The urban praxis of the VMG contradicts the formulated governance model and thecentralized dissolution of the local government and hybrid city are socio-spatial and politically unsustainable. Multiscale governance strategies are proposed to recreate social cohesion and a management planning innovative method (EG [PG] + i) to orchestrate, from the Local Governance Council (LGC) and with the participation of sublocal governments and spaces, a shared and sustainable city project.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La complejidad en los proyectos y la complejidad en dirección de proyectos son conceptos cuyo interés va en aumento. En la primera parte de esta investigación se conceptualiza la complejidad en dirección de proyectos desde diferentes dimensiones y se caracteriza la evolución del término hasta la fecha. En una segunda parte se abordan las herramientas existentes para el análisis y evaluación de la complejidad en dirección de proyectos. La metodología desarrollada consiste en una investigación teórica, con la finalidad de conocer el estado del arte del tema en cuestión y su evolución en el tiempo. Tras el análisis realizado y la evolución de los estándares y tendencias internacionales, en esta investigación se propone la complejidad social, como una tercera dimensión de la dirección de proyectos complejos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La estrategia i2010 de la UE tiene como objetivo garantizar el liderazgo europeo en materia de TIC y poner los beneficios de la Sociedad de la Información al servicio de la economía, la sociedad y la calidad de vida personal, teniendo presente que los éxitos de Europa hasta la fecha se han basado en favorecer la competencia leal en los mercados de las telecomunicaciones y crear un mercado sin fronteras para contenidos y medios de comunicación digitales. En esta línea, la Comisión Europea ha establecido que los distintos estados miembros deben contribuir activamente al desarrollo y uso seguro de los servicios telemáticos entre sus ciudadanos. Más concretamente, atribuye a las Administraciones Públicas, tanto a nivel nacional, regional como local, un papel dinamizador de la Sociedad de la Información que les obliga a ofrecer paulatinamente todos los actos administrativos a los ciudadanos a través de Internet. Como primer paso para el uso seguro de los servicios telemáticos que ofrecen las instituciones públicas se hace preciso dotar a los ciudadanos de una identidad digital que les permita identificarse ante un Proveedor de Servicio o ante otros ciudadanos de manera inequívoca. Por esta razón, la mayoría de países europeos – y otros en el resto del mundo – están promoviendo, sistemas fiables de gestión de identidad electrónica (eIDM), de tal manera que los ciudadanos, las empresas y departamentos gubernamentales (incluso en Estados miembros diferentes) pueden identificar y certificar sus operaciones con precisión, rapidez y sencillez. Sin embargo, la gestión de esta identidad por las Administraciones Públicas supone un importante desafío, acentuado cuando se hace necesaria la interoperabilidad entre Administraciones de diferentes países, puesto que personas y entidades tienen credenciales de identificación diferentes en función de su propio marco jurídico nacional. Consciente del problema, en la Unión Europea se han puesto en marcha una serie de proyectos con el objetivo de conseguir la interoperabilidad de los eIDMs entre las instituciones públicas de diferentes Estados miembros. A pesar de ello, las soluciones adoptadas hasta la fecha son insuficientes porque no prevén todos los posibles casos de interacción del usuario con las instituciones. En concreto, no tienen en cuenta un aspecto muy importante que se ofrece en los distintos sistemas jurídicos nacionales, a saber, la delegación de la identidad, mediante la cual un ciudadano puede autorizar a otro para que actúe en su nombre para acceder a determinados servicios prestados por las instituciones públicas. En esta tesis se realizan un conjunto de aportaciones que dan solución a distintos aspectos de los problemas planteados y que, de forma conjunta, permiten la interoperabilidad y la delegación de identidad en determinados Sistemas de Gestión de Identidad aplicados al entorno de las Administraciones Públicas. En el caso de la delegación, se ha definido un sistema de delegación dinámica de identidad entre dos entidades genéricas que permite solucionar el problema del acceso delegado a los servicios telemáticos ofrecidos por las Administraciones Públicas. La solución propuesta se basa en la generación de un token de delegación, constituido a partir de un Certificado Proxy, que permite a la entidad que delega establecer la delegación de identidad en otra entidad en base a un subconjunto de sus atributos como delegador, estableciendo además, en el propio token de delegación, restricciones en el conjunto de servicios accesibles a la entidad delegada y el tiempo de validez de la delegación. Adicionalmente, se presentan los mecanismos necesarios tanto para poder revocar un token de delegación como para comprobar sin un token de delegación ha sido o no revocado. Para ello se propone una solución para la identificación unívoca de tokens de delegación y la creación de una nueva entidad denominada Autoridad de Revocación de Tokens de Delegación. Entre las características del sistema de delegación propuesto destaca el que es lo suficientemente seguro como para ser utilizado en el entorno de la Administración Pública, que no requiere el uso de mecanismos off‐line para la generación de la delegación y que se puede realizar la delegación de forma instantánea y sin la necesidad de trámites complejos o la participación de un elevado número de entidades. Adicionalmente, el token de delegación propuesto es perfectamente integrable en las infraestructura de clave pública actual lo que hace que, dado que gran parte de las Administraciones Públicas europeas basan sus sistemas de identidad digital en el uso de la PKI y certificados de identidad X.509, la solución pueda ser puesta en marcha en un entorno real sin necesidad de grandes cambios o modificaciones de comportamiento. En lo referente a la interoperabilidad, se realiza un análisis exhaustivo y la correspondiente evaluación de las principales propuestas de Sistemas de Gestión de Identidad orientados a conseguir la interoperabilidad realizadas hasta la fecha en el marco de la Unión Europea y se propone, a alto nivel, una arquitectura de interoperabilidad para la gestión de identidad en las Administraciones Públicas. Dicha arquitectura es lo suficientemente genérica como para poder ser aplicada tanto en el entorno pan‐Europeo como en los entornos nacionales, autonómicos y locales, de tal forma que la interoperabilidad en la gestión de la identidad esté garantizada en todos los niveles de la Administración Pública. Por último, mediante la integración de la solución de delegación dinámica de identidad y la arquitectura de interoperabilidad propuestas se presenta una solución al problema de la delegación en un escenario pan‐Europeo de gestión de identidad, dando lugar a una arquitectura global de interoperabilidad pan‐Europea con soporte a la delegación de identidad. SUMMARY The i2010 European Union Plan aims to ensure European leadership in ICT and to promote the positive contribution that information and communication technologies can make to the economic, social and personal quality of life, bearing in mind that, to date, success in Europe has been based on promoting fair competition in telecommunications markets and on creating a borderless market for contents and digital media. In this line, the European Commission has established that the different member states should contribute actively to the development and secure use of telematic services among their citizens. More specifically, it is attributed to national, regional and local Public Administrations to have a supportive role of the Information Society, requiring them to gradually provide the citizens with Internet‐based access to all administrative procedures acts. As a first step for the secure use of telematic services offered by public institutions, it is necessary to provide the citizens with a digital identity to enable them to identify themselves unequivocally to a Service Provider or to other citizens. For this reason, most European countries ‐ and others in the rest of the world ‐ are promoting reliable systems for managing electronic identity (eIDM), so that citizens, businesses and government departments (even in different Member States) can identify and certify their operations with precision, speed and simplicity. However, the identity management by Public Administrations is a major challenge that becomes more difficult when interoperability between administrations of different countries is needed, due to the fact that individuals and entities have different identification credentials according to their own national legal framework. Aware of the problem, the European Union has launched a series of projects with the aim of achieving interoperability of eIDMs between public institutions of different Member States. However, the solutions adopted to date are insufficient because they do not foresee all possible cases of user interaction with the institutions. In particular, solutions do not take into account a very important aspect that is offered in different national legal systems, namely, the delegation of identity, by which a citizen can authorize another to act on his/her behalf to access certain services provided by public institutions. In this thesis a collection of contributions that provide solution to different aspects of the aforementioned problems are carried out. The solutions, in global, enable interoperability and identity delegation in some of the Identity Management Systems applied to Public Administration environment. In the case of delegation, a dynamic identity delegation system between generic entities is defined. This system makes it possible to solve the problem of delegated access to telematic services offered by Public Administrations. The proposed solution is based on the generation of a piece of information called delegation token. This delegation token, derived from a Proxy Certificate, allows the establishment of identity delegation by an entity that delegates (delegator) in other entity (delegatee) making use of a subset of delegator attributes. It also establishes restrictions on services that can be used by the delegated entity and the expiry date of delegation. In addition to this, the mechanisms necessary to revoke and check the revocation status of a delegation token are presented. To do this, a solution to univocally identify delegation tokens and the creation of a completely new entity, called Token Delegation Revocation Authority, are proposed. The most remarkable characteristics of the proposed delegation system are its security, enough for it to be used in the Public Administration environment, the fact that it does not require off‐line processes in order to generate the delegation, and the possibility of performing the delegation instantaneously and without neither complex processes nor the intervention of a large number of entities. The proposed delegation token can be completely incorporated into current Public Key Infrastructure (PKI). Thus, since most of the European Public Administrations base their digital identity systems on PKI and X.509 identity certificates, the solution can be adopted in a real environment without great changes or performance modifications. Regarding interoperability, an exhaustive analysis and evaluation of most significant proposals on Identity Management Systems that aim to achieve interoperability carried out in the European Union framework until now are performed. A high level identity management interoperability architecture for Public Administrations is also proposed. This architecture is sufficiently generic to be applied to both pan‐European environment and national, regional or local environments, thus interoperability in identity management at all Public Administration levels is guaranteed. Finally, through the integration of the proposed dynamic identity delegation solution and the high level interoperability architecture, a solution to the problem of identity delegation in a pan‐European identity management environment is suggested, leading to a pan‐European global interoperability architecture with identity delegation support.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo principal del proyecto es la realización de una aplicación en el programa MATLAB. En primer lugar, realizaremos un estudio teórico relativo al tema de nuestro proyecto. En nuestro caso como el tema es Imagen y Televisión, explicaremos de forma teórica la información principal acerca del Tratamiento Digital de la Imagen. Una vez conocida las técnicas principales utilizadas en el tratamiento digital, realizaremos un estudio exhaustivo en las técnicas actuales que existen acerca del análisis de imágenes. Daremos una breve explicación mostrando en qué consiste esta técnica, los diferentes pasos que se llevan a cabo en una imagen para su análisis, explicando brevemente cada unos de ellos y enumerando algunas técnicas para la realización de cada una de ellas. Tras esta primera parte, nos centraremos en las técnicas de correlación de imágenes (DIC). Explicaremos como han surgido estas técnicas, cual son sus principales conceptos, sus inicios y las ventajas e inconvenientes que tienen. Dentro de las diferentes técnicas de correlación de imágenes, explicaremos de forma detallada la correspondencia por áreas, ya que es la técnica que vamos a utilizar para la realización del proyecto. Explicaremos en qué consiste, y desarrollaremos teóricamente cual son los pasos que se deben realizar en las imágenes para realizar esta técnica. Explicaremos cual es su terminología, y cuáles son los posibles defectos que puede tener esta técnica. Finalmente, una vez estudiada la teoría, realizaremos una sencilla aplicación que nos permita evaluar y encontrar las diferencias en una secuencia de imágenes. El programa utilizado para este proyecto es MATLAB, que es un programa matemático, utilizado enormemente en el ámbito de la ingeniería. Mediante esta aplicación obtendremos dos figuras, una de ellas donde veremos los vectores de movimiento que existen entre las dos imágenes y la segunda, donde obtendremos el factor de correlación que hay entre las dos imágenes. ABSTRACT OF MY PROJECT The main objective of the project is the development of an application in MATLAB program. Firstly carry out a theoretical study on the topic of our project. In our case as the theme is Picture and Television, we explain the main information about Digital Image Processing. Once known the main techniques used in digital images, we will make a study on current techniques that exist about image analysis. We will give a brief explanation showing what this technique is, the different steps that are performed on an image for analysis, briefly explaining each of them and listing some techniques for performing each. After this first part, we will focus on the techniques of image correlation (DIC). We explain how these techniques have emerged, which are the main concepts, the beginning and the advantages and disadvantages they have. There are different image correlation techniques. We will explain in detail the correspondence areas, as it is the technique that we will use for the project. Explain what it is, which is theoretically and we develop steps that must be performed on the images for this technique. We explain what their terminology is, and what are the possible defects that may have this technique. Finally, having explored the theory images, we will make a simple application that allows us to evaluate and find differences in a sequence of images. The program used for this project is MATLAB, a mathematical program, widely used in the field of engineering. Using this application will get two figures, one where we will see the motion vectors between the two images and the second where we get the correlation factor between the two images.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesis doctoral CONTRIBUCIÓN AL ESTUDIO DE DOS CONCEPTOS BÁSICOS DE LA LÓGICA FUZZY constituye un conjunto de nuevas aportaciones al análisis de dos elementos básicos de la lógica fuzzy: los mecanismos de inferencia y la representación de predicados vagos. La memoria se encuentra dividida en dos partes que corresponden a los dos aspectos señalados. En la Parte I se estudia el concepto básico de «estado lógico borroso». Un estado lógico borroso es un punto fijo de la aplicación generada a partir de la regla de inferencia conocida como modus ponens generalizado. Además, un preorden borroso puede ser representado mediante los preórdenes elementales generados por el conjunto de sus estados lógicos borrosos. El Capítulo 1 está dedicado a caracterizar cuándo dos estados lógicos dan lugar al mismo preorden elemental, obteniéndose también un representante de la clase de todos los estados lógicos que generan el mismo preorden elemental. El Capítulo finaliza con la caracterización del conjunto de estados lógicos borrosos de un preorden elemental. En el Capítulo 2 se obtiene un subconjunto borroso trapezoidal como una clase de una relación de indistinguibilidad. Finalmente, el Capítulo 3 se dedica a estudiar dos tipos de estados lógicos clásicos: los irreducibles y los minimales. En el Capítulo 4, que inicia la Parte II de la memoria, se aborda el problema de obtener la función de compatibilidad de un predicado vago. Se propone un método, basado en el conocimiento del uso del predicado mediante un conjunto de reglas y de ciertos elementos distinguidos, que permite obtener una expresión general de la función de pertenencia generalizada de un subconjunto borroso que realice la función de extensión del predicado borroso. Dicho método permite, en ciertos casos, definir un conjunto de conectivas multivaluadas asociadas al predicado. En el último capítulo se estudia la representación de antónimos y sinónimos en lógica fuzzy a través de auto-morfismos. Se caracterizan los automorfismos sobre el intervalo unidad cuando sobre él se consideran dos operaciones: una t-norma y una t-conorma ambas arquimedianas. The PhD Thesis CONTRIBUCIÓN AL ESTUDIO DE DOS CONCEPTOS BÁSICOS DE LA LÓGICA FUZZY is a contribution to two basic concepts of the Fuzzy Logic. It is divided in two parts, the first is devoted to a mechanism of inference in Fuzzy Logic, and the second to the representation of vague predicates. «Fuzzy Logic State» is the basic concept in Part I. A Fuzzy Logic State is a fixed-point for the mapping giving the Generalized Modus Ponens Rule of inference. Moreover, a fuzzy preordering can be represented by the elementary preorderings generated by its Fuzzy Logic States. Chapter 1 contemplates the identity of elementary preorderings and the selection of representatives for the classes modulo this identity. This chapter finishes with the characterization of the set of Fuzzy Logic States of an elementary preordering. In Chapter 2 a Trapezoidal Fuzzy Set as a class of a relation of Indistinguishability is obtained. Finally, Chapter 3 is devoted to study two types of Classical Logic States: irreducible and minimal. Part II begins with Chapter 4 dealing with the problem of obtaining a Compa¬tibility Function for a vague predicate. When the use of a predicate is known by means of a set of rules and some distinguished elements, a method to obtain the general expression of the Membership Function is presented. This method allows, in some cases, to reach a set of multivalued connectives associated to the predicate. Last Chapter is devoted to the representation of antonyms and synonyms in Fuzzy Logic. When the unit interval [0,1] is endowed with both an archimedean t-norm and a an archi-medean t-conorm, it is showed that the automorphisms' group is just reduced to the identity function.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro de la computación con membranas. Se trata de un tipo de computación bio-inspirado, concretamente basado en las células de los organismos vivos, en las que se producen múltiples reacciones de forma simultánea. A partir de la estructura y funcionamiento de las células se han definido diferentes modelos formales, denominados P sistemas. Estos modelos no tratan de modelar el comportamiento biológico de una célula, sino que abstraen sus principios básicos con objeto de encontrar nuevos paradigmas computacionales. Los P sistemas son modelos de computación no deterministas y masivamente paralelos. De ahí el interés que en los últimos años estos modelos han suscitado para la resolución de problemas complejos. En muchos casos, consiguen resolver de forma teórica problemas NP-completos en tiempo polinómico o lineal. Por otra parte, cabe destacar también la aplicación que la computación con membranas ha tenido en la investigación de otros muchos campos, sobre todo relacionados con la biología. Actualmente, una gran cantidad de estos modelos de computación han sido estudiados desde el punto de vista teórico. Sin embargo, el modo en que pueden ser implementados es un reto de investigación todavía abierto. Existen varias líneas en este sentido, basadas en arquitecturas distribuidas o en hardware dedicado, que pretenden acercarse en lo posible a su carácter no determinista y masivamente paralelo, dentro de un contexto de viabilidad y eficiencia. En esta tesis doctoral se propone la realización de un análisis estático del P sistema, como vía para optimizar la ejecución del mismo en estas plataformas. Se pretende que la información recogida en tiempo de análisis sirva para configurar adecuadamente la plataforma donde se vaya a ejecutar posteriormente el P sistema, obteniendo como consecuencia una mejora en el rendimiento. Concretamente, en esta tesis se han tomado como referencia los P sistemas de transiciones para llevar a cabo el estudio de dicho análisis estático. De manera un poco más específica, el análisis estático propuesto en esta tesis persigue que cada membrana sea capaz de determinar sus reglas activas de forma eficiente en cada paso de evolución, es decir, aquellas reglas que reúnen las condiciones adecuadas para poder ser aplicadas. En esta línea, se afronta el problema de los estados de utilidad de una membrana dada, que en tiempo de ejecución permitirán a la misma conocer en todo momento las membranas con las que puede comunicarse, cuestión que determina las reglas que pueden aplicarse en cada momento. Además, el análisis estático propuesto en esta tesis se basa en otra serie de características del P sistema como la estructura de membranas, antecedentes de las reglas, consecuentes de las reglas o prioridades. Una vez obtenida toda esta información en tiempo de análisis, se estructura en forma de árbol de decisión, con objeto de que en tiempo de ejecución la membrana obtenga las reglas activas de la forma más eficiente posible. Por otra parte, en esta tesis se lleva a cabo un recorrido por un número importante de arquitecturas hardware y software que diferentes autores han propuesto para implementar P sistemas. Fundamentalmente, arquitecturas distribuidas, hardware dedicado basado en tarjetas FPGA y plataformas basadas en microcontroladores PIC. El objetivo es proponer soluciones que permitan implantar en dichas arquitecturas los resultados obtenidos del análisis estático (estados de utilidad y árboles de decisión para reglas activas). En líneas generales, se obtienen conclusiones positivas, en el sentido de que dichas optimizaciones se integran adecuadamente en las arquitecturas sin penalizaciones significativas. Summary Membrane computing is the focus of this doctoral thesis. It can be considered a bio-inspired computing type. Specifically, it is based on living cells, in which many reactions take place simultaneously. From cell structure and operation, many different formal models have been defined, named P systems. These models do not try to model the biological behavior of the cell, but they abstract the basic principles of the cell in order to find out new computational paradigms. P systems are non-deterministic and massively parallel computational models. This is why, they have aroused interest when dealing with complex problems nowadays. In many cases, they manage to solve in theory NP problems in polynomial or lineal time. On the other hand, it is important to note that membrane computing has been successfully applied in many researching areas, specially related to biology. Nowadays, lots of these computing models have been sufficiently characterized from a theoretical point of view. However, the way in which they can be implemented is a research challenge, that it is still open nowadays. There are some lines in this way, based on distributed architectures or dedicated hardware. All of them are trying to approach to its non-deterministic and parallel character as much as possible, taking into account viability and efficiency. In this doctoral thesis it is proposed carrying out a static analysis of the P system in order to optimize its performance in a computing platform. The general idea is that after data are collected in analysis time, they are used for getting a suitable configuration of the computing platform in which P system is going to be performed. As a consequence, the system throughput will improve. Specifically, this thesis has made use of Transition P systems for carrying out the study in static analysis. In particular, the static analysis proposed in this doctoral thesis tries to achieve that every membrane can efficiently determine its active rules in every evolution step. These rules are the ones that can be applied depending on the system configuration at each computational step. In this line, we are going to tackle the problem of the usefulness states for a membrane. This state will allow this membrane to know the set of membranes with which communication is possible at any time. This is a very important issue in determining the set of rules that can be applied. Moreover, static analysis in this thesis is carried out taking into account other properties such as membrane structure, rule antecedents, rule consequents and priorities among rules. After collecting all data in analysis time, they are arranged in a decision tree structure, enabling membranes to obtain the set of active rules as efficiently as possible in run-time system. On the other hand, in this doctoral thesis is going to carry out an overview of hardware and software architectures, proposed by different authors in order to implement P systems, such as distributed architectures, dedicated hardware based on PFGA, and computing platforms based on PIC microcontrollers. The aim of this overview is to propose solutions for implementing the results of the static analysis, that is, usefulness states and decision trees for active rules. In general, conclusions are satisfactory, because these optimizations can be properly integrated in most of the architectures without significant penalties.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las Tecnologías de la Información y la Comunicación en general e Internet en particular han supuesto una revolución en nuestra forma de comunicarnos, relacionarnos, producir, comprar y vender acortando tiempo y distancias entre proveedores y consumidores. A la paulatina penetración del ordenador, los teléfonos inteligentes y la banda ancha fija y/o móvil ha seguido un mayor uso de estas tecnologías entre ciudadanos y empresas. El comercio electrónico empresa–consumidor (B2C) alcanzó en 2010 en España un volumen de 9.114 millones de euros, con un incremento del 17,4% respecto al dato registrado en 2009. Este crecimiento se ha producido por distintos hechos: un incremento en el porcentaje de internautas hasta el 65,1% en 2010 de los cuales han adquirido productos o servicios a través de la Red un 43,1% –1,6 puntos porcentuales más respecto a 2010–. Por otra parte, el gasto medio por comprador ha ascendido a 831€ en 2010, lo que supone un incremento del 10,9% respecto al año anterior. Si segmentamos a los compradores según por su experiencia anterior de compra podemos encontrar dos categorías: el comprador novel –que adquirió por primera vez productos o servicios en 2010– y el comprador constante –aquel que había adquirido productos o servicios en 2010 y al menos una vez en años anteriores–. El 85,8% de los compradores se pueden considerar como compradores constantes: habían comprado en la Red en 2010, pero también lo habían hecho anteriormente. El comprador novel tiene un perfil sociodemográfico de persona joven de entre 15–24 años, con estudios secundarios, de clase social media y media–baja, estudiante no universitario, residente en poblaciones pequeñas y sigue utilizando fórmulas de pago como el contra–reembolso (23,9%). Su gasto medio anual ascendió en 2010 a 449€. El comprador constante, o comprador que ya había comprado en Internet anteriormente, tiene un perfil demográfico distinto: estudios superiores, clase alta, trabajador y residente en grandes ciudades, con un comportamiento maduro en la compra electrónica dada su mayor experiencia –utiliza con mayor intensidad canales exclusivos en Internet que no disponen de tienda presencial–. Su gasto medio duplica al observado en compradores noveles (con una media de 930€ anuales). Por tanto, los compradores constantes suponen una mayoría de los compradores con un gasto medio que dobla al comprador que ha adoptado el medio recientemente. Por consiguiente es de interés estudiar los factores que predicen que un internauta vuelva a adquirir un producto o servicio en la Red. La respuesta a esta pregunta no se ha revelado sencilla. En España, la mayoría de productos y servicios aún se adquieren de manera presencial, con una baja incidencia de las ventas a distancia como la teletienda, la venta por catálogo o la venta a través de Internet. Para dar respuesta a las preguntas planteadas se ha investigado desde distintos puntos de vista: se comenzará con un estudio descriptivo desde el punto de vista de la demanda que trata de caracterizar la situación del comercio electrónico B2C en España, poniendo el foco en las diferencias entre los compradores constantes y los nuevos compradores. Posteriormente, la investigación de modelos de adopción y continuidad en el uso de las tecnologías y de los factores que inciden en dicha continuidad –con especial interés en el comercio electrónico B2C–, permiten afrontar el problema desde la perspectiva de las ecuaciones estructurales pudiendo también extraer conclusiones de tipo práctico. Este trabajo sigue una estructura clásica de investigación científica: en el capítulo 1 se introduce el tema de investigación, continuando con una descripción del estado de situación del comercio electrónico B2C en España utilizando fuentes oficiales (capítulo 2). Posteriormente se desarrolla el marco teórico y el estado del arte de modelos de adopción y de utilización de las tecnologías (capítulo 3) y de los factores principales que inciden en la adopción y continuidad en el uso de las tecnologías (capítulo 4). El capítulo 5 desarrolla las hipótesis de la investigación y plantea los modelos teóricos. Las técnicas estadísticas a utilizar se describen en el capítulo 6, donde también se analizan los resultados empíricos sobre los modelos desarrollados en el capítulo 5. El capítulo 7 expone las principales conclusiones de la investigación, sus limitaciones y propone nuevas líneas de investigación. La primera parte corresponde al capítulo 1, que introduce la investigación justificándola desde un punto de vista teórico y práctico. También se realiza una breve introducción a la teoría del comportamiento del consumidor desde una perspectiva clásica. Se presentan los principales modelos de adopción y se introducen los modelos de continuidad de utilización que se estudiarán más detalladamente en el capítulo 3. En este capítulo se desarrollan los objetivos principales y los objetivos secundarios, se propone el mapa mental de la investigación y se planifican en un cronograma los principales hitos del trabajo. La segunda parte corresponde a los capítulos dos, tres y cuatro. En el capítulo 2 se describe el comercio electrónico B2C en España utilizando fuentes secundarias. Se aborda un diagnóstico del sector de comercio electrónico y su estado de madurez en España. Posteriormente, se analizan las diferencias entre los compradores constantes, principal interés de este trabajo, frente a los compradores noveles, destacando las diferencias de perfiles y usos. Para los dos segmentos se estudian aspectos como el lugar de acceso a la compra, la frecuencia de compra, los medios de pago utilizados o las actitudes hacia la compra. El capítulo 3 comienza desarrollando los principales conceptos sobre la teoría del comportamiento del consumidor, para continuar estudiando los principales modelos de adopción de tecnología existentes, analizando con especial atención su aplicación en comercio electrónico. Posteriormente se analizan los modelos de continuidad en el uso de tecnologías (Teoría de la Confirmación de Expectativas; Teoría de la Justicia), con especial atención de nuevo a su aplicación en el comercio electrónico. Una vez estudiados los principales modelos de adopción y continuidad en el uso de tecnologías, el capítulo 4 analiza los principales factores que se utilizan en los modelos: calidad, valor, factores basados en la confirmación de expectativas –satisfacción, utilidad percibida– y factores específicos en situaciones especiales –por ejemplo, tras una queja– como pueden ser la justicia, las emociones o la confianza. La tercera parte –que corresponde al capítulo 5– desarrolla el diseño de la investigación y la selección muestral de los modelos. En la primera parte del capítulo se enuncian las hipótesis –que van desde lo general a lo particular, utilizando los factores específicos analizados en el capítulo 4– para su posterior estudio y validación en el capítulo 6 utilizando las técnicas estadísticas apropiadas. A partir de las hipótesis, y de los modelos y factores estudiados en los capítulos 3 y 4, se definen y vertebran dos modelos teóricos originales que den respuesta a los retos de investigación planteados en el capítulo 1. En la segunda parte del capítulo se diseña el trabajo empírico de investigación definiendo los siguientes aspectos: alcance geográfico–temporal, tipología de la investigación, carácter y ambiente de la investigación, fuentes primarias y secundarias utilizadas, técnicas de recolección de datos, instrumentos de medida utilizados y características de la muestra utilizada. Los resultados del trabajo de investigación constituyen la cuarta parte de la investigación y se desarrollan en el capítulo 6, que comienza analizando las técnicas estadísticas basadas en Modelos de Ecuaciones Estructurales. Se plantean dos alternativas, modelos confirmatorios correspondientes a Métodos Basados en Covarianzas (MBC) y modelos predictivos. De forma razonada se eligen las técnicas predictivas dada la naturaleza exploratoria de la investigación planteada. La segunda parte del capítulo 6 desarrolla el análisis de los resultados de los modelos de medida y modelos estructurales construidos con indicadores formativos y reflectivos y definidos en el capítulo 4. Para ello se validan, sucesivamente, los modelos de medida y los modelos estructurales teniendo en cuenta los valores umbrales de los parámetros estadísticos necesarios para la validación. La quinta parte corresponde al capítulo 7, que desarrolla las conclusiones basándose en los resultados del capítulo 6, analizando los resultados desde el punto de vista de las aportaciones teóricas y prácticas, obteniendo conclusiones para la gestión de las empresas. A continuación, se describen las limitaciones de la investigación y se proponen nuevas líneas de estudio sobre distintos temas que han ido surgiendo a lo largo del trabajo. Finalmente, la bibliografía recoge todas las referencias utilizadas a lo largo de este trabajo. Palabras clave: comprador constante, modelos de continuidad de uso, continuidad en el uso de tecnologías, comercio electrónico, B2C, adopción de tecnologías, modelos de adopción tecnológica, TAM, TPB, IDT, UTAUT, ECT, intención de continuidad, satisfacción, confianza percibida, justicia, emociones, confirmación de expectativas, calidad, valor, PLS. ABSTRACT Information and Communication Technologies in general, but more specifically those related to the Internet in particular, have changed the way in which we communicate, relate to one another, produce, and buy and sell products, reducing the time and shortening the distance between suppliers and consumers. The steady breakthrough of computers, Smartphones and landline and/or wireless broadband has been greatly reflected in its large scale use by both individuals and businesses. Business–to–consumer (B2C) e–commerce reached a volume of 9,114 million Euros in Spain in 2010, representing a 17.4% increase with respect to the figure in 2009. This growth is due in part to two different facts: an increase in the percentage of web users to 65.1% en 2010, 43.1% of whom have acquired products or services through the Internet– which constitutes 1.6 percentage points higher than 2010. On the other hand, the average spending by individual buyers rose to 831€ en 2010, constituting a 10.9% increase with respect to the previous year. If we select buyers according to whether or not they have previously made some type of purchase, we can divide them into two categories: the novice buyer–who first made online purchases in 2010– and the experienced buyer: who also made purchases in 2010, but had done so previously as well. The socio–demographic profile of the novice buyer is that of a young person between 15–24 years of age, with secondary studies, middle to lower–middle class, and a non–university educated student who resides in smaller towns and continues to use payment methods such as cash on delivery (23.9%). In 2010, their average purchase grew to 449€. The more experienced buyer, or someone who has previously made purchases online, has a different demographic profile: highly educated, upper class, resident and worker in larger cities, who exercises a mature behavior when making online purchases due to their experience– this type of buyer frequently uses exclusive channels on the Internet that don’t have an actual store. His or her average purchase doubles that of the novice buyer (with an average purchase of 930€ annually.) That said, the experienced buyers constitute the majority of buyers with an average purchase that doubles that of novice buyers. It is therefore of interest to study the factors that help to predict whether or not a web user will buy another product or use another service on the Internet. The answer to this question has proven not to be so simple. In Spain, the majority of goods and services are still bought in person, with a low amount of purchases being made through means such as the Home Shopping Network, through catalogues or Internet sales. To answer the questions that have been posed here, an investigation has been conducted which takes into consideration various viewpoints: it will begin with a descriptive study from the perspective of the supply and demand that characterizes the B2C e–commerce situation in Spain, focusing on the differences between experienced buyers and novice buyers. Subsequently, there will be an investigation concerning the technology acceptance and continuity of use of models as well as the factors that have an effect on their continuity of use –with a special focus on B2C electronic commerce–, which allows for a theoretic approach to the problem from the perspective of the structural equations being able to reach practical conclusions. This investigation follows the classic structure for a scientific investigation: the subject of the investigation is introduced (Chapter 1), then the state of the B2C e–commerce in Spain is described citing official sources of information (Chapter 2), the theoretical framework and state of the art of technology acceptance and continuity models are developed further (Chapter 3) and the main factors that affect their acceptance and continuity (Chapter 4). Chapter 5 explains the hypothesis behind the investigation and poses the theoretical models that will be confirmed or rejected partially or completely. In Chapter 6, the technical statistics that will be used are described briefly as well as an analysis of the empirical results of the models put forth in Chapter 5. Chapter 7 explains the main conclusions of the investigation, its limitations and proposes new projects. First part of the project, chapter 1, introduces the investigation, justifying it from a theoretical and practical point of view. It is also a brief introduction to the theory of consumer behavior from a standard perspective. Technology acceptance models are presented and then continuity and repurchase models are introduced, which are studied more in depth in Chapter 3. In this chapter, both the main and the secondary objectives are developed through a mind map and a timetable which highlights the milestones of the project. The second part of the project corresponds to Chapters Two, Three and Four. Chapter 2 describes the B2C e–commerce in Spain from the perspective of its demand, citing secondary official sources. A diagnosis concerning the e–commerce sector and the status of its maturity in Spain is taken on, as well as the barriers and alternative methods of e–commerce. Subsequently, the differences between experienced buyers, which are of particular interest to this project, and novice buyers are analyzed, highlighting the differences between their profiles and their main transactions. In order to study both groups, aspects such as the place of purchase, frequency with which online purchases are made, payment methods used and the attitudes of the purchasers concerning making online purchases are taken into consideration. Chapter 3 begins by developing the main concepts concerning consumer behavior theory in order to continue the study of the main existing acceptance models (among others, TPB, TAM, IDT, UTAUT and other models derived from them) – paying special attention to their application in e–commerce–. Subsequently, the models of technology reuse are analyzed (CDT, ECT; Theory of Justice), focusing again specifically on their application in e–commerce. Once the main technology acceptance and reuse models have been studied, Chapter 4 analyzes the main factors that are used in these models: quality, value, factors based on the contradiction of expectations/failure to meet expectations– satisfaction, perceived usefulness– and specific factors pertaining to special situations– for example, after receiving a complaint justice, emotions or confidence. The third part– which appears in Chapter 5– develops the plan for the investigation and the sample selection for the models that have been designed. In the first section of the Chapter, the hypothesis is presented– beginning with general ideas and then becoming more specific, using the detailed factors that were analyzed in Chapter 4– for its later study and validation in Chapter 6– as well as the corresponding statistical factors. Based on the hypothesis and the models and factors that were studied in Chapters 3 and 4, two original theoretical models are defined and organized in order to answer the questions posed in Chapter 1. In the second part of the Chapter, the empirical investigation is designed, defining the following aspects: geographic–temporal scope, type of investigation, nature and setting of the investigation, primary and secondary sources used, data gathering methods, instruments according to the extent of their use and characteristics of the sample used. The results of the project constitute the fourth part of the investigation and are developed in Chapter 6, which begins analyzing the statistical techniques that are based on the Models of Structural Equations. Two alternatives are put forth: confirmatory models which correspond to Methods Based on Covariance (MBC) and predictive models– Methods Based on Components–. In a well–reasoned manner, the predictive techniques are chosen given the explorative nature of the investigation. The second part of Chapter 6 explains the results of the analysis of the measurement models and structural models built by the formative and reflective indicators defined in Chapter 4. In order to do so, the measurement models and the structural models are validated one by one, while keeping in mind the threshold values of the necessary statistic parameters for their validation. The fifth part corresponds to Chapter 7 which explains the conclusions of the study, basing them on the results found in Chapter 6 and analyzing them from the perspective of the theoretical and practical contributions, and consequently obtaining conclusions for business management. The limitations of the investigation are then described and new research lines about various topics that came up during the project are proposed. Lastly, all of the references that were used during the project are listed in a final bibliography. Key Words: constant buyer, repurchase models, continuity of use of technology, e–commerce, B2C, technology acceptance, technology acceptance models, TAM, TPB, IDT, UTAUT, ECT, intention of repurchase, satisfaction, perceived trust/confidence, justice, feelings, the contradiction of expectations, quality, value, PLS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La utilización del teorema de los trabajos virtuales para el estudio de los mecanismos de colapso de una estructura, permite resolver con elegancia y sencillez los problemas de diseño práctico. En este artículo se recuerdan los conceptos fundamentales y se resuelven algunos ejemplos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La aplicación de criterios de sostenibilidad ha de entenderse como el procedimiento esencial para la necesaria reconversión del sector de la construcción, que movilizando el 10% de la economía mundial, representa más de la tercera parte del consumo mundial de recursos, en torno al 30-40% del consumo energético y emisiones de gases de efecto invernadero, 30-40% de la generación de residuos y el 12% de todo el gasto en agua dulce del planeta. La presente investigación se enmarca en una estrategia general de promover la evaluación de la sostenibilidad en la edificación en el contexto español, dando un primer paso centrado en la evaluación del comportamiento ambiental. El hilo conductor de la investigación parte de la necesidad de establecer un marco teórico de sostenibilidad, que permita clarificar conceptos y definir criterios de valoración adecuados. Como siguiente paso, la investigación se dirige a la revisión del panorama internacional de normativa e instrumentos voluntarios, con el objetivo de clarificar el difuso panorama que caracteriza a la sostenibilidad en el sector de la edificación en la actualidad y enmarcar la investigación en un contexto de políticas y programaciones ya existentes. El objetivo principal reside en el planteamiento de una metodología de evaluación de los aspectos o impactos ambientales asociados al ciclo de vida de la edificación, aplicable al contexto español, como una de las tres dimensiones que constituyen los pilares básicos de la sostenibilidad. Los ámbitos de evaluación de los aspectos sociales y económicos, para los que no existe actualmente un grado de definición metodológico suficientemente congruente, son adicionalmente examinados, de cara a ofrecer una visión holística de la evaluación. Previo al desarrollo de la propuesta, se aborda, en primer lugar, la descripción de las características básicas y limitaciones de la metodología de Análisis de Ciclo de Vida (ACV), para posteriormente proceder a profundizar en el estado del arte de aplicación de ACV a la edificación, realizando una revisión crítica de los trabajos de investigación que han sido desarrollados en los últimos años. Esta revisión permite extraer conclusiones sobre su grado de coherencia con el futuro entorno normativo e identificar dos necesidades prioritarias de actuación: -La necesidad de armonización, dadas las fuertes inconsistencias metodológicas detectadas, que imposibilitan la comparación de los resultados obtenidos en los trabajos de evaluación. -La necesidad de simplificación, dada la complejidad inherente a la evaluación, de modo que, manteniendo el máximo rigor, sea viable su aplicación práctica en el contexto español. A raíz de la participación en los trabajos de desarrollo normativo a nivel europeo, se ha adquirido una visión crítica sobre las implicaciones metodológicas de la normativa en definición, que permite identificar la hoja de ruta que marcará el escenario europeo en los próximos años. La definición de la propuesta metodológica integra los principios generales de aplicación de ACV con el protocolo metodológico establecido en la norma europea, considerando adicionalmente las referencias normativas de las prácticas constructivas en el contexto español. En el planteamiento de la propuesta se han analizado las posibles simplificaciones aplicables, con el objetivo de hacer viable su implementación, centrando los esfuerzos en la sistematización del concepto de equivalente funcional, el establecimiento de recomendaciones sobre el tipo de datos en función de su disponibilidad y la revisión crítica de los modelos de cálculo de los impactos ambientales. Las implicaciones metodológicas de la propuesta se describen a través de una serie de casos de estudio, que ilustran su viabilidad y las características básicas de aplicación. Finalmente, se realiza un recorrido por los aspectos que han sido identificados como prioritarios en la conformación del escenario de perspectivas futuras, líneas de investigación y líneas de acción. Abstract Sustainability criteria application must be understood as the essential procedure for the necessary restructuring of the construction sector, which mobilizes 10% of the world economy, accounting for more than one third of the consumption of the world's resources, around 30 - 40% of energy consumption and emissions of greenhouse gases, 30-40% of waste generation and 12% of all the fresh water use in the world. This research is in line with an overall strategy to promote the sustainability assessment of building in the Spanish context, taking a first step focused on the environmental performance assessment. The thread of the present research sets out from the need to establish a theoretical framework of sustainability which clarifies concepts and defines appropriate endpoints. As a next step, the research focuses on the review of the international panorama regulations and voluntary instruments, with the aim of clarifying the fuzzy picture that characterizes sustainability in the building sector at present while framing the research in the context of existing policies and programming. The main objective lies in the approach of a methodology for the assessment of the environmental impacts associated with the life cycle of building, applicable to the Spanish context, as one of the three dimensions that constitute the pillars of sustainability. The areas of assessment of social and economic issues, for which there is currently a degree of methodological definition consistent enough, are further examined, in order to provide a holistic view of the assessment. The description of the basic features and limitations of the methodology of Life Cycle Assessment (LCA) are previously addressed, later proceeding to deepen the state of the art of LCA applied to the building sector, conducting a critical review of the research works that have been developed in recent years. This review allows to establish conclusions about the degree of consistency with the future regulatory environment and to identify two priority needs for action: - The need for harmonization, given the strong methodological inconsistencies detected that prevent the comparison of results obtained in assessment works. - The need for simplification, given the inherent complexity of the assessment, so that, while maintaining the utmost rigor, make the practical application feasible in the Spanish context. The participation in the work of policy development at European level has helped to achieve a critical view of the methodological implications of the rules under debate, identifying the roadmap that will mark the European scene in the coming years. The definition of the proposed methodology integrates the general principles of LCA methodology with the protocol established in the European standard, also considering the regulatory standards to construction practices in the Spanish context. In the proposed approach, possible simplifications applicable have been analyzed, in order to make its implementation possible, focusing efforts in systematizing the functional equivalent concept, establishing recommendations on the type of data based on their availability and critical review of the calculation models of environmental impacts. The methodological implications of the proposal are described through a series of case studies, which illustrate the feasibility and the basic characteristics of its application. Finally, the main aspects related to future prospects, research lines and lines of action that have been identified as priorities are outlined.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde hace mucho tiempo, el hombre se ha preocupado por los fenómenos que rigen el movimiento humano. Así Aristóteles (384-322 a. J.C.) poseía conocimientos notables sobre el centro de gravedad, las leyes del movimiento y de las palancas, siendo el primero en describir el complejo proceso de la marcha. A este sabio le siguieron muchos otros: Arquímedes (287-212 a. J.C.)- Ga leno (131-201 a.J.C.) Leonardo Da Vinci (1452-1519), que describió la mecánica del cuerpo en posición erecta, en la marcha y en el salto. Galileo Galilei (1564-1643) proporcionó empuje al estudio de los fenómenos mecánicos en términos matemáticos, creando las bases para la biomecánica. Alfonso Borelli (1608-1679), considerado por algunos autores como el padre de la moderna biomecánica. Aseguraba que los músculos funcionan de acuerdo con principios matemáticos. Nicolas Andry (1658-1742), creador de la ciencia ortopédica. Isaac Newton, que estableció las bases de la dinámica moderna con la enunciación de sus leyes mecánicas todavía hoy vigentes. E.J. Marey (1830-1904), afirmaba que el movimiento es la más importante de las funciones humanas, y describió métodos fotográficos para la investigación biológica. c.w. Braune (1831-1892), y Otto Fischer (1861-1917), describieron un método experimental para determinar el centro de gravedad. Harold Edgerton, inventor del estroboscopio electrónico de aplicación en el análisis fotográfico del movimiento. Gideon Ariel, una de las máximas autoridades en la biomecánica del deporte actual. ••••••• oooOooo ••••••• En lo que respecta al ámbito deportivo, en los últimos años estamos asistiendo a una gran mejora del rendimiento. Esto es debido en gran parte a un mayor apoyo científico en el proceso de entrenamiento, tanto en lo que se refiere a los métodos para desarrollar la condición física, como en lo concerniente a la perfección de la técnica deportiva, es decir, el aprovechamiento más eficaz de las leyes mecánicas que intervienen en el movimiento deportivo. Según P. Rasch y R. Burke, la biomecánica se ocupa de la investigación del movimiento humano por medio de los conceptos de la física clásica y las disciplinas afines en el arte práctico de la ingeniería. Junto con la anatomía, biofísica, bioquímica, fisiología, psicología y cibernética, y estrechamente relacionada con ellas, la biomecánica, conforma las bases de la metodología deportiva. (Hochmuth) Entre los objetivos específicos de la biomecánica está la investigación dirigida a encontrar una técnica deportiva más eficaz. Actualmente, el perfeccionamiento de la técnica se realiza cada vez más apoyándose en los trabajos de análisis biomecánico. Efectivamente, esto tiene su razón de ser, pues hay detalles en el curso del ~~ movimiento que escapan a la simple observación visual por parte del entrenador. Entre dos lanzamientos de distinta longitud, en muchas ocasiones no se pueden percibir ninguna o como mucho sólo pequeñas diferencias. De ahí la necesidad de las investigaciones basadas en el análisis biomecánico, de cuyos resultados obtendrá el entrenador la información que precisa para realizar las modificaciones oportunas en cuanto a la técnica deportiva empleada por su atleta se refiere. Para el análisis biomecánico se considera el cuerpo humano como un conjunto de segmentos que forman un sistema de eslabones sometido a las leyes físicas. Estos segmentos son: la cabeza, el tronco, los brazos, los antebrazos, las manos, los muslos, las piernas y los pies. A través de estos segmentos y articulaciones se transmiten las aceleraciones y desaceleraciones para alcanzar la velocidad deseada en las porciones terminales y en el sistema propioceptivo que tiene su centro en el cerebro. De todo esto podemos deducir la práctica imposibilidad de descubrir un error en el curso del movimiento por la sola observación visual del entrenador por experto que este sea (Zanon). El aspecto biológico de la biomecánica no se conoce tanto como el aspecto mecánico, ya que este campo es mucho más complejo y se necesitan aparatos de medición muy precisos. Entre los objetivos que me he planteado al efectuar este trabajo están los siguientes: - Análisis biomecánico de uno de los mejores lanzadores de martillo de España. - Qué problemas surgen en el análisis biomecánico tridimensional. Cómo llevar a cabo este tipo de investigación con un material elemental, ya que no disponemos de otro. Ofrecer al técnico deportivo los procedimientos matemáticos del cálculo necesarios. En definitiva ofrecer una pequeña ayuda al entrenador, en su búsqueda de soluciones para el perfeccionamiento de la técnica deportiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El desarrollo de este Proyecto Fin de Carrera se ha enmarcado dentro del diseño e implementación de una plataforma, denominada Gauss, para la gestión del seguimiento de la calidad en las titulaciones de Grado y Máster de la Universidad Politécnica de Madrid (UPM). Esta aplicación ha sido desarrollada bajo el liderazgo del Vicerrectorado de Estructura Organizativa y Calidad (VEOC), con el apoyo del personal de la Unidad de Calidad de dicho Vicerrectorado y del Servicio de Planificación de Sistemas de Información (SPSI) del Vicerrectorado de Nuevas Tecnologías y Comunicación de la UPM, así como de los tutores del proyecto y otras personas que han formado parte del equipo de desarrollo a cargo del autor, por parte de la Facultad de Informática de la Universidad. El Proyecto se centra en el estudio del uso de las prácticas ágiles de desarrollo para la realización de los análisis de usabilidad y la gestión del diseño e implementación de la mencionada plataforma. Se pretende sentar las bases del uso de las prácticas ágiles dentro del proceso de diseño y estructuración de los análisis de usabilidad y de la implementación en proyectos en los que se realiza un diseño centrado en el usuario, donde la primera impresión del usuario debe ser positiva y la capacidad de retomar el uso de la plataforma desarrollada tras un largo tiempo no suponga un impedimento extra en su normal funcionamiento. El uso de las prácticas ágiles se ha aplicado tanto al desarrollo de la plataforma como a la gestión de los hitos alcanzables para que a lo largo de las diversas iteraciones el producto obtenido fuera lo más estable posible, desarrollando y evaluando diversas partes de la plataforma. Finalmente, se ha analizado el impacto que pueden tener este tipo de prácticas, sus puntos fuertes y débiles en este tipo de proyectos, así como posibles puntos de mejora y posibles líneas futuras de este proyecto. En el capítulo 1 se realiza una introducción al proyecto y se exponen sus objetivos. En el capítulo 2 se realiza un análisis detallado sobre el estado del arte, comentando los ciclos de vida tradicionales del software, las prácticas ágiles más destacadas, así como distintos conceptos relacionados con la usabilidad. En el capítulo 3 se analiza la problemática en este proyecto y se detallan las prácticas ágiles utilizadas. En el capítulo 4 se presentan las conclusiones del trabajo. En el capítulo 5 se proponen diversas líneas de trabajo futuras.