87 resultados para ADOPCIÓN
em Universidad Politécnica de Madrid
Resumo:
El comercio electrónico ha experimentado un fuerte crecimiento en los últimos años, favorecido especialmente por el aumento de las tasas de penetración de Internet en todo el mundo. Sin embargo, no todos los países están evolucionando de la misma manera, con un espectro que va desde las naciones pioneras en desarrollo de tecnologías de la información y comunicaciones, que cuentan con una elevado porcentaje de internautas y de compradores online, hasta las rezagadas de rápida adopción en las que, pese a contar con una menor penetración de acceso, presentan una alta tasa de internautas compradores. Entre ambos extremos se encuentran países como España que, aunque alcanzó hace años una tasa considerable de penetración de usuarios de Internet, no ha conseguido una buena tasa de transformación de internautas en compradores. Pese a que el comercio electrónico ha experimentado importantes aumentos en los últimos años, sus tasas de crecimiento siguen estando por debajo de países con características socio-económicas similares. Para intentar conocer las razones que afectan a la adopción del comercio por parte de los compradores, la investigación científica del fenómeno ha empleado diferentes enfoques teóricos. De entre todos ellos ha destacado el uso de los modelos de adopción, proveniente de la literatura de adopción de sistemas de información en entornos organizativos. Estos modelos se basan en las percepciones de los compradores para determinar qué factores pueden predecir mejor la intención de compra y, en consecuencia, la conducta real de compra de los usuarios. Pese a que en los últimos años han proliferado los trabajos de investigación que aplican los modelos de adopción al comercio electrónico, casi todos tratan de validar sus hipótesis mediante el análisis de muestras de consumidores tratadas como un único conjunto, y del que se obtienen conclusiones generales. Sin embargo, desde el origen del marketing, y en especial a partir de la segunda mitad del siglo XIX, se considera que existen diferencias en el comportamiento de los consumidores, que pueden ser debidas a características demográficas, sociológicas o psicológicas. Estas diferencias se traducen en necesidades distintas, que sólo podrán ser satisfechas con una oferta adaptada por parte de los vendedores. Además, por contar el comercio electrónico con unas características particulares que lo diferencian del comercio tradicional –especialmente por la falta de contacto físico entre el comprador y el producto– a las diferencias en la adopción para cada consumidor se le añaden las diferencias derivadas del tipo de producto adquirido, que si bien habían sido consideradas en el canal físico, en el comercio electrónico cobran especial relevancia. A la vista de todo ello, el presente trabajo pretende abordar el estudio de los factores determinantes de la intención de compra y la conducta real de compra en comercio electrónico por parte del consumidor final español, teniendo en cuenta el tipo de segmento al que pertenezca dicho comprador y el tipo de producto considerado. Para ello, el trabajo contiene ocho apartados entre los que se encuentran cuatro bloques teóricos y tres bloques empíricos, además de las conclusiones. Estos bloques dan lugar a los siguientes ocho capítulos por orden de aparición en el trabajo: introducción, situación del comercio electrónico, modelos de adopción de tecnología, segmentación en comercio electrónico, diseño previo del trabajo empírico, diseño de la investigación, análisis de los resultados y conclusiones. El capítulo introductorio justifica la relevancia de la investigación, además de fijar los objetivos, la metodología y las fases seguidas para el desarrollo del trabajo. La justificación se complementa con el segundo capítulo, que cuenta con dos elementos principales: en primer lugar se define el concepto de comercio electrónico y se hace una breve retrospectiva desde sus orígenes hasta la situación actual en un contexto global; en segundo lugar, el análisis estudia la evolución del comercio electrónico en España, mostrando su desarrollo y situación presente a partir de sus principales indicadores. Este apartado no sólo permite conocer el contexto de la investigación, sino que además permite contrastar la relevancia de la muestra utilizada en el presente estudio con el perfil español respecto al comercio electrónico. Los capítulos tercero –modelos de adopción de tecnologías– y cuarto –segmentación en comercio electrónico– sientan las bases teóricas necesarias para abordar el estudio. En el capítulo tres se hace una revisión general de la literatura de modelos de adopción de tecnología y, en particular, de los modelos de adopción empleados en el ámbito del comercio electrónico. El resultado de dicha revisión deriva en la construcción de un modelo adaptado basado en los modelos UTAUT (Unified Theory of Acceptance and Use of Technology, Teoría unificada de la aceptación y el uso de la tecnología) y UTAUT2, combinado con dos factores específicos de adopción del comercio electrónico: el riesgo percibido y la confianza percibida. Por su parte, en el capítulo cuatro se revisan las metodologías de segmentación de clientes y productos empleadas en la literatura. De dicha revisión se obtienen un amplio conjunto de variables de las que finalmente se escogen nueve variables de clasificación que se consideran adecuadas tanto por su adaptación al contexto del comercio electrónico como por su adecuación a las características de la muestra empleada para validar el modelo. Las nueve variables se agrupan en tres conjuntos: variables de tipo socio-demográfico –género, edad, nivel de estudios, nivel de ingresos, tamaño de la unidad familiar y estado civil–, de comportamiento de compra – experiencia de compra por Internet y frecuencia de compra por Internet– y de tipo psicográfico –motivaciones de compra por Internet. La segunda parte del capítulo cuatro se dedica a la revisión de los criterios empleados en la literatura para la clasificación de los productos en el contexto del comercio electrónico. De dicha revisión se obtienen quince grupos de variables que pueden tomar un total de treinta y cuatro valores, lo que deriva en un elevado número de combinaciones posibles. Sin embargo, pese a haber sido utilizados en el contexto del comercio electrónico, no en todos los casos se ha comprobado la influencia de dichas variables respecto a la intención de compra o la conducta real de compra por Internet; por este motivo, y con el objetivo de definir una clasificación robusta y abordable de tipos de productos, en el capitulo cinco se lleva a cabo una validación de las variables de clasificación de productos mediante un experimento previo con 207 muestras. Seleccionando sólo aquellas variables objetivas que no dependan de la interpretación personal del consumidores y que determinen grupos significativamente distintos respecto a la intención y conducta de compra de los consumidores, se obtiene un modelo de dos variables que combinadas dan lugar a cuatro tipos de productos: bien digital, bien no digital, servicio digital y servicio no digital. Definidos el modelo de adopción y los criterios de segmentación de consumidores y productos, en el sexto capítulo se desarrolla el modelo completo de investigación formado por un conjunto de hipótesis obtenidas de la revisión de la literatura de los capítulos anteriores, en las que se definen las hipótesis de investigación con respecto a las influencias esperadas de las variables de segmentación sobre las relaciones del modelo de adopción. Este modelo confiere a la investigación un carácter social y de tipo fundamentalmente exploratorio, en el que en muchos casos ni siquiera se han encontrado evidencias empíricas previas que permitan el enunciado de hipótesis sobre la influencia de determinadas variables de segmentación. El capítulo seis contiene además la descripción del instrumento de medida empleado en la investigación, conformado por un total de 125 preguntas y sus correspondientes escalas de medida, así como la descripción de la muestra representativa empleada en la validación del modelo, compuesta por un grupo de 817 personas españolas o residentes en España. El capítulo siete constituye el núcleo del análisis empírico del trabajo de investigación, que se compone de dos elementos fundamentales. Primeramente se describen las técnicas estadísticas aplicadas para el estudio de los datos que, dada la complejidad del análisis, se dividen en tres grupos fundamentales: Método de mínimos cuadrados parciales (PLS, Partial Least Squares): herramienta estadística de análisis multivariante con capacidad de análisis predictivo que se emplea en la determinación de las relaciones estructurales de los modelos propuestos. Análisis multigrupo: conjunto de técnicas que permiten comparar los resultados obtenidos con el método PLS entre dos o más grupos derivados del uso de una o más variables de segmentación. En este caso se emplean cinco métodos de comparación, lo que permite asimismo comparar los rendimientos de cada uno de los métodos. Determinación de segmentos no identificados a priori: en el caso de algunas de las variables de segmentación no existe un criterio de clasificación definido a priori, sino que se obtiene a partir de la aplicación de técnicas estadísticas de clasificación. En este caso se emplean dos técnicas fundamentales: análisis de componentes principales –dado el elevado número de variables empleadas para la clasificación– y análisis clúster –del que se combina una técnica jerárquica que calcula el número óptimo de segmentos, con una técnica por etapas que es más eficiente en la clasificación, pero exige conocer el número de clústeres a priori. La aplicación de dichas técnicas estadísticas sobre los modelos resultantes de considerar los distintos criterios de segmentación, tanto de clientes como de productos, da lugar al análisis de un total de 128 modelos de adopción de comercio electrónico y 65 comparaciones multigrupo, cuyos resultados y principales consideraciones son elaboradas a lo largo del capítulo. Para concluir, el capítulo ocho recoge las conclusiones del trabajo divididas en cuatro partes diferenciadas. En primer lugar se examina el grado de alcance de los objetivos planteados al inicio de la investigación; después se desarrollan las principales contribuciones que este trabajo aporta tanto desde el punto de vista metodológico, como desde los punto de vista teórico y práctico; en tercer lugar, se profundiza en las conclusiones derivadas del estudio empírico, que se clasifican según los criterios de segmentación empleados, y que combinan resultados confirmatorios y exploratorios; por último, el trabajo recopila las principales limitaciones de la investigación, tanto de carácter teórico como empírico, así como aquellos aspectos que no habiendo podido plantearse dentro del contexto de este estudio, o como consecuencia de los resultados alcanzados, se presentan como líneas futuras de investigación. ABSTRACT Favoured by an increase of Internet penetration rates across the globe, electronic commerce has experienced a rapid growth over the last few years. Nevertheless, adoption of electronic commerce has differed from one country to another. On one hand, it has been observed that countries leading e-commerce adoption have a large percentage of Internet users as well as of online purchasers; on the other hand, other markets, despite having a low percentage of Internet users, show a high percentage of online buyers. Halfway between those two ends of the spectrum, we find countries such as Spain which, despite having moderately high Internet penetration rates and similar socio-economic characteristics as some of the leading countries, have failed to turn Internet users into active online buyers. Several theoretical approaches have been taken in an attempt to define the factors that influence the use of electronic commerce systems by customers. One of the betterknown frameworks to characterize adoption factors is the acceptance modelling theory, which is derived from the information systems adoption in organizational environments. These models are based on individual perceptions on which factors determine purchase intention, as a mean to explain users’ actual purchasing behaviour. Even though research on electronic commerce adoption models has increased in terms of volume and scope over the last years, the majority of studies validate their hypothesis by using a single sample of consumers from which they obtain general conclusions. Nevertheless, since the birth of marketing, and more specifically from the second half of the 19th century, differences in consumer behaviour owing to demographic, sociologic and psychological characteristics have also been taken into account. And such differences are generally translated into different needs that can only be satisfied when sellers adapt their offer to their target market. Electronic commerce has a number of features that makes it different when compared to traditional commerce; the best example of this is the lack of physical contact between customers and products, and between customers and vendors. Other than that, some differences that depend on the type of product may also play an important role in electronic commerce. From all the above, the present research aims to address the study of the main factors influencing purchase intention and actual purchase behaviour in electronic commerce by Spanish end-consumers, taking into consideration both the customer group to which they belong and the type of product being purchased. In order to achieve this goal, this Thesis is structured in eight chapters: four theoretical sections, three empirical blocks and a final section summarizing the conclusions derived from the research. The chapters are arranged in sequence as follows: introduction, current state of electronic commerce, technology adoption models, electronic commerce segmentation, preliminary design of the empirical work, research design, data analysis and results, and conclusions. The introductory chapter offers a detailed justification of the relevance of this study in the context of e-commerce adoption research; it also sets out the objectives, methodology and research stages. The second chapter further expands and complements the introductory chapter, focusing on two elements: the concept of electronic commerce and its evolution from a general point of view, and the evolution of electronic commerce in Spain and main indicators of adoption. This section is intended to allow the reader to understand the research context, and also to serve as a basis to justify the relevance and representativeness of the sample used in this study. Chapters three (technology acceptance models) and four (segmentation in electronic commerce) set the theoretical foundations for the study. Chapter 3 presents a thorough literature review of technology adoption modelling, focusing on previous studies on electronic commerce acceptance. As a result of the literature review, the research framework is built upon a model based on UTAUT (Unified Theory of Acceptance and Use of Technology) and its evolution, UTAUT2, including two specific electronic commerce adoption factors: perceived risk and perceived trust. Chapter 4 deals with client and product segmentation methodologies used by experts. From the literature review, a wide range of classification variables is studied, and a shortlist of nine classification variables has been selected for inclusion in the research. The criteria for variable selection were their adequacy to electronic commerce characteristics, as well as adequacy to the sample characteristics. The nine variables have been classified in three groups: socio-demographic (gender, age, education level, income, family size and relationship status), behavioural (experience in electronic commerce and frequency of purchase) and psychographic (online purchase motivations) variables. The second half of chapter 4 is devoted to a review of the product classification criteria in electronic commerce. The review has led to the identification of a final set of fifteen groups of variables, whose combination offered a total of thirty-four possible outputs. However, due to the lack of empirical evidence in the context of electronic commerce, further investigation on the validity of this set of product classifications was deemed necessary. For this reason, chapter 5 proposes an empirical study to test the different product classification variables with 207 samples. A selection of product classifications including only those variables that are objective, able to identify distinct groups and not dependent on consumers’ point of view, led to a final classification of products which consisted on two groups of variables for the final empirical study. The combination of these two groups gave rise to four types of products: digital and non-digital goods, and digital and non-digital services. Chapter six characterizes the research –social, exploratory research– and presents the final research model and research hypotheses. The exploratory nature of the research becomes patent in instances where no prior empirical evidence on the influence of certain segmentation variables was found. Chapter six also includes the description of the measurement instrument used in the research, consisting of a total of 125 questions –and the measurement scales associated to each of them– as well as the description of the sample used for model validation (consisting of 817 Spanish residents). Chapter 7 is the core of the empirical analysis performed to validate the research model, and it is divided into two separate parts: description of the statistical techniques used for data analysis, and actual data analysis and results. The first part is structured in three different blocks: Partial Least Squares Method (PLS): the multi-variable analysis is a statistical method used to determine structural relationships of models and their predictive validity; Multi-group analysis: a set of techniques that allow comparing the outcomes of PLS analysis between two or more groups, by using one or more segmentation variables. More specifically, five comparison methods were used, which additionally gives the opportunity to assess the efficiency of each method. Determination of a priori undefined segments: in some cases, classification criteria did not necessarily exist for some segmentation variables, such as customer motivations. In these cases, the application of statistical classification techniques is required. For this study, two main classification techniques were used sequentially: principal component factor analysis –in order to reduce the number of variables– and cluster analysis. The application of the statistical methods to the models derived from the inclusion of the various segmentation criteria –for both clients and products–, led to the analysis of 128 different electronic commerce adoption models and 65 multi group comparisons. Finally, chapter 8 summarizes the conclusions from the research, divided into four parts: first, an assessment of the degree of achievement of the different research objectives is offered; then, methodological, theoretical and practical implications of the research are drawn; this is followed by a discussion on the results from the empirical study –based on the segmentation criteria for the research–; fourth, and last, the main limitations of the research –both empirical and theoretical– as well as future avenues of research are detailed.
Resumo:
En las últimas dos décadas, se ha puesto de relieve la importancia de los procesos de adquisición y difusión del conocimiento dentro de las empresas, y por consiguiente el estudio de estos procesos y la implementación de tecnologías que los faciliten ha sido un tema que ha despertado un creciente interés en la comunidad científica. Con el fin de facilitar y optimizar la adquisición y la difusión del conocimiento, las organizaciones jerárquicas han evolucionado hacia una configuración más plana, con estructuras en red que resulten más ágiles, disminuyendo la dependencia de una autoridad centralizada, y constituyendo organizaciones orientadas a trabajar en equipo. Al mismo tiempo, se ha producido un rápido desarrollo de las herramientas de colaboración Web 2.0, tales como blogs y wikis. Estas herramientas de colaboración se caracterizan por una importante componente social, y pueden alcanzar todo su potencial cuando se despliegan en las estructuras organizacionales planas. La Web 2.0 aparece como un concepto enfrentado al conjunto de tecnologías que existían a finales de los 90s basadas en sitios web, y se basa en la participación de los propios usuarios. Empresas del Fortune 500 –HP, IBM, Xerox, Cisco– las adoptan de inmediato, aunque no hay unanimidad sobre su utilidad real ni sobre cómo medirla. Esto se debe en parte a que no se entienden bien los factores que llevan a los empleados a adoptarlas, lo que ha llevado a fracasos en la implantación debido a la existencia de algunas barreras. Dada esta situación, y ante las ventajas teóricas que tienen estas herramientas de colaboración Web 2.0 para las empresas, los directivos de éstas y la comunidad científica muestran un interés creciente en conocer la respuesta a la pregunta: ¿cuáles son los factores que contribuyen a que los empleados de las empresas adopten estas herramientas Web 2.0 para colaborar? La respuesta a esta pregunta es compleja ya que se trata de herramientas relativamente nuevas en el contexto empresarial mediante las cuales se puede llevar a cabo la gestión del conocimiento en lugar del manejo de la información. El planteamiento que se ha llevado a cabo en este trabajo para dar respuesta a esta pregunta es la aplicación de los modelos de adopción tecnológica, que se basan en las percepciones de los individuos sobre diferentes aspectos relacionados con el uso de la tecnología. Bajo este enfoque, este trabajo tiene como objetivo principal el estudio de los factores que influyen en la adopción de blogs y wikis en empresas, mediante un modelo predictivo, teórico y unificado, de adopción tecnológica, con un planteamiento holístico a partir de la literatura de los modelos de adopción tecnológica y de las particularidades que presentan las herramientas bajo estudio y en el contexto especifico. Este modelo teórico permitirá determinar aquellos factores que predicen la intención de uso de las herramientas y el uso real de las mismas. El trabajo de investigación científica se estructura en cinco partes: introducción al tema de investigación, desarrollo del marco teórico, diseño del trabajo de investigación, análisis empírico, y elaboración de conclusiones. Desde el punto de vista de la estructura de la memoria de la tesis, las cinco partes mencionadas se desarrollan de forma secuencial a lo largo de siete capítulos, correspondiendo la primera parte al capítulo 1, la segunda a los capítulos 2 y 3, la tercera parte a los capítulos 4 y 5, la cuarta parte al capítulo 6, y la quinta y última parte al capítulo 7. El contenido del capítulo 1 se centra en el planteamiento del problema de investigación así como en los objetivos, principal y secundarios, que se pretenden cumplir a lo largo del trabajo. Así mismo, se expondrá el concepto de colaboración y su encaje con las herramientas colaborativas Web 2.0 que se plantean en la investigación y una introducción a los modelos de adopción tecnológica. A continuación se expone la justificación de la investigación, los objetivos de la misma y el plan de trabajo para su elaboración. Una vez introducido el tema de investigación, en el capítulo 2 se lleva a cabo una revisión de la evolución de los principales modelos de adopción tecnológica existentes (IDT, TRA, SCT, TPB, DTPB, C-TAM-TPB, UTAUT, UTAUT2), dando cuenta de sus fundamentos y factores empleados. Sobre la base de los modelos de adopción tecnológica expuestos en el capítulo 2, en el capítulo 3 se estudian los factores que se han expuesto en el capítulo 2 pero adaptados al contexto de las herramientas colaborativas Web 2.0. Con el fin de facilitar la comprensión del modelo final, los factores se agrupan en cuatro tipos: tecnológicos, de control, socio-normativos y otros específicos de las herramientas colaborativas. En el capítulo 4 se lleva a cabo la relación de los factores que son más apropiados para estudiar la adopción de las herramientas colaborativas y se define un modelo que especifica las relaciones entre los diferentes factores. Estas relaciones finalmente se convertirán en hipótesis de trabajo, y que habrá que contrastar mediante el estudio empírico. A lo largo del capítulo 5 se especifican las características del trabajo empírico que se lleva a cabo para contrastar las hipótesis que se habían enunciado en el capítulo 4. La naturaleza de la investigación es de carácter social, de tipo exploratorio, y se basa en un estudio empírico cuantitativo cuyo análisis se llevará a cabo mediante técnicas de análisis multivariante. En este capítulo se describe la construcción de las escalas del instrumento de medida, la metodología de recogida de datos, y posteriormente se presenta un análisis detallado de la población muestral, así como la comprobación de la existencia o no del sesgo atribuible al método de medida, lo que se denomina sesgo de método común (en inglés, Common Method Bias). El contenido del capítulo 6 corresponde al análisis de resultados, aunque previamente se expone la técnica estadística empleada, PLS-SEM, como herramienta de análisis multivariante con capacidad de análisis predictivo, así como la metodología empleada para validar el modelo de medida y el modelo estructural, los requisitos que debe cumplir la muestra, y los umbrales de los parámetros considerados. En la segunda parte del capítulo 6 se lleva a cabo el análisis empírico de los datos correspondientes a las dos muestras, una para blogs y otra para wikis, con el fin de validar las hipótesis de investigación planteadas en el capítulo 4. Finalmente, en el capítulo 7 se revisa el grado de cumplimiento de los objetivos planteados en el capítulo 1 y se presentan las contribuciones teóricas, metodológicas y prácticas derivadas del trabajo realizado. A continuación se exponen las conclusiones generales y detalladas por cada grupo de factores, así como las recomendaciones prácticas que se pueden extraer para orientar la implantación de estas herramientas en situaciones reales. Como parte final del capítulo se incluyen las limitaciones del estudio y se sugiere una serie de posibles líneas de trabajo futuras de interés, junto con los resultados de investigación parciales que se han obtenido durante el tiempo que ha durado la investigación. ABSTRACT In the last two decades, the relevance of knowledge acquisition and dissemination processes has been highlighted and consequently, the study of these processes and the implementation of the technologies that make them possible has generated growing interest in the scientific community. In order to ease and optimize knowledge acquisition and dissemination, hierarchical organizations have evolved to a more horizontal configuration with more agile net structures, decreasing the dependence of a centralized authority, and building team-working oriented organizations. At the same time, Web 2.0 collaboration tools such as blogs and wikis have quickly developed. These collaboration tools are characterized by a strong social component and can reach their full potential when they are deployed in horizontal organization structures. Web 2.0, based on user participation, arises as a concept to challenge the existing technologies of the 90’s which were based on websites. Fortune 500 companies – HP, IBM, Xerox, Cisco- adopted the concept immediately even though there was no unanimity about its real usefulness or how it could be measured. This is partly due to the fact that the factors that make the drivers for employees to adopt these tools are not properly understood, consequently leading to implementation failure due to the existence of certain barriers. Given this situation, and faced with theoretical advantages that these Web 2.0 collaboration tools seem to have for companies, managers and the scientific community are showing an increasing interest in answering the following question: Which factors contribute to the decision of the employees of a company to adopt the Web 2.0 tools for collaborative purposes? The answer is complex since these tools are relatively new in business environments. These tools allow us to move from an information Management approach to Knowledge Management. In order to answer this question, the chosen approach involves the application of technology adoption models, all of them based on the individual’s perception of the different aspects related to technology usage. From this perspective, this thesis’ main objective is to study the factors influencing the adoption of blogs and wikis in a company. This is done by using a unified and theoretical predictive model of technological adoption with a holistic approach that is based on literature of technological adoption models and the particularities that these tools presented under study and in a specific context. This theoretical model will allow us to determine the factors that predict the intended use of these tools and their real usage. The scientific research is structured in five parts: Introduction to the research subject, development of the theoretical framework, research work design, empirical analysis and drawing the final conclusions. This thesis develops the five aforementioned parts sequentially thorough seven chapters; part one (chapter one), part two (chapters two and three), part three (chapters four and five), parte four (chapters six) and finally part five (chapter seven). The first chapter is focused on the research problem statement and the objectives of the thesis, intended to be reached during the project. Likewise, the concept of collaboration and its link with the Web 2.0 collaborative tools is discussed as well as an introduction to the technology adoption models. Finally we explain the planning to carry out the research and get the proposed results. After introducing the research topic, the second chapter carries out a review of the evolution of the main existing technology adoption models (IDT, TRA, SCT, TPB, DTPB, C-TAM-TPB, UTAUT, UTAUT2), highlighting its foundations and factors used. Based on technology adoption models set out in chapter 2, the third chapter deals with the factors which have been discussed previously in chapter 2, but adapted to the context of Web 2.0 collaborative tools under study, blogs and wikis. In order to better understand the final model, the factors are grouped into four types: technological factors, control factors, social-normative factors and other specific factors related to the collaborative tools. The first part of chapter 4 covers the analysis of the factors which are more relevant to study the adoption of collaborative tools, and the second part proceeds with the theoretical model which specifies the relationship between the different factors taken into consideration. These relationships will become specific hypotheses that will be tested by the empirical study. Throughout chapter 5 we cover the characteristics of the empirical study used to test the research hypotheses which were set out in chapter 4. The nature of research is social, exploratory, and it is based on a quantitative empirical study whose analysis is carried out using multivariate analysis techniques. The second part of this chapter includes the description of the scales of the measuring instrument; the methodology for data gathering, the detailed analysis of the sample, and finally the existence of bias attributable to the measurement method, the "Bias Common Method" is checked. The first part of chapter 6 corresponds to the analysis of results. The statistical technique employed (PLS-SEM) is previously explained as a tool of multivariate analysis, capable of carrying out predictive analysis, and as the appropriate methodology used to validate the model in a two-stages analysis, the measurement model and the structural model. Futhermore, it is necessary to check the requirements to be met by the sample and the thresholds of the parameters taken into account. In the second part of chapter 6 an empirical analysis of the data is performed for the two samples, one for blogs and the other for wikis, in order to validate the research hypothesis proposed in chapter 4. Finally, in chapter 7 the fulfillment level of the objectives raised in chapter 1 is reviewed and the theoretical, methodological and practical conclusions derived from the results of the study are presented. Next, we cover the general conclusions, detailing for each group of factors including practical recommendations that can be drawn to guide implementation of these tools in real situations in companies. As a final part of the chapter the limitations of the study are included and a number of potential future researches suggested, along with research partial results which have been obtained thorough the research.
Resumo:
El ruido como fenómeno físico capaz de generar molestias y de impactar la salud es uno de los agentes perturbadores presentes en las comunidades del siglo XXI, principalmente en las grandes urbes donde existe concentración poblacional, tal es el caso de la ciudad de Barquisimeto, capital del estado Lara en Venezuela, la cual ocupa el cuarto lugar en importancia a nivel nacional según criterios de ubicación geopolítica, densidad poblacional, infraestructuras, actividades económicas y educativas. La presente tesis doctoral, cuya área de emplazamiento es el centro de dicha ciudad, consiste en una investigación científica experimental de carácter correlacional, en la que se estableció la siguiente hipótesis �a mayor tiempo de exposición al ruido, mayores efectos neurológicos y psicológicos en la población que ocupa el centro de Barquisimeto�. Su singularidad y relevancia radica en articular el estudio del ruido como agente físico con la incidencia de éste en la actividad bioeléctrica cerebral humana y sus efectos en las inteligencias múltiples, tomando como basamento la teoría de las inteligencias múltiples del Dr. Howard Gardner, catedrático de la Universidad de Hardvard, siendo un importante aporte científico en el campo de la física, la medicina y la psicología. Para alcanzar la cristalización de la presente investigación, se realizó una revisión del estado del arte sobre la temática abordada. Tras analizar las fuentes, tanto bibliográficas como digitales, se diseñó el desarrollo de la misma gestionándose la autorización de la Alcaldía del Municipio Iribarren, tomando en consideración que en la fase experimental se aplicaron instrumentos de recolección de datos y se realizaron mediciones en espacios públicos. La fase experimental se ejecutó en seis etapas, obedeciendo a las siguientes variables: a.) Percepción neurológica y psicológica (estudio subjetivo); b) Sonoridad; c.) Dosimetría; d.) Valoración neurológica; e) Valoración psicológica sobre las inteligencias múltiples; f) Mapa de conflicto acústico. En relación al estudio subjetivo se tomó una muestra recurriendo al muestreo aleatorio estratificado, quedando conformada por 67 Residentes, 64 Funcionarios Públicos, 66 comerciantes formales y 64 Comerciantes Informales para un total de 261 sujetos, a los que se viiiaplicó una encuesta titulada Cuestionario Ruambar, conteniendo 30 Ítemes sobre la percepción de efectos neurológicos y psicológicos del ruido, utilizando la escala de Lickert. Para la toma de datos de la sonoridad y de la dosimetría se utilizaron métodos científicos estandarizados, usándose las normas ISO 1996-1, ISO 1999, los Decretos Reales 1367/2007 y el 286/2006; y los criterios técnicos de la OMS. Para lograr una mayor precisión y confiabilidad de los datos, se evaluó el cálculo de la incertidumbre según el documento GUM �Guide for the expresión of uncertainly in Measurement de la International Organization for Standardization� para medidas de categoría A. [JCGM 100:2008]. En cuanto a la valoración neurológica, se siguió el protocolo de la Sociedad Americana de Neurología. En el estudio neurológico participaron voluntariamente 192 sujetos, utilizándose un electroencefalógrafo Digital Stellate Systems con 18 electrodos que determinó la actividad bioeléctrica de los sujetos, estando sometidos a una estimulación sonora de 1000 Hz y a presiones sonoras de 20, 40, 60, 80 y 100 dB (A). Con respecto a la valoración psicológica del efecto del ruido sobre las inteligencias múltiples se diseñó el Test RUAMIN con 24 ítemes y con adaptación a una escala psicométrica. Con respecto a la prueba de hipótesis las correlaciones obtenidas son lineales positivas exceptuando el estrato funcionarios, confirmándose que se acepta la hipótesis planteada para los estratos residentes, comerciantes formales y comerciantes informales, y siendo esta misma hipótesis nula para el estrato funcionarios. Finalmente, como resultado de la investigación se elaboró un mapa de conflicto acústico con el propósito de establecer los puntos de mayor impacto acústico en la zona de emplazamiento, estableciéndose comparaciones entre los mismos y pudiendo ser útil el mencionado mapa para la adopción de disposiciones legales y civiles en aras de mejorar la calidad de vida de los ciudadanos.
Resumo:
El método residual dinámico, que aporta a las valoraciones urbanísticas la racionalidad científica propia de los análisis de proyectos de inversión, incorpora también, en relación con la versión estática pacíficamente aceptada por la doctrina y la jurisprudencia, la complejidad que supone la estimación pormenorizada de los flujos financieros futuros del proceso urbanizador y promotor, así como su periodificación en un horizonte temporal concreto, además de la adopción de un conjunto de decisiones complejas de naturaleza predictiva, factores cuya incidencia se analiza en el contexto de la valoración urbanística como prueba pericial.
Resumo:
Las tecnologías de vídeo en 3D han estado al alza en los últimos años, con abundantes avances en investigación unidos a una adopción generalizada por parte de la industria del cine, y una importancia creciente en la electrónica de consumo. Relacionado con esto, está el concepto de vídeo multivista, que abarca el vídeo 3D, y puede definirse como un flujo de vídeo compuesto de dos o más vistas. El vídeo multivista permite prestaciones avanzadas de vídeo, como el vídeo estereoscópico, el “free viewpoint video”, contacto visual mejorado mediante vistas virtuales, o entornos virtuales compartidos. El propósito de esta tesis es salvar un obstáculo considerable de cara al uso de vídeo multivista en sistemas de comunicación: la falta de soporte para esta tecnología por parte de los protocolos de señalización existentes, que hace imposible configurar una sesión con vídeo multivista mediante mecanismos estándar. Así pues, nuestro principal objetivo es la extensión del Protocolo de Inicio de Sesión (SIP) para soportar la negociación de sesiones multimedia con flujos de vídeo multivista. Nuestro trabajo se puede resumir en tres contribuciones principales. En primer lugar, hemos definido una extensión de señalización para configurar sesiones SIP con vídeo 3D. Esta extensión modifica el Protocolo de Descripción de Sesión (SDP) para introducir un nuevo atributo de nivel de medios, y un nuevo tipo de dependencia de descodificación, que contribuyen a describir los formatos de vídeo 3D que pueden emplearse en una sesión, así como la relación entre los flujos de vídeo que componen un flujo de vídeo 3D. La segunda contribución consiste en una extensión a SIP para manejar la señalización de videoconferencias con flujos de vídeo multivista. Se definen dos nuevos paquetes de eventos SIP para describir las capacidades y topología de los terminales de conferencia, por un lado, y la configuración espacial y mapeo de flujos de una conferencia, por el otro. También se describe un mecanismo para integrar el intercambio de esta información en el proceso de inicio de una conferencia SIP. Como tercera y última contribución, introducimos el concepto de espacio virtual de una conferencia, o un sistema de coordenadas que incluye todos los objetos relevantes de la conferencia (como dispositivos de captura, pantallas, y usuarios). Explicamos cómo el espacio virtual se relaciona con prestaciones de conferencia como el contacto visual, la escala de vídeo y la fidelidad espacial, y proporcionamos reglas para determinar las prestaciones de una conferencia a partir del análisis de su espacio virtual, y para generar espacios virtuales durante la configuración de conferencias.
Resumo:
En este trabajo se ha estudiado el efecto de una restricción alimenticia moderada 15 y gradual después del destete (alrededor de 35 d de edad) sobre los rendimientos 16 productivos y la eficiencia alimenticia global del cebo. La restricción consistió en 17 suministrar una cantidad limitada de alimento (80, 100 y 120 g/d) en las tres semanas 18 siguientes al destete. Se han realizado seis ensayos, con 480 animales cada uno, 19 utilizando seis piensos comerciales que diferían en el tipo de medicación. En estos 20 ensayos se controlaron los parámetros de crecimiento, eficacia alimenticia global y 21 mortalidad durante el periodo de restricción y en el conjunto del cebo (destete a 63-67 d 22 de edad). El número de ooquistes y de Clostridium perfringens en heces duras fue 23 también evaluado en cada tratamiento. En ninguno de los ensayos se detectaron 24 problemas de elevada mortalidad causada por ERE. En estas condiciones, la mortalidad 25 de los gazapos restringidos se redujo un 33% (P=0,02) en el periodo de restricción y 26 tendió a disminuir en el conjunto del periodo de cebo. Los resultados obtenidos 27 muestran además que una restricción alimenticia moderada mejora en un 4% (Pmenor que0,001) 28 la eficiencia alimenticia global del cebo, sin afectar al peso total de animales enviado a 29 matadero. Además, la adopción de medidas que disminuyan la proliferación de 30 coccidios y C. perfringens en el contenido digestivo pueden resultar útiles para reducir 31 la mortalidad de conejos durante el cebo
Resumo:
Este trabajo lleva a cabo un análisis de la aportación que las políticas urbanas de la Unión Europea (UE), y en particular las dos fases de la Iniciativa Comunitaria URBAN2, han hecho a la práctica de la regeneración urbana en España desde la perspectiva de la Planificación Colaborativa. La adopción de la Planificación Colaborativa como marco conceptual ha provisto la base teórica, el punto de vista e hilo conductor desde el que se ha analizado la dimensión urbana de las políticas comunitarias, poniendo el foco específicamente en URBAN, a través de la realización de un estudio que ha profundizado en el contexto histórico y el debate teórico desde los que se pusieron las bases metodológicas de esta forma de incidir en la degradación urbana, propuesta por la Comisión Europea en 1994. Esto ha llevado a profundizar en el escenario británico de la regeneración urbana, en el que la investigación ha encontrado la referencia sobre la que en gran medida se gestó esta Iniciativa Comunitaria. El trabajo descrito ha permitido caracterizar URBAN como un instrumento de regeneración urbana que conlleva la asunción de un enfoque colaborativo, que en última instancia tiene como objetivo la transformación de la gobernanza. Asimismo, ha sentado las bases sobre las que se ha fundamentado el análisis de la materialización de la dimensión colaborativa de los programas URBAN y URBAN II implementados en España. Los resultados alcanzados por los programas, considerados a la luz de la profundización en la práctica de la regeneración urbana del país, han permitido llegar a conclusiones sobre la aportación que la dimensión colaborativa de URBAN ha hecho al contexto español y señalar un conjunto de líneas de investigación que suponen la continuación del camino emprendido por esta Tesis Doctoral. Summary This work analyses the contribution that the urban policy of the European Union (EU), and in particular the two rounds of the URBAN Community Initiative3, as its most especific instrument, have made to the urban regeneration practice in Spain from the perspective of Collaborative Planning. The adoption of Collaborative Planning as a conceptual framework has provided the theoretical base, the focus and the guiding principle from which to analyse the urban dimension of European policies, and particularly URBAN, through the development of a study that has delved into the historical context and the theoretical debate that laid the methodological foundations of this approach to fight urban degradation launched by the European Commission in 1994. This has included the study of the British scenario of urban regeneration, in which the research has found the reference point on which URBAN was largely conceived. The work described has allowed this Community Initiative to be characterised as a tool of urban regeneration which involved the adoption of a collaborative approach, whose ultimate aim was the transformation of governance. It has also laid the foundations on which the analysis of the implementation of the collaborative approach in the URBAN and URBAN II programmes developed in Spain has been based. The results attained by the programmes considered in light of the development of the practice of urban regeneration in the Spanish scenario, have led to conclusions about the contribution that the collaborative dimension of URBAN has made to the Spanish context and have resulted in the identification of a number of lines of research that represent the continuation of the path taken by this Thesis.
Resumo:
El estudio se orienta al diseño de una estrategia de cooperación académica para el desarrollo sostenible, desde una perspectiva de triangulación de enfoques teóricos e integración de propuestas metodológicas provenientes de diversas áreas del conocimiento; operacionalizada desde la educación universitaria. Se trata de una investigación de naturaleza socioambiental, aplicada, de campo, no experimental, con diseño transeccional, evaluativo y retrospectivo, presentada bajo la modalidad de proyecto factible y con marcado énfasis en el análisis causal de tres problemas específicos: la crisis ambiental, la gestión ambiental y la cooperación universitaria para el desarrollo; cuyo estudio posiciona a la investigación en el nivel descriptivo y explicativo. En su momento proyectivo, aborda la crisis ambiental como problema social de necesaria atención; delimitando su análisis a espacios insulares y/o costeros del Caribe y Centroamérica; centrando su foco estratégico-operacional en aprovechamiento del potencial académico del sector universitario, en búsqueda de una eficiente promoción del desarrollo sostenible, posicionando a la extensión ambiental como estrategia de articulación intra y extrauniversitaria. Como unidad experimental académica, se toma el espectro universitario del Estado nueva Esparta, Venezuela; estableciendo como institución coordinadora a Universidad de Margarita. La investigación, caracterizada como una propuesta de utilidad conceptual y metodológica de carácter socioacadémico, se orienta hacia la formulación de lineamientos de acción que dispongan al servicio de las ciudades: herramientas y procedimientos interuniversitarios de elevado valor y aplicabilidad local, nacional y transfronteriza, orientados a aportar soluciones sistemáticas, permanentes y efectivas, en el tema de la crisis ambiental, desde la sinergia generada en cooperación interinstitucional surgida en los espacios de aprendizaje universitario, bajo las distintas modalidades de sus áreas funcionales. En el ámbito estrictamente académico del estudio, la propuesta introduce planteamientos que sugieren una transformación del enfoque educativo tradicional, sin implicar cambios estructurales profundos, hacia un modelo dinámico, estrechamente justificado, articulado y viabilizado con el contexto social. Ello implica la adopción de modelos pedagógicos/andragógicos, inspirados en las corrientes constructivistas, que procuren la autogestión y la construcción colectiva de un conocimiento útil socialmente. El estudio forma parte de una línea de investigación orientada al diseño de un modelo de cooperación para el desarrollo sostenible en ambientes urbanos insulares y costeros del Caribe y Centroamérica
Resumo:
Tras el devastador terremoto del 12 de enero de 2010 en Puerto Príncipe, Haití, las autoridades locales, numerosas ONGs y organismos nacionales e internacionales están trabajando en el desarrollo de estrategias para minimizar el elevado riesgo sísmico existente en el país. Para ello es necesario, en primer lugar, estimar dicho riesgo asociado a eventuales terremotos futuros que puedan producirse, evaluando el grado de pérdidas que podrían generar, para dimensionar la catástrofe y actuar en consecuencia, tanto en lo referente a medidas preventivas como a adopción de planes de emergencia. En ese sentido, este Trabajo Fin de Master aporta un análisis detallado del riesgo sísmico asociado a un futuro terremoto que podría producirse con probabilidad razonable, causando importantes daños en Puerto Príncipe. Se propone para ello una metodología de cálculo del riesgo adaptada a los condicionantes de la zona, con modelos calibrados empleando datos del sismo de 2010. Se ha desarrollado en el marco del proyecto de cooperación Sismo-Haití, financiado por la Universidad Politécnica de Madrid, que comenzó diez meses después del terremoto de 2010 como respuesta a una petición de ayuda del gobierno haitiano. El cálculo del riesgo requiere la consideración de dos inputs: la amenaza sísmica o movimiento esperado por el escenario definido (sismo de cierta magnitud y localización) y los elementos expuestos a esta amenaza (una clasificación del parque inmobiliario en diferentes tipologías constructivas, así como su vulnerabilidad). La vulnerabilidad de estas tipologías se describe por medio de funciones de daño: espectros de capacidad, que representan su comportamiento ante las fuerzas horizontales motivadas por los sismos, y curvas de fragilidad, que representan la probabilidad de que las estructuras sufran daños al alcanzar el máximo desplazamiento horizontal entre plantas debido a la mencionada fuerza horizontal. La metodología que se propone especifica determinadas pautas y criterios para estimar el movimiento, asignar la vulnerabilidad y evaluar el daño, cubriendo los tres estados del proceso. Por una parte, se consideran diferentes modelos de movimiento fuerte incluyendo el efecto local, y se identifican los que mejor ajustan a las observaciones de 2010. Por otra se clasifica el parque inmobiliario en diferentes tipologías constructivas, en base a la información extraída en una campaña de campo y utilizando además una base de datos aportada por el Ministerio de Obras Públicas de Haití. Ésta contiene información relevante de todos los edificios de la ciudad, resultando un total de 6 tipologías. Finalmente, para la estimación del daño se aplica el método capacidad-demanda implementado en el programa SELENA (Molina et al., 2010). En primer lugar, utilizado los datos de daño del terremoto de 2010, se ha calibrado el modelo propuesto de cálculo de riesgo sísmico: cuatro modelos de movimiento fuerte, tres modelos de tipo de suelo y un conjunto de funciones de daño. Finalmente, con el modelo calibrado, se ha simulado un escenario sísmico determinista correspondiente a un posible terremoto con epicentro próximo a Puerto Príncipe. Los resultados muestran que los daños estructurales serán considerables y podrán llevar a pérdidas económicas y humanas que causen un gran impacto en el país, lo que pone de manifiesto la alta vulnerabilidad estructural existente. Este resultado será facilitado a las autoridades locales, constituyendo una base sólida para toma de decisiones y adopción de políticas de prevención y mitigación del riesgo. Se recomienda dirigir esfuerzos hacia la reducción de la vulnerabilidad estructural - mediante refuerzo de edificios vulnerables y adopción de una normativa sismorresistente- y hacia el desarrollo de planes de emergencia. Abstract After the devastating 12 January 2010 earthquake that hit the city of Port-au-Prince, Haiti, strategies to minimize the high seismic risk are being developed by local authorities, NGOs, and national and international institutions. Two important tasks to reach this objective are, on the one hand, the evaluation of the seismic risk associated to possible future earthquakes in order to know the dimensions of the catastrophe; on the other hand, the design of preventive measures and emergency plans to minimize the consequences of such events. In this sense, this Master Thesis provides a detailed estimation of the damage that a possible future earthquake will cause in Port-au-Prince. A methodology to calculate the seismic risk is proposed, adapted to the study area conditions. This methodology has been calibrated using data from the 2010 earthquake. It has been conducted in the frame of the Sismo-Haiti cooperative project, supported by the Technical University of Madrid, which started ten months after the 2010 earthquake as an answer to an aid call of the Haitian government. The seismic risk calculation requires two inputs: the seismic hazard (expected ground motion due to a scenario earthquake given by magnitude and location) and the elements exposed to the hazard (classification of the building stock into building typologies, as well as their vulnerability). This vulnerability is described through the damage functions: capacity curves, which represent the structure performance against the horizontal forces caused by the seisms; and fragility curves, which represent the probability of damage as the structure reaches the maximum spectral displacement due to the horizontal force. The proposed methodology specifies certain guidelines and criteria to estimate the ground motion, assign the vulnerability, and evaluate the damage, covering the whole process. Firstly, different ground motion prediction equations including the local effect are considered, and the ones that have the best correlation with the observations of the 2010 earthquake, are identified. Secondly, the classification of building typologies is made by using the information collected during a field campaign, as well as a data base provided by the Ministry of Public Works of Haiti. This data base contains relevant information about all the buildings in the city, leading to a total of 6 different typologies. Finally, the damage is estimated using the capacity-spectrum method as implemented in the software SELENA (Molina et al., 2010). Data about the damage caused by the 2010 earthquake have been used to calibrate the proposed calculation model: different choices of ground motion relationships, soil models, and damage functions. Then, with the calibrated model, a deterministic scenario corresponding to an epicenter close to Port-au-Prince has been simulated. The results show high structural damage, and therefore, they point out the high structural vulnerability in the city. Besides, the economic and human losses associated to the damage would cause a great impact in the country. This result will be provided to the Haitian Government, constituting a scientific base for decision making and for the adoption of measures to prevent and mitigate the seismic risk. It is highly recommended to drive efforts towards the quality control of the new buildings -through reinforcement and construction according to a seismic code- and the development of emergency planning.
Resumo:
Mi gran inquietud, que desde muy joven tuve por el atletismo y en especial por la velocidad, a la cual dediqué muchos años de entrenamientos, me llevó a comprobar durante mis estudios de Profesor de Educación Física, en el Instituto Nacional de Educación Física de Madrid, que no existían criterios claros para la adopción de un test, que permitiera conocer la velocidad de base de los jóvenes talentos. A esta conclusión llegué, después de realizar una revisión bibliográfica de los test más usados en otros paises, en los cuales comprobé que se utilizan diferentes distancias para medir la velocidad de base de los jóvenes talentos. Todo esto me planteó la posibilidad de realizar un trabajo de investigación sobre cual es la distancia idónea para medir la velocidad de base en los jóvenes talentos. Para ello rae dirigí al C.I.T./D., donde se preparan a los futuros talentos deportivos, y me informé de las distintas pruebas de evaluación que realizan en dicho centro, en especial la prueba que aplican para la medición de la velocidad de base. Dicha prueba- comprendía una distancia a recorrer, a toda velocidad, de 40 metros con 10 metros previos para lanzarse. Dándome cuenta de que la distancia total a recorrer por los sujetos era de 50 metros, y creyendo excesiva dicha distancia para medir la velocidad de base en sujetos de 10-11-12 años, correspondientes a los tres niveles del C.I.T./D., esta apreciación me indujo a profundizar en el estudio y análisis de dicha prueba, y de esta forma tratar de encontrar una distancia idónea para medir la velocidad de base en los jóvenes talentos.
Resumo:
En el Distrito de Coixtlahuaca (Estado de Oaxaca, México) desde antiguo se han realizado obras y prácticas de conservación de suelos que intentaran paliar su degradación como consecuencia de la sobreexplotación de las actividades humanas, como el pastoreo, sistemas de cultivo como la roza, tumba y quema o la obtención de leña; a lo que se une la propia la vulnerabilidad natural de sus recursos naturales y las complicadas condiciones climáticas y orográficas. Estos factores han acabado con graves pérdidas de suelo por erosión hídrica en el centro y sur del Distrito, dificultando o impidiendo el normal desarrollo de las actividades humanas más básicas, como la agricultura o el abastecimiento de agua, o las funciones propias del ecosistema, y derivando en otros de índole socioeconómica como la marginalidad o la emigración hacia los EE. UU. y otros Estados del país. Las obras de conservación de suelos en ladera son medidas de amplia difusión en el ámbito conservacionista y de lucha contra la erosión; y han sido objeto de numerosos Programas de Gobierno, sobre todo entre 1966 y 1974. Sin embargo, la eficacia nunca ha sido comprobada para dichas tecnologías ni para el Distrito de Coixtlahuaca, con lo que los esfuerzos retomados en la actualidad continúan la inercia de las obras de conservación realizadas en el pasado, a pesar de haber sido el centro de encendidos debates. La evaluación de las obras de conservación de suelos, objeto de este estudio, analiza su eficacia, sus beneficios en relación al coste, y sus repercusiones socioeconómicas, culturales y ambientales; para lo que se ha estudiado la influencia de las obras sobre los procesos erosivos y la erosionabilidad del suelo, e integrado los distintos puntos de vista de los grupos afectados. Ello ha permitido extraer conclusiones aplicables a las que se están ejecutando actualmente, y la posibilidad de optimizar los recursos económicos empleados desde el Gobierno, la Reserva de la Biosfera a la que pertenece parte del Distrito u otras instituciones y ONGs locales; así como los recursos humanos que con tanto esfuerzo aportan los propios habitantes. Junto a las mejoras que se proponen, se hace necesario reseñar los medios que faciliten la realización de las obras de conservación de suelos, no sólo en su financiación, sino también aquellos que permitan activar los mecanismos de cambio en una sociedad en la que ha renacido una incipiente voluntad por recuperar los recursos en que basan sus medios de vida. Una implementación cuya sostenibilidad, en última instancia, sólo se puede garantizar mediante la adopción de dichas tecnologías a través los beneficios observados por ellos mismos.
Resumo:
La Región Metropolitana de Madrid (RMM) ha sufrido una gran transformación urbana en el periodo 1985-2007, en el cual ha crecido la población, ha crecido fuertemente el cuerpo físico, pero sobre todo han crecido su coste y su consumo, lo que supone que se ha vuelto más insostenible. Para tratar de comprender esta evolución asimétrica se ensayan sucesivos modelos que tratan de explicar la transformación de la realidad a través de la articulación de las formas de poder y sus políticas asociadas dentro del contexto local-metropolitano. Si se compara la transformación urbana en el periodo 1985-2007 respecto a la registrada durante el desarrollismo previo al presente periodo democrático, se encuentran similitudes, como el amplio consumo de suelo, pero el modelo desarrollista se inscribe en otras lógicas y tiene otros parámetros de contexto y es congruente ya que las últimas décadas del Régimen Franquista se caracterizan por un importantísimo aumento poblacional que se correspondía con el fuerte crecimiento industrial de la RMM. Esa congruencia relativa se pierde en el periodo estudiado, a pesar de que en 1985, se aprueba el Plan General de Ordenación Urbana de Madrid centrado en la ciudad existente y con un crecimiento contenido, y que puede considerarse un modelo abortado. Tras numerosas transformaciones políticas, económicas, sociales y urbanísticas se llega a una situación opuesta a la prevista en el citado Plan. Más de veinte años después, en 2007, se presentan no solo síntomas de agotamiento del modelo finalmente adoptado, sino su quiebra dramática tanto en su dimensión inmobiliario-financiera como del espacio del bienestar. Es precisamente la supresión de los mecanismos de regulación lo que ha caracterizado la evolución de los modelos urbanos, en correspondencia con la desregulación de las actividades económicas y de los flujos de capital propios del modelo "neoliberal". La actual crisis financiera internacional, en especial en algunos países periféricos europeos como España, ha demostrado cómo las políticas económicas que se han llevado a cabo, fuera de toda regulación, han resultado insostenibles. Pero no se trata solo de una crisis económica. En el caso español, de todas las dimensiones de la crisis, destaca la dimensión urbana, o el auge y caída del ciclo inmobiliario, debido a la urbanización intensiva del territorio en relación con el circuito secundario de la acumulación capitalista, habiendo tenido especial incidencia en algunos territorios como la RMM. En la Región Metropolitana de Madrid la situación actual es de crisis urbana, causada principalmente por el divorcio entre las necesidades y la producción de ciudad, pues no se ha basado el crecimiento en la creación de nuevos hogares, u otras cuestiones demográficas, sino en la acumulación de capital a través del crecimiento de la ciudad. Además, dicho crecimiento está conformado por una expansión urbana descontrolada, con mayores requerimientos energéticos que el modelo compacto y complejo tradicional, lo que unido a la escala de los procesos, supone un sistema urbano progresivamente ineficiente. El caso de la RMM resulta paradigmático, ya que la región ha desempeñado un papel como laboratorio de nuevas formas de gobierno y planificación que han dado un mayor protagonismo al espacio, que ha entrado en las dinámicas centrales principalmente por el apoyo al crecimiento físico, a la vez que han confluido circunstancias específicas, como un nuevo impulso al centralismo, lo que ha potenciado ciertas políticas, como considerar la ciudad como motor de crecimiento económico y de competitividad en el concierto europeo y mundial de ciudades. El estudio del papel de la planificación y sus crisis en la sucesión de los modelos, muestra su función nuclear en la propia constitución de estos —es parte fundamental de su aparato de regulación— y su valor no solo para poder entender el periodo, sino para poder proyectar otro futuro urbano. Este enfoque conduce a establecer la relación del planeamiento con las diferentes crisis económicas en el periodo de estudio lo que permite diferenciar tres momentos de dicha relación: la planificación urbanística austera bajo la influencia de la crisis fordista, la salida de la crisis a través de la imposición de un modelo urbano basado en el sobreproducción de espacio urbano, y la entrada en una crisis inmobiliaria y de financiarización en relación a la adopción de un modelo multidimensionalmente insostenible. El análisis de este periodo es la base para apuntar perspectivas que permitan transformar el gobierno urbano hacia un modelo urbano más deseable, o mejor aún, otros futuros posibles, que se enmarcan dentro de la alternativa principal que supone la sostenibilidad. Madrid's Metropolitan Region (MMR) has undergone a major urban transformation in the period 1985-2007, where the population has grown up, the built environment has grown strongly, but mostly its cost and consumption have grown, which means that it has become unsustainable. To try to understand this evolution successive asymmetric models are tested in order to explain the transformation of reality through the articulation of forms of power and its associated policies in that localmetropolitan context. Comparing the urban transformation in the period 1985-2007 to the existing during developmentalism in the current predemocratic period, both have similarities in terms of land consumption, but the previous developmentalism model is part of another logics and has got other context parameters. It is consistent since the last decades of the Franco Regime was characterized by an important population increase that corresponded to strong industrial growth of the MMR. This relative consistency is lost during the study period, although in 1985, with the approval of the Master Plan of Madrid that was focused on the existing city, with a limited growth, and it may be considered an interrupted model. After numerous political, economic, social and urban changes, there is the opposite situation to that foresight under that Plan. Over twenty years later, in 2007, there are not only signs of exhaustion of the model which was finally adopted, but also its dramatic collapse in both real estate and financial dimension of space as well. The urban transformation under analysis has relaunched the hegemony of the sectors that rule the growth of the Madrid's Metropolitan Region and it is supported by decision making and financing of the different administrations with the passivity of the social stakeholders and citizens. This has meant the removal of regulatory mechanisms that have characterized the evolution of urban models, corresponding to the deregulation of economic activities and capital flows according to "neoliberal" model. The current international financial crisis, especially in some European peripheral countries like Spain, has shown how economic policies that have been carried out, without any regulation, have proven unsustainable. But it is not only an economic crisis. In the Spanish case, of all the dimensions of the crisis, it is the urban dimension that is highlighted, or the rise and fall of real estate cycle, due to intensive urbanization of the territory in relation to the secondary circuit of capital accumulation, having had a particular impact in some territories such as the Madrid's Metropolitan Region. In Madrid's Metropolitan Region there is the current situation of urban crisis, mainly caused by the divorce between needs and the city (space) production, because no growth has been based on creating new homes, or other demographic issues, but in the capital accumulation through growth of the city. Furthermore, this growth is made up of urban sprawl, with higher energy requirements than the traditional compact and complex one, which together with the scale of processes, is increasingly an inefficient urban system. The case of Madrid's Metropolitan Region is paradigmatic, since the region has played a role as a laboratory for new forms of governance and planning have given a greater role to space, which has entered the core dynamics supported mainly by physical growth, while specific circumstances have come together as a new impulse to centralization. This has promoted policies such as considering the city as an engine of economic growth and competitiveness in the international and the European hierarchy of cities. The study of the role of planning and crisis in the succession of models, shows its nuclear role in the constitution of these models is a fundamental part of its regulatory apparatus- and also its value not only to understand the period, but to anticipate to other urban future. This approach leads to establish the relationship of planning with the various crises in the study period, allowing three different moments of that relationship: the austere urban planning under the influence of Fordist crisis, the output of the crisis through imposition of an urban model based on the overproduction of urban space, and entry into a housing crisis and financialisation in relation to the adoption of a multi-dimensionally unsustainable model. The analysis of this period is the basis for targeting prospects that translate urban governance towards a more desirable urban model, or better yet, other possible futures, which are part of the main alternative that is sustainability.
Resumo:
La contaminación acústica se ha convertido en uno de los principales problemas en materia medioambiental de nuestra sociedad. La creciente preocupación ha propiciado la aparición de legislación, en los distintos ámbitos de la administración, cuyo objetivo consiste en gestionar y reducir la contaminación acústica y sus efectos sobre las personas y el medio ambiente. En este sentido, en relación a las infraestructuras del transporte, y de modo muy especial en los aeropuertos, el monitorado del ruido se convierte en una herramienta de suma importancia para la gestión del ruido, la planificación del territorio y la adopción de medidas correctoras (planes de acción). Los terminales de monitorado de ruido ambiental, que se utilizan fundamentalmente en los aeropuertos, realizan una medición del nivel de ruido ambiental, y evalúan la contaminación que generan las aeronaves al ambiente sonoro general. Para ello, deben ser capaces de medir la evolución temporal del ruido y discriminar aquellos eventos sonoros que se correspondan con el paso de un avión frente al ruido de fondo. Los requisitos aplicables a las unidades de medida, así como los procedimientos de medida implicados han sido descritos recientemente en normas internacionales, como la ISO 20906 o la ARP 4721. Es precisamente en el aspecto relacionado con la discriminación del origen del ruido, donde los sistemas existentes presentan las principales carencias, ya que, un sistema básico de monitorado de ruido realiza la detección de eventos a partir de las medidas de nivel sonoro, evaluando los incrementos de nivel mediante la utilización de umbrales. Dichos umbrales relacionan nivel sonoro y tiempo, de forma que se efectúa el marcado de eventos cuando el nivel de presión sonora, Lp(t), supera un valor determinado durante, al menos, un determinado intervalo temporal. Uno de los principales objetivos de esta tesis se centra en el análisis de los sistemas que existen para la discriminación de ruido de aeronaves, y en el análisis de las contribuciones de estos sistemas sobre la incertidumbre de la medida y el reporte de resultados. Para la consecución de dicho objetivo, se ha definido un modelo de incertidumbre que permite evaluar los diferentes factores de influencia y realizar una cuantificación de la incertidumbre para diferentes escenarios. Durante este proceso se han definido y analizado los conceptos de incertidumbre de detección e incertidumbre de identificación, ambos derivados del diagrama de bloques que propone la norma ISO 20906 para la discriminación del ruido producido por los aviones y el procesado de datos. Asimismo, se pretende abordar el problema de la discriminación de aeronaves con un enfoque novedoso, que permita mejorar el rendimiento de los sistemas y reducir la incertidumbre. Mediante un sistema basado en reconocimiento de patrones uniclase, se aborda esta tarea en base al análisis de la semejanza entre la señal sonora registrada y el sonido que producen los aviones, dejando al margen la magnitud del sonido. Las técnicas de reconocimiento de patrones, y reconocimiento automático de habla, han sido aplicadas previamente al reconocimiento de fuentes de ruido ambiental. Algunos de estos proyectos se han centrado en el ruido de aviones, pero la novedad en esta tesis radica en la aplicación de clasificadores uniclase en un sistema que detecta eventos sonoros gracias a la clasificación de los fragmentos que lo componen. Actualmente los sistemas de gestión de ruido aeroportuario enlazan los datos de ruido proporcionados por las estaciones de monitorado con los datos procedentes del sistema seguimiento de los vuelos de los aviones mediante radar. Este tipo de sistemas es el que ha presentado mayor aceptación y ha sido implantado en los sistemas de monitorado de ruido de los principales aeropuertos internacionales. Sin embargo, este enfoque requiere de equipamiento que permita realizar el seguimiento de la posición de avión, y, dado que únicamente utilizan los niveles sonoros medidos para enlazarlos con el avión que los origina, no será capaz de detectar errores derivados de la presencia de una fuente sonora secundaria cuando existe un avión en la zona. El sistema que se plantea con la realización de esta tesis supone un avance debido a que permite eliminar del proceso de discriminación los umbrales de nivel sonoro, analizando única y exclusivamente la semejanza entre las señales comparadas. De esta manera se pretende mejorar las tasas de error en la identificación, e incluir umbrales de semejanza que permitan eliminar los umbrales de nivel sonoro en el proceso de detección. La implementación del sistema complementando al resto de sistemas del aeropuerto, permitirá la ampliación de las capacidades en el monitorado y la reducción de los costes en las campañas de medición desatendida. Al tiempo que se introducen las técnicas de reconocimiento de patrones en los sistemas de discriminación de los monitores de ruido, se pretende sacar partido de las posibilidades abiertas para dotar al sistema de capacidades adicionales, como es el caso de la detección del ruido de reversa, que se produce tras el aterrizaje de los aviones. La reversa se activa tras el contacto con tierra por parte de los aviones, para reducir la velocidad y acortar la distancia de frenado de los aviones. Esta práctica se usa de forma habitual en los aterrizajes, especialmente en los casos en los que la salida que debe tomar el avión rumbo al terminal se encuentra demasiado próxima al punto de aterrizaje. El empuje inverso se debe a una alteración en el flujo normal de aire que atraviesa los motores, que produce un violento choque contra la carcasa del motor, originando vibraciones y flujo turbulento que se convierte en ruido. El ruido de reversa puede alcanzar unos niveles mucho mayores que el propio aterrizaje, y sus características dinámicas y espectrales lo convierten en especialmente molesto. Por este motivo la utilización injustificada (salvo por motivos de seguridad) está prohibida o es desaconsejada en un gran número de aeropuertos, a nivel internacional (especialmente durante el período nocturno). Sin embargo, las autoridades aeroportuarias carecen de herramientas eficientes y fiables que permitan detectar la utilización de reversa, siendo este punto uno de los aspectos tratados en esta investigación.
Resumo:
Las Tecnologías de la Información y la Comunicación en general e Internet en particular han supuesto una revolución en nuestra forma de comunicarnos, relacionarnos, producir, comprar y vender acortando tiempo y distancias entre proveedores y consumidores. A la paulatina penetración del ordenador, los teléfonos inteligentes y la banda ancha fija y/o móvil ha seguido un mayor uso de estas tecnologías entre ciudadanos y empresas. El comercio electrónico empresa–consumidor (B2C) alcanzó en 2010 en España un volumen de 9.114 millones de euros, con un incremento del 17,4% respecto al dato registrado en 2009. Este crecimiento se ha producido por distintos hechos: un incremento en el porcentaje de internautas hasta el 65,1% en 2010 de los cuales han adquirido productos o servicios a través de la Red un 43,1% –1,6 puntos porcentuales más respecto a 2010–. Por otra parte, el gasto medio por comprador ha ascendido a 831€ en 2010, lo que supone un incremento del 10,9% respecto al año anterior. Si segmentamos a los compradores según por su experiencia anterior de compra podemos encontrar dos categorías: el comprador novel –que adquirió por primera vez productos o servicios en 2010– y el comprador constante –aquel que había adquirido productos o servicios en 2010 y al menos una vez en años anteriores–. El 85,8% de los compradores se pueden considerar como compradores constantes: habían comprado en la Red en 2010, pero también lo habían hecho anteriormente. El comprador novel tiene un perfil sociodemográfico de persona joven de entre 15–24 años, con estudios secundarios, de clase social media y media–baja, estudiante no universitario, residente en poblaciones pequeñas y sigue utilizando fórmulas de pago como el contra–reembolso (23,9%). Su gasto medio anual ascendió en 2010 a 449€. El comprador constante, o comprador que ya había comprado en Internet anteriormente, tiene un perfil demográfico distinto: estudios superiores, clase alta, trabajador y residente en grandes ciudades, con un comportamiento maduro en la compra electrónica dada su mayor experiencia –utiliza con mayor intensidad canales exclusivos en Internet que no disponen de tienda presencial–. Su gasto medio duplica al observado en compradores noveles (con una media de 930€ anuales). Por tanto, los compradores constantes suponen una mayoría de los compradores con un gasto medio que dobla al comprador que ha adoptado el medio recientemente. Por consiguiente es de interés estudiar los factores que predicen que un internauta vuelva a adquirir un producto o servicio en la Red. La respuesta a esta pregunta no se ha revelado sencilla. En España, la mayoría de productos y servicios aún se adquieren de manera presencial, con una baja incidencia de las ventas a distancia como la teletienda, la venta por catálogo o la venta a través de Internet. Para dar respuesta a las preguntas planteadas se ha investigado desde distintos puntos de vista: se comenzará con un estudio descriptivo desde el punto de vista de la demanda que trata de caracterizar la situación del comercio electrónico B2C en España, poniendo el foco en las diferencias entre los compradores constantes y los nuevos compradores. Posteriormente, la investigación de modelos de adopción y continuidad en el uso de las tecnologías y de los factores que inciden en dicha continuidad –con especial interés en el comercio electrónico B2C–, permiten afrontar el problema desde la perspectiva de las ecuaciones estructurales pudiendo también extraer conclusiones de tipo práctico. Este trabajo sigue una estructura clásica de investigación científica: en el capítulo 1 se introduce el tema de investigación, continuando con una descripción del estado de situación del comercio electrónico B2C en España utilizando fuentes oficiales (capítulo 2). Posteriormente se desarrolla el marco teórico y el estado del arte de modelos de adopción y de utilización de las tecnologías (capítulo 3) y de los factores principales que inciden en la adopción y continuidad en el uso de las tecnologías (capítulo 4). El capítulo 5 desarrolla las hipótesis de la investigación y plantea los modelos teóricos. Las técnicas estadísticas a utilizar se describen en el capítulo 6, donde también se analizan los resultados empíricos sobre los modelos desarrollados en el capítulo 5. El capítulo 7 expone las principales conclusiones de la investigación, sus limitaciones y propone nuevas líneas de investigación. La primera parte corresponde al capítulo 1, que introduce la investigación justificándola desde un punto de vista teórico y práctico. También se realiza una breve introducción a la teoría del comportamiento del consumidor desde una perspectiva clásica. Se presentan los principales modelos de adopción y se introducen los modelos de continuidad de utilización que se estudiarán más detalladamente en el capítulo 3. En este capítulo se desarrollan los objetivos principales y los objetivos secundarios, se propone el mapa mental de la investigación y se planifican en un cronograma los principales hitos del trabajo. La segunda parte corresponde a los capítulos dos, tres y cuatro. En el capítulo 2 se describe el comercio electrónico B2C en España utilizando fuentes secundarias. Se aborda un diagnóstico del sector de comercio electrónico y su estado de madurez en España. Posteriormente, se analizan las diferencias entre los compradores constantes, principal interés de este trabajo, frente a los compradores noveles, destacando las diferencias de perfiles y usos. Para los dos segmentos se estudian aspectos como el lugar de acceso a la compra, la frecuencia de compra, los medios de pago utilizados o las actitudes hacia la compra. El capítulo 3 comienza desarrollando los principales conceptos sobre la teoría del comportamiento del consumidor, para continuar estudiando los principales modelos de adopción de tecnología existentes, analizando con especial atención su aplicación en comercio electrónico. Posteriormente se analizan los modelos de continuidad en el uso de tecnologías (Teoría de la Confirmación de Expectativas; Teoría de la Justicia), con especial atención de nuevo a su aplicación en el comercio electrónico. Una vez estudiados los principales modelos de adopción y continuidad en el uso de tecnologías, el capítulo 4 analiza los principales factores que se utilizan en los modelos: calidad, valor, factores basados en la confirmación de expectativas –satisfacción, utilidad percibida– y factores específicos en situaciones especiales –por ejemplo, tras una queja– como pueden ser la justicia, las emociones o la confianza. La tercera parte –que corresponde al capítulo 5– desarrolla el diseño de la investigación y la selección muestral de los modelos. En la primera parte del capítulo se enuncian las hipótesis –que van desde lo general a lo particular, utilizando los factores específicos analizados en el capítulo 4– para su posterior estudio y validación en el capítulo 6 utilizando las técnicas estadísticas apropiadas. A partir de las hipótesis, y de los modelos y factores estudiados en los capítulos 3 y 4, se definen y vertebran dos modelos teóricos originales que den respuesta a los retos de investigación planteados en el capítulo 1. En la segunda parte del capítulo se diseña el trabajo empírico de investigación definiendo los siguientes aspectos: alcance geográfico–temporal, tipología de la investigación, carácter y ambiente de la investigación, fuentes primarias y secundarias utilizadas, técnicas de recolección de datos, instrumentos de medida utilizados y características de la muestra utilizada. Los resultados del trabajo de investigación constituyen la cuarta parte de la investigación y se desarrollan en el capítulo 6, que comienza analizando las técnicas estadísticas basadas en Modelos de Ecuaciones Estructurales. Se plantean dos alternativas, modelos confirmatorios correspondientes a Métodos Basados en Covarianzas (MBC) y modelos predictivos. De forma razonada se eligen las técnicas predictivas dada la naturaleza exploratoria de la investigación planteada. La segunda parte del capítulo 6 desarrolla el análisis de los resultados de los modelos de medida y modelos estructurales construidos con indicadores formativos y reflectivos y definidos en el capítulo 4. Para ello se validan, sucesivamente, los modelos de medida y los modelos estructurales teniendo en cuenta los valores umbrales de los parámetros estadísticos necesarios para la validación. La quinta parte corresponde al capítulo 7, que desarrolla las conclusiones basándose en los resultados del capítulo 6, analizando los resultados desde el punto de vista de las aportaciones teóricas y prácticas, obteniendo conclusiones para la gestión de las empresas. A continuación, se describen las limitaciones de la investigación y se proponen nuevas líneas de estudio sobre distintos temas que han ido surgiendo a lo largo del trabajo. Finalmente, la bibliografía recoge todas las referencias utilizadas a lo largo de este trabajo. Palabras clave: comprador constante, modelos de continuidad de uso, continuidad en el uso de tecnologías, comercio electrónico, B2C, adopción de tecnologías, modelos de adopción tecnológica, TAM, TPB, IDT, UTAUT, ECT, intención de continuidad, satisfacción, confianza percibida, justicia, emociones, confirmación de expectativas, calidad, valor, PLS. ABSTRACT Information and Communication Technologies in general, but more specifically those related to the Internet in particular, have changed the way in which we communicate, relate to one another, produce, and buy and sell products, reducing the time and shortening the distance between suppliers and consumers. The steady breakthrough of computers, Smartphones and landline and/or wireless broadband has been greatly reflected in its large scale use by both individuals and businesses. Business–to–consumer (B2C) e–commerce reached a volume of 9,114 million Euros in Spain in 2010, representing a 17.4% increase with respect to the figure in 2009. This growth is due in part to two different facts: an increase in the percentage of web users to 65.1% en 2010, 43.1% of whom have acquired products or services through the Internet– which constitutes 1.6 percentage points higher than 2010. On the other hand, the average spending by individual buyers rose to 831€ en 2010, constituting a 10.9% increase with respect to the previous year. If we select buyers according to whether or not they have previously made some type of purchase, we can divide them into two categories: the novice buyer–who first made online purchases in 2010– and the experienced buyer: who also made purchases in 2010, but had done so previously as well. The socio–demographic profile of the novice buyer is that of a young person between 15–24 years of age, with secondary studies, middle to lower–middle class, and a non–university educated student who resides in smaller towns and continues to use payment methods such as cash on delivery (23.9%). In 2010, their average purchase grew to 449€. The more experienced buyer, or someone who has previously made purchases online, has a different demographic profile: highly educated, upper class, resident and worker in larger cities, who exercises a mature behavior when making online purchases due to their experience– this type of buyer frequently uses exclusive channels on the Internet that don’t have an actual store. His or her average purchase doubles that of the novice buyer (with an average purchase of 930€ annually.) That said, the experienced buyers constitute the majority of buyers with an average purchase that doubles that of novice buyers. It is therefore of interest to study the factors that help to predict whether or not a web user will buy another product or use another service on the Internet. The answer to this question has proven not to be so simple. In Spain, the majority of goods and services are still bought in person, with a low amount of purchases being made through means such as the Home Shopping Network, through catalogues or Internet sales. To answer the questions that have been posed here, an investigation has been conducted which takes into consideration various viewpoints: it will begin with a descriptive study from the perspective of the supply and demand that characterizes the B2C e–commerce situation in Spain, focusing on the differences between experienced buyers and novice buyers. Subsequently, there will be an investigation concerning the technology acceptance and continuity of use of models as well as the factors that have an effect on their continuity of use –with a special focus on B2C electronic commerce–, which allows for a theoretic approach to the problem from the perspective of the structural equations being able to reach practical conclusions. This investigation follows the classic structure for a scientific investigation: the subject of the investigation is introduced (Chapter 1), then the state of the B2C e–commerce in Spain is described citing official sources of information (Chapter 2), the theoretical framework and state of the art of technology acceptance and continuity models are developed further (Chapter 3) and the main factors that affect their acceptance and continuity (Chapter 4). Chapter 5 explains the hypothesis behind the investigation and poses the theoretical models that will be confirmed or rejected partially or completely. In Chapter 6, the technical statistics that will be used are described briefly as well as an analysis of the empirical results of the models put forth in Chapter 5. Chapter 7 explains the main conclusions of the investigation, its limitations and proposes new projects. First part of the project, chapter 1, introduces the investigation, justifying it from a theoretical and practical point of view. It is also a brief introduction to the theory of consumer behavior from a standard perspective. Technology acceptance models are presented and then continuity and repurchase models are introduced, which are studied more in depth in Chapter 3. In this chapter, both the main and the secondary objectives are developed through a mind map and a timetable which highlights the milestones of the project. The second part of the project corresponds to Chapters Two, Three and Four. Chapter 2 describes the B2C e–commerce in Spain from the perspective of its demand, citing secondary official sources. A diagnosis concerning the e–commerce sector and the status of its maturity in Spain is taken on, as well as the barriers and alternative methods of e–commerce. Subsequently, the differences between experienced buyers, which are of particular interest to this project, and novice buyers are analyzed, highlighting the differences between their profiles and their main transactions. In order to study both groups, aspects such as the place of purchase, frequency with which online purchases are made, payment methods used and the attitudes of the purchasers concerning making online purchases are taken into consideration. Chapter 3 begins by developing the main concepts concerning consumer behavior theory in order to continue the study of the main existing acceptance models (among others, TPB, TAM, IDT, UTAUT and other models derived from them) – paying special attention to their application in e–commerce–. Subsequently, the models of technology reuse are analyzed (CDT, ECT; Theory of Justice), focusing again specifically on their application in e–commerce. Once the main technology acceptance and reuse models have been studied, Chapter 4 analyzes the main factors that are used in these models: quality, value, factors based on the contradiction of expectations/failure to meet expectations– satisfaction, perceived usefulness– and specific factors pertaining to special situations– for example, after receiving a complaint justice, emotions or confidence. The third part– which appears in Chapter 5– develops the plan for the investigation and the sample selection for the models that have been designed. In the first section of the Chapter, the hypothesis is presented– beginning with general ideas and then becoming more specific, using the detailed factors that were analyzed in Chapter 4– for its later study and validation in Chapter 6– as well as the corresponding statistical factors. Based on the hypothesis and the models and factors that were studied in Chapters 3 and 4, two original theoretical models are defined and organized in order to answer the questions posed in Chapter 1. In the second part of the Chapter, the empirical investigation is designed, defining the following aspects: geographic–temporal scope, type of investigation, nature and setting of the investigation, primary and secondary sources used, data gathering methods, instruments according to the extent of their use and characteristics of the sample used. The results of the project constitute the fourth part of the investigation and are developed in Chapter 6, which begins analyzing the statistical techniques that are based on the Models of Structural Equations. Two alternatives are put forth: confirmatory models which correspond to Methods Based on Covariance (MBC) and predictive models– Methods Based on Components–. In a well–reasoned manner, the predictive techniques are chosen given the explorative nature of the investigation. The second part of Chapter 6 explains the results of the analysis of the measurement models and structural models built by the formative and reflective indicators defined in Chapter 4. In order to do so, the measurement models and the structural models are validated one by one, while keeping in mind the threshold values of the necessary statistic parameters for their validation. The fifth part corresponds to Chapter 7 which explains the conclusions of the study, basing them on the results found in Chapter 6 and analyzing them from the perspective of the theoretical and practical contributions, and consequently obtaining conclusions for business management. The limitations of the investigation are then described and new research lines about various topics that came up during the project are proposed. Lastly, all of the references that were used during the project are listed in a final bibliography. Key Words: constant buyer, repurchase models, continuity of use of technology, e–commerce, B2C, technology acceptance, technology acceptance models, TAM, TPB, IDT, UTAUT, ECT, intention of repurchase, satisfaction, perceived trust/confidence, justice, feelings, the contradiction of expectations, quality, value, PLS.
Resumo:
La Tesis, formalmente, es parte de la que consta desde 1.975 en la biblioteca de la Escuela con la signatura 20024. Manteniendo el mismo título, estudia la evolución de la teoría de la restamración y del análisis de los centros históricos a través de la bibliografía publicada en los últimos veinte años y, de algunas actuaciones realizadas en Sevilla durante el mismo período. El resultado está presentado, siguiendo el orden del índice General, en cinco volúmenes: I resumen, II El desarrollo general del tema, III Apéndices, IV bibliografía publicada en los últimos veinte años y, V glosario de términos. Para identificar los orígenes y antecedentes de la teoría de la restauración arquitectónica y de su evolución, el estudio se encuentra desarrollado en cuatro capítulos: Una visión general; La restauración en España en el siglo XX hasta 1.976; Los últimos veinte años 1975 - 1.996 y, El estudio de los centros históricos. En el primero, se perfila el origen, la evolución y el estado actual de la cuestión dentro del ámbito internacional. Al respecto, se destacan las relaciones entre los hechos y las opiniones en Europa y en América. Las consecuencias de la revolución francesa, de la revolución industrial, de la segunda guerra mundial y del movimiento moderno sobre el patrimonio ya construido a través de los cambios en el marco legal; de la opinión de los más destacados profesionales que se han pronimciado sobre el tema, entre otros: Vitet, Viollet le Duc, Ruskin, Morris, Boito, Riegl, Giovannoni, Brandi. Paralelamente, también se hace referencia a la formación del arquitecto y a la participación de otras disciplinas en la restam-ación del patrimonio cultiual construido. En el segundo capítulo, se estudia el proceso de adscripción de los especialistas españoles a las corrientes internacionales de la restauración y la forma como inició la "restauración perceptiva" en los escritos de los "restauradores" que habían asumido el pensamiento de Viollet le Duc, representados por Lampérez y de los "antirrestauradores" que defendían la postura de Ruskin. La tercera vía sugerida por Boito, debido a su distanciamiento razonado de los dos anteriores, no se la encuentra identificada de manera específica en ningún autor español de esta época pero sí a través de la adopción generalizada de la casuística, del "caso por caso". Durante la República, "la elaboración teórica perderá el carácter de debate enconado que había caracterizado el desarrollo de decenios anteriores lo cual, unido a que la escasa diuación del período impide la formación de una tradición teórica, hace que las contribuciones no sean cuantiosas" Posteriormente, cuando el trabajo teórico de Torres Balbás puesto de manifiesto en centenares de artículos y en las obras de la Alhambra, permitía advertir su aporte al enriquecimiento de los principios internacionales de la restauración, sobrevino la guerra civil y con ella el inicio de un largo período de aletargamiento. Él, en 1.931 había asistido a la conferencia de Expertos para la protección realizada en Atenas para presentar su trabajo titulado: "Evolución del criterio respecto a la restauración de monimientos en la España actual". De esa reunión surgió la Carta Internacional que treinta y tres años después, serviría de referente a la Carta de Venecia, el documento de más amplia repercusión en el ámbito de la protección del patrimonio cultural edificado (arquitectura y centros históricos). La continuidad de los congresos de especialistas iniciada a fines del siglo pasado, se interrumpió en la década de los cuarenta. Debido a las consecuencias de la segunda guerra mundial se aprobó la "Convención de La Haya sobre protección de los Bienes Culturales en caso de conflicto armado". A partir de entonces, los moniunentos (la restaiuración) quedarán inmersos en luia nueva concepción, más general y amplia que, después de ser profundizada por Giannini, será adoptada en la Ley del Patrimonio Histórico Español, vigente desde 1.985. Los primeros pronimciamientos del movimiento de la arquitectm-a moderna y después las sendas Cartas de Atenas (1.931, 1.933) habían ubicado a la restaiuación en una situación perfectamente acotada dentro de la cual prolongaban su vida todas las otras corrientes: historicista, ecléctica, nacionalista, neoromántica, etc. En un lado se ubicaron los "modernos" y en el otro los "conservacionistas". Solamente a fines de los años setenta, demostradas las insuficiencias "modernas", ésta reiterativa compartiamentación tratará de ser superada. En el tercer capítulo se estudia detalladamente el aporte bibliográfico al tema y se evidencia la forma cómo, por exceso de doctrina y, coetáneamente, de una escasa teoría, terminada la dictadm-a en España, la situación del patrimonio arquitectónico seguía pareciéndose mucho a aquella descrita por Torres Balbás sesenta años antes: "un tremendo deterioro", debido a la especulación inmobiliaria y a la falta de vma política cultiu-al. El peso del régimen anterior parece haber sido tal que, pocas cosas escaparon a su control. Gracias al ambiente democrático, según la bibliografía revisada, la actitud de los especialistas en "lo nuevo" frente a "lo antiguo" también cambió. La norma, desde entonces ha perdido contundencia pero no su vigencia. Después del agotamiento terminológico al que llegó la restam-ación en los años setenta, Sola Morales introdujo, por primera vez en España ima palabra familiar entre los italianos pero novedosa en castellano: "intervención". A partir de este momento se adoptaron los principios del "restauro crítico" italiano y se provocó el cuestionamiento sobre la rehabilitación. En 1.983, por primera vez en español aparece resiunida y ordenada por Antón Capitel, una "Discusión crítica sobre las Teorías de la Restam^ación arquitectónica". Será parte constitutiva del libro publicado en 1.988 "Metamorfosis de monumentos". Emergía de un período esencialmente confuso pero de reflexión a la que se integraron los arqueólogos, historiadores, críticos, etc, debido particularmente a dos circunstancias: la infrautilización del patrimonio construido en los centros históricos y la consecuente "fiebre restauradora y rehabilitadora". En los últimos veinte años, según 524 registros publicados en España de un total de 799 que constan en el índice onomástico de la bibliografía estudiada, la notable influencia del pensamiento italiano sobre el tema de la tesis, solamente ha servido para matizar la tradición doctrinaria local, incapaz de extraer de su enorme tradición práctica, un componente teórico generador propio. Lo dicho se constata al analizar dos importantes obras ejecutadas en Sevilla durante el período de preparación del Quinto Centenario: la Cartuja y el Palacio de Manara. La primera no ha conseguido evidenciar su objetivo cultural. La restaiu"ación en el Palacio de Manara ha logrado recuperar la distribución tipológica de una importante casa señorial del centro histórico de Sevilla pero, contrariamente a lo que se proclama, tampoco tiene características para convertirse en un modelo a seguir. En el último capítulo se estudia la relación entre la restamación arquitectónica y el centro histórico. Si a éste se lo reconoce como una unidad homogénea, su protección intermediada por la intervención en sus monumentos tendría una apreciable limitación pues, esa arquitectura sin aquella connotación no podría garantizar la protección de todo el "conjunto". De esta circunstancia emerge el planeamiento como el único reciuso técnico capaz de garantizar la protección integral de la arqmtectura. Sin embargo, en España, el planeamiento de protección sigue dependiendo de la filosofía de la Ley del Suelo. No de la de Cultura. Debido a ello, todavía no es posible apreciar una postm-a de lo "antiguo" frente a lo "nuevo" en forma semejante a la conocida actitud de quienes están edificando lo "nuevo" hacia lo "antiguo". Esta es la situación que en el futuro deberá superar la "restauración" arquitectónica y la "protección" en los centros históricos para hacer propicia una reflexión teórica dinámica. Complementariamente, a manera de conclusión, entre otros puntos se ha verificado: En cantidad, en calidad y en diversidad, el contenido de los registros bibliográficos de las dos últimas décadas en España, son superiores a los de épocas anteriores pero, en cuanto a profundidad, las diferencias se hacen imperceptibles. No existe una teoría de la restam-ación tomada como un. conjunto de conocimientos especulativos independientes de su aplicación. Existen algunos componentes dispersos que, desde luego, constituyen un cuerpo doctrinal (en cuanto normativo) con indudables contenidos conceptuales que a la vez podrían constituir los fragmentos sueltos de una posible teoría. El fracaso en la delimitación del ámbito del restam-o y en la construcción de una teoría general sobre la restauración de monumentos en España no quita ni pone importancia a las intervenciones en el patrimonio edilicio con alto valor social agregado realizadas en los últimos veinte años. Eso sí, dificulta identificar una actitud profesional y académica generalizadas frente al patrimonio cultural edificado. No es posible afirmar que las intervenciones de los últimos años estén sometidas a una teoría general o específica ni tampoco decir que hay una "escuela regional" entendida como una tradición de haceres, actitudes o características resultantes commies en las restam-aciones del patrimonio arquitectónico. Obedecen al cumplimiento de la doctrina tradicional que bien podría convertirse en el pragmático empleo de un recurso artificio con connotación ética. En la restauración - a diferencia de la arquitectura de nueva planta- pareciera ser necesario y más fácil identificar la relación entre ética y estética; por lo tanto, habría una especie de obligación social de explicar la razón de ser de las obras tanto como la forma de ejecutarlas. Como conclusión, operativa y parte de ese corpus teórico -que no teoría propiamente dicha- se ha elaborado lui GLOSARIO de términos especializados sobre el tema.