827 resultados para PAISES EN DESARROLLO SIN LITORAL
Resumo:
Hasta hoy, el hombre ha sido capaz de alcanzar logros inesperados en términos de descubrimientos científicos; se ha desarrollado y ha avanzado de forma constante, al igual que sus investigaciones. Por otro lado, todo esto ha provocado varias consecuencias negativas que van unidas al desarrollo tecnológico. El hombre comenzó a utilizar la energía y los recursos naturales de manera muy egoísta, sin pensar, y sólo en los últimos años ha comenzado a considerar cuáles son los aspectos negativos de sus propios avances. Empezó a preguntarse hasta cuando la naturaleza va a tolerar el agotamiento de los recursos sin cargo. Es evidente que el uso constante de energía y sus recursos ha dado lugar a cambios muy importantes a nivel mundial, tales como la calefacción o el alarmante nivel de contaminación del medio ambiente. Uno de los pocos lados positivos de la crisis económica es que ha conducido a los grandes contaminadores a mirar a largo plazo, plantearse el futuro ecológico y aunar esfuerzos para buscar una solución mejor que la actual. Parece que el mundo comenzó a darse cuenta de que la crisis ecológica va más allá de la puramente energética, ya que las amenazas que provienen de los ámbitos de la energía tienen un impacto directo sobre el medio ambiente; así, resolver el problema de la energía se convirtió en una prioridad desde el punto de vista ambiental. En comparación con los países líderes de Europa y del resto del mundo, debido a la crisis financiera de Serbia, que se ha prolongado durante años, todavía no ha tenido oportunidad de desarrollar el sector energético, las nuevas tecnologías o la industria y, por lo tanto, afortunadamente, todavía no ha alcanzado un alto grado de la deterioro ecológico. Es un país muy rico en recursos naturales, especialmente los bosques y el agua, y dispone de muchas sustancias pendientes de investigación que podrían llegar a explotarse adecuadamente. La candidatura de adhesión de Serbia a la UE, confirmada a principios de este año, traerá muchos cambios e innovaciones en todo el sistema del país, por lo que tendrá un impacto directo en el desarrollo de la conciencia de todos los ciudadanos. Dado que Serbia se considera un país en desarrollo y un excelente terreno para las inversiones extranjeras, es importante en primer lugar crear un sistema que será modelado siguiendo los ejemplos de los países con una tradición de conservación de los recursos naturales y la eficiencia energética, para así ser capaz de limitar las actividades de los inversores extranjeros poniendo el medio ambiente en el primer lugar. Este trabajo está basado en los parámetros de las investigaciones, procesos y análisis de los sistemas que ya están en uso y que se han demostrado como buenos. El objetivo es provocar el interés sobre este tema, tomando como ejemplo Serbia, el país donde el desarrollo de la energía sigue y que representa una excelente base para la aplicación de los programas probados y eficaces, evitando de esta manera que se cometan los errores que algunos países han experimentado.
Resumo:
El trabajo presentado estudia la presencia de Fusarium oxysporum, F.solani(sensulato), F. equiseti y F.acuminatum en puntos del litoral de Almería, Alicante, Gerona e Islas Baleares (Menorca, Ibiza, Espalmador). Se analizaron tanto arenas de las playas (zonas intermareal y supramareal) como fondos marino situados a 27,9 y 7,2 metros de profundidad en Almería y a 10 m de profundidad en las Islas Baleares. Exceptuando el litoral de Gerona, en el resto de los enclaves se presentaron varias especies de Fusarium que se aislaron de las arenas de las playas, confirmando así resultados obtenidos con anterioridad. Lo más novedoso fue encontrar especies de Fusarium a diferentes profundidades marinas. En Almería F.oxysporum y F.equisti se aislaron a 27,9 y7,2 m profundidad. F. acuminatum se aisló de la muetra recogida a 27m de profundidad. En las islas Baleares, a10m de profundidad, se aislaron F. oxysporum, F. solani (sensulato), F.equiseti y F.acuminatum. El efecto antrópico, el comportamiento como "airborne" o los arrastres de aguas por las ramblas y torrentes podría explicar la presencia de estas especies en los hábitats mencionados. La permanencia de estas especies en los hábitats mencionados, especialmente en la zona intermareal de las playas y en los fondos marinos donde soportan elevadas presiones osmóticas por la alta salinidad del agua del mar Mediterráneo, permitirá estudios específicos sobre el comportamiento de estos hongos en medios muy salinos. Otros hongos aislados de arenas de playa y fondos marinos fueron: Acremonium, Alternaria, Aspergillus, Cladosporium, Dreschlera, Gliocladium Humicola, Penicillium, Phialophora, Rhizopus, Stemphylium, Trichoderma, Trichocladium y Ulocladium. Muchos de ellos fueron aislados del fondo marino, testimoniando así que estos hábitats no son exclusivos de Fusarium.
Resumo:
Este trabajo es continuación de una serie de estudios sobre la biogeografía de Fusarium que se están realizando desde hace 5 años en España. En él se presentan los resultados analíticos para el género Fusarium de muestras de aguas del cauce del río Andarax y de fondos del mar Mediterráneo en las provincias de Granada y Almería (Sureste de España). Se analizan un total de 18 muestras de agua del río Andarax. De ellas se aislaron 10 especies de Fusarium: F. anthophilum, F. acuminatum, F. chlamydosporum, F. culmorum, F. equiseti, F. verticillioides, F. oxysporum, F. proliferatum, F. solani y F. sambucinum. De las 23 muestras del mar Mediterráneo se aislaron 5 especies: F. equiseti,F. moliniforme, F. oxysporum, F. proliferatum y F. solani. Sobre el total de muestras analizadas, un 27,45% de las muestras de aguas del río y un 29,41% de muestras de procedencia marina presentaron como mínimo una especie de Fusarium a lo largo de casi 12 meses de muestreo. Considerando las muestras según sus orígenes se encuentra que en las de origen aguas del río un 77,77% presentaron alguna especie de Fusarium; en el caso de los fondos marinos un 45,45% de las muestras presentó alguna especie de Fusarium. La mayor presencia de especies en las aguas del río puede ser debida a los contenidos en el agua de partículas de suelo y materia orgánica, después de los arrastres producidos en las orillas por las lluvias. La presencia de especies encontradas en el mar puede ser consecuencia de las aguas de los cauces que desembocan en éste. Sin embargo, no pueden excluirse otras vías.
Resumo:
Problemas rurales y políticas públicas llevadas a cabo en el Perú hasta el año 2007, y su importancia económica y social. Intervenciones llevada a cabo en las áreas rurales peruanas por diversas instituciones.
Resumo:
El proyecto pretende principalmente cumplir con dos objetivos prioritarios para el desarrollo del Puerto de Algeciras: por un lado, contribuir a cubrir necesidades de suministro de combustibles para buques que ya existen en el Puerto y que se plantearán con más intensidad después de su ampliación, y por otro, ofrecer las mayores garantías ambientales y de seguridad para el entorno y la población, reduciendo además el riesgo de derrames de hidrocarburos en la Bahía, al restar cuota de mercado a las prácticas que vienen desarrollándose en Gibraltar sin las adecuadas garantías medioambientales y de seguridad.
Resumo:
El modelo económico imperante en nuestro mundo a lo largo del siglo XX ha conducido a un alto desequilibrio social y económico. Las consecuencias medioambientales de estos desequilibrios comienzan a aflorar, teniendo como principales protagonistas la crisis de recursos naturales básicos que experimentan muchos países, especialmente los que presentan menor grado de desarrollo, así como el conocido fenómeno del cambio climático. Con este telón de fondo, aparecen dos indicadores de sostenibilidad denominados “Huella Ecológica” y “Huella de Carbono” capaces, en el caso de la Huella Ecológica de cuantificar la demanda de recursos naturales de cualquier objeto en estudio en comparación con el potencial productivo del planeta, y en el caso de la Huella de Carbono de cuantificar las emisiones de gases de efecto invernadero asociadas al patrón de consumo establecido por dicho objeto en estudio. Sin embargo, la proliferación actual de metodologías y criterios para la estimación de estos indicadores pone de manifiesto la necesidad de establecer criterios únicos y convergentes en la aplicación práctica de los cálculos de Huella Ecológica y Huella de Carbono que permitan desarrollar todo el potencial de ambos indicadores. En este Proyecto Fin de Carrera se ha aplicado un método para el cálculo de la Huella Ecológica y la Huella de Carbono aplicable en centros universitarios, que a través de un análisis de su actividad económica y de la elaboración de un inventario de uso de suelo y de generación de residuos, permite evaluar la posición medioambiental de dicho centro respecto a su nivel de consumo de recursos y generación de emisiones. La aplicación de este modelo a la Escuela Técnica Superior de Ingenieros de Montes de Madrid ha arrojado interesantes resultados, que cifran en 2.724 toneladas de CO2 su Huella de Carbono y en 948 hectáreas globales su Huella Ecológica, referidas ambas al año 2010. Estas cifras revelan que la posición medioambiental de la Escuela de Ingenieros de Montes de Madrid está en línea con la de otros centros universitarios españoles a la vez que sirven para poner a la citada Escuela en la órbita de otros centros nacionales e internacionales que ya han calculado sus respectivas huellas en un ejercicio de búsqueda de sostenibilidad en el entorno universitario.
Resumo:
La educación representa una de las más trascendentales necesidades de nuestro tiempo. En los países en desarrollo, esta necesidad aparece con un doble matiz: cualitativo, en cuanto a la forma y al contenido de la educación, que debe adaptarse a un país en evolución, y cuantitativo, por el aumento de su importancia numérica. La envergadura del problema requiere soluciones de envergadura. ¿Tiene algún papel el ordenador en este planteamiento? El ordenador es una herramienta, la herramienta intelectual más poderosa que ha inventado el hombre. Cuando se padece una necesidad y se tiene una herramienta, es preciso estudiar si ésta puede ayudar de alguna manera a aliviar aquélla. A continuación expongo algunas ideas y reflexiones personales en torno a este problema.
Resumo:
Esta tesis ha estudiado los morteros celulares, centrándose en la experimentación con pastas de cemento aireadas (PCA) con polvo de aluminio como agente expansor. El objetivo es el desarrollo de un material cementicio con una baja conductividad térmica que sirva como aislamiento térmico. La naturaleza inorgánica del material lo hace incombustible, en contraste con las espumas poliméricas existentes en el mercado, cuya aplicación en cámaras ventiladas ha sido prohibida por normativas de construcción tanto a nivel nacional como internacional. Las posibles aplicaciones son con proyección neumática o en paneles prefabricados. Se han ensayado dos series de pastas de cemento con polvo de aluminio: - Serie WPC/CAC/CH. Mezcla de referencia con cemento blanco (WPC), cemento de aluminato cálcico (CAC) y cal aérea (CH) en proporción 5:1:4. - Serie OPC/CH. Mezcla de referencia con cemento portland con cenizas volantes (OPC) y cal aérea (CH) en proporción OPC/CH de 4:1 A las mezclas de referencia se le han añadido adiciones de metacaolín (MK) (10 y 20%) o sepiolita (SP) (1 y 2%) para observar el efecto que producen tanto en el mortero fresco como en el mortero endurecido. Se ha estudiado la reología de las pastas en estado fresco, analizando el proceso de expansión de las pastas, registrando los valores de tensión de fluencia, aire ocluido y temperatura durante la expansión. Con los valores obtenidos se ha discutido la influencia de las adiciones utilizadas en la cinética de corrosión del polvo de aluminio que genera la expansión, concluyendo que las adiciones puzolánicas (CV y MK) y la SP reducen mucho el periodo de inducción, lo que provoca poros más grandes y mayor cantidad de aire ocluido. Asimismo se ha analizado la relación entre la tensión de fluencia y el contenido de aire ocluido, deduciendo que a mayor tensión de fluencia en el momento de iniciarse la expansión, menor tamaño de poros y contenido de aire ocluido. Finalmente, se han obtenido las densidades y capacidades de retención de agua de los morteros frescos. Para caracterizar la red porosa de las pastas aireadas endurecidas, se obtuvieron tanto las densidades reales, netas, aparentes y relativas como las porosidades abiertas, cerradas y totales con ensayos hídricos. Finalmente se obtuvieron imágenes de los poros con tomografía axial computerizada para obtener las porosimetrías de las muestras. La caracterización de la red porosa ha servido para terminar de analizar lo observado en la evolución de la expansión del mortero fresco. Se ha analizado la influencia de la red porosa en la conductividad térmica, obtenida con caja caliente, comparándola con la existente en la literatura existente tanto de morteros celulares como de espumas poliméricas. Se concluye que los valores de conductividad térmica conseguida están en el mínimo posible para un material celular de base cementicia. La microestructura se ha estudiado con microscopía electrónica de barrido, difracción de rayos X y ensayos térmicos TG/ATD, observando que los productos de hidratación encontrados coinciden con los que se producen en morteros sin airear. Las imágenes SEM y los resultados de ultrasonidos han servido para analizar la presencia de microfisuras de retracción en las pastas aireadas, observando que en las muestras con adiciones de MK y SP, se reduce la presencia de microfisuras. ABSTRACT This thesis has studied cellular mortars, focusing in testing aerated cement pastes with aluminum powder as expansive agent. The purpose is the development of a cementitious material with low thermal conductivity that can be used as thermal isolation. Inorganic nature of this material makes it non-combustible, in contrast with polymeric foams in market, whose application in ventilated double skin façade systems has been banned by building standards, both domestically and internationally. Possible uses for this material are pneumatically sprayed applications and precast panels. Two series of batches with aluminum powder have been tested: - WPC/CAC/CH series. Reference paste with white portland cement (WPC), calcium aluminate cement (CAC) and lime (CH) with 5:1:4 ratio. - OPC/CH series. Reference paste with portland cement with fly ash (OPC) and lime (CH) with 4:1 ratio. Metakaolin (MK) (10 and 20%) or sepiolite (SP) (1 and 2%) additions were used in reference pastes to characterize the effect in fresh and hardened mortar. Rheology in fresh pastes was studied, expansion process of pastes was analyzed, recording yield stress, entrained air and temperature values during expansion. Recorded values were used to discuss influence of additions on reaction kinetics of aluminum powder corrosion, that produces expansion.. Conclusion is that pozzolanic additions (FA and MK) and SP greatly reduce induction period, producing bigger pores and more entrained air. Relation between yield stress and entrained air has been also analyzed, observing that the bigger yield stress at beginning of expansion, the smaller pores size and the lower entrained air values. Finally density and water retention of fresh mortars were obtained. Pore network in hardened aerated cement pastes was characterized by imbibition methods providing true, bulk and relative density, and providing also open, closed and total porosity. Finally, pore system imaging were obtained with computerized axial tomography to study porosimetry of specimens. Pore network characterization was useful to complete facts analysis observed in expansion of fresh mortars. Influence of pore network in thermal conductivity, checked in hot box, was analyzed comparing with those existing values in cellular mortar and polymeric foams researches. It was concluded that thermal conductivity values achieved are close to minimum possible in a cementitious cellular material. Microstructure was studied with Scanning Electron Microscopy, X-Ray Diffractometry and TG-DTA analysis, observing that hydration phases found, are those produced in non aerated mortar. SEM imaging and ultrasound results were useful to analyze shrinkage microcracks in aerated cement pastes, concluding that microcrack presence in specimens with MK and SP additions were reduced.
Resumo:
La institucionalidad con enfoque de nueva gobernanza es el paradigma dominante en la agenda internacional. La nueva gobernanza tiene como valor supremo la eficiencia económica. Sobre esta institucionalidad descansa lo impulsado en desarrollo rural en México desde hace una década, que ha coincidido con la continuidad de gobiernos de centro-derecha. En la presente investigación se analiza la institucionalización de la nueva gobernanza en el desarrollo rural en México a través de dos estudios de caso: Alianza para el Campo, frente a un proyecto piloto de organismos multilaterales. Los resultados indican que a través de la descentralización se logró un equilibrio de poderes entre el Ejecutivo federal y los estados, pero no se avanzó en la participación de los actores sociales y privados, en la desregulación y la eficacia.
Resumo:
Dentro del objetivo común que persigue alcanzar una estabilidad social y una economía de éxito sostenible en el actual e incierto contexto mundial, el pronóstico es que la demanda de energía siga aumentando y que la generación mundial de electricidad se duplique entre los años 2005 y 2030. En este escenario, los combustibles fósiles podrían mantener una contribución muy significativa al mix energético posiblemente hasta el año 2050, participando del mercado de generación de energía eléctrica mundial en aproximadamente un 70% y siendo base de la generación de energía eléctrica europea en un 60%. El carbón sin duda seguirá teniendo una contribución clave. Este incremento en la demanda energética y energía eléctrica, en el consumo de carbón y de combustibles fósiles en general, sin duda tendrá impacto sobre los niveles de concentración de CO2 a nivel global en los diferentes escenarios evaluados, con un fatal pronóstico de triplicar, si no se contiene de alguna manera su emisión, los niveles actuales de concentración de CO2 hasta valores próximos a 1.200 ppm para finales de este siglo XXI. El Protocolo de Kyoto, adoptado en 1997, fue el primer tratado de responsabilidad a nivel mundial para el monitoreo y limitación de las emisiones de CO2, realizando una primera aproximación hasta el año 2012 y tomando como valores de referencia los referidos a los niveles de concentración de gases de efecto invernadero registrados en 1990. Algunos de los principales países emisores de CO2 como USA y China no ratificaron los objetivos de límite de emisión y niveles de reducción de CO2, y sin embargo están tomando sus propias acciones y medidas en paralelo para reducir sus emisiones. Los procesos de combustión más eficientes y con menor consumo de combustible, proporcionan una significativa contribución del sector de generación eléctrica a la reducción de los niveles de concentración de CO2, pero podría no ser suficiente. Tecnologías de captura y almacenamiento de carbono (CCS, del inglés Carbon Capture and Storage) han comenzado a ganar más importancia desde principios de esta década, se ha intensificado la investigación y proliferado la creación de fondos que impulsen su desarrollo y estimulen su despliegue. Tras los primeros proyectos de investigación básica y ensayos a pequeña escala, casi embrionaria, tres procesos de captura se posicionan como los más viables actualmente, con potencial para alcanzar niveles de reducción de CO2 del 90%, mediante su aplicación en centrales de carbón para generación eléctrica. En referencia al último paso del esquema CCS en el proceso de reducción de las ingentes cantidades de CO2 que habría que eliminar de la atmósfera, dos opciones deberían ser consideradas: la reutilización (EOR y EGR) y el almacenamiento. El presente artículo evalúa el estado de las diferentes tecnologías de captura de CO2, su disponibilidad, su desarrollo y su coste de instalación estimado. Se incorpora un pequeño análisis de los costes de operación y varias extrapolaciones, dado que solo están disponibles algunos de estos datos hasta la fecha. Además este artículo muestra los principales hallazgos y los potenciales de reducción de emisiones de CO2 en la utilización del carbón para generar electricidad y proporciona una visión del desarrollo y despliegue actual de la tecnología. Se realiza una revisión de las iniciativas existentes a nivel mundial mediante proyectos de demostración orientados a la viabilidad comercial del esquema CCS para el período 2020 ? 2030. Se evalúan los diferentes programas en curso y sus avances, como el programa de UK, el EEPR (European Energy Program for Recovery), etc. Las principales fuentes empleadas en la elaboración de este artículo son el DOE, NETL, MIT, EPRI, Centros e Institutos de Investigación, Universidades Europeas, Administraciones Públicas y Agencias Internacionales, suministradores de tecnología crítica, compañías eléctricas (utilities) y empresas tecnológicas.
Resumo:
El comercio electrónico ha experimentado un fuerte crecimiento en los últimos años, favorecido especialmente por el aumento de las tasas de penetración de Internet en todo el mundo. Sin embargo, no todos los países están evolucionando de la misma manera, con un espectro que va desde las naciones pioneras en desarrollo de tecnologías de la información y comunicaciones, que cuentan con una elevado porcentaje de internautas y de compradores online, hasta las rezagadas de rápida adopción en las que, pese a contar con una menor penetración de acceso, presentan una alta tasa de internautas compradores. Entre ambos extremos se encuentran países como España que, aunque alcanzó hace años una tasa considerable de penetración de usuarios de Internet, no ha conseguido una buena tasa de transformación de internautas en compradores. Pese a que el comercio electrónico ha experimentado importantes aumentos en los últimos años, sus tasas de crecimiento siguen estando por debajo de países con características socio-económicas similares. Para intentar conocer las razones que afectan a la adopción del comercio por parte de los compradores, la investigación científica del fenómeno ha empleado diferentes enfoques teóricos. De entre todos ellos ha destacado el uso de los modelos de adopción, proveniente de la literatura de adopción de sistemas de información en entornos organizativos. Estos modelos se basan en las percepciones de los compradores para determinar qué factores pueden predecir mejor la intención de compra y, en consecuencia, la conducta real de compra de los usuarios. Pese a que en los últimos años han proliferado los trabajos de investigación que aplican los modelos de adopción al comercio electrónico, casi todos tratan de validar sus hipótesis mediante el análisis de muestras de consumidores tratadas como un único conjunto, y del que se obtienen conclusiones generales. Sin embargo, desde el origen del marketing, y en especial a partir de la segunda mitad del siglo XIX, se considera que existen diferencias en el comportamiento de los consumidores, que pueden ser debidas a características demográficas, sociológicas o psicológicas. Estas diferencias se traducen en necesidades distintas, que sólo podrán ser satisfechas con una oferta adaptada por parte de los vendedores. Además, por contar el comercio electrónico con unas características particulares que lo diferencian del comercio tradicional –especialmente por la falta de contacto físico entre el comprador y el producto– a las diferencias en la adopción para cada consumidor se le añaden las diferencias derivadas del tipo de producto adquirido, que si bien habían sido consideradas en el canal físico, en el comercio electrónico cobran especial relevancia. A la vista de todo ello, el presente trabajo pretende abordar el estudio de los factores determinantes de la intención de compra y la conducta real de compra en comercio electrónico por parte del consumidor final español, teniendo en cuenta el tipo de segmento al que pertenezca dicho comprador y el tipo de producto considerado. Para ello, el trabajo contiene ocho apartados entre los que se encuentran cuatro bloques teóricos y tres bloques empíricos, además de las conclusiones. Estos bloques dan lugar a los siguientes ocho capítulos por orden de aparición en el trabajo: introducción, situación del comercio electrónico, modelos de adopción de tecnología, segmentación en comercio electrónico, diseño previo del trabajo empírico, diseño de la investigación, análisis de los resultados y conclusiones. El capítulo introductorio justifica la relevancia de la investigación, además de fijar los objetivos, la metodología y las fases seguidas para el desarrollo del trabajo. La justificación se complementa con el segundo capítulo, que cuenta con dos elementos principales: en primer lugar se define el concepto de comercio electrónico y se hace una breve retrospectiva desde sus orígenes hasta la situación actual en un contexto global; en segundo lugar, el análisis estudia la evolución del comercio electrónico en España, mostrando su desarrollo y situación presente a partir de sus principales indicadores. Este apartado no sólo permite conocer el contexto de la investigación, sino que además permite contrastar la relevancia de la muestra utilizada en el presente estudio con el perfil español respecto al comercio electrónico. Los capítulos tercero –modelos de adopción de tecnologías– y cuarto –segmentación en comercio electrónico– sientan las bases teóricas necesarias para abordar el estudio. En el capítulo tres se hace una revisión general de la literatura de modelos de adopción de tecnología y, en particular, de los modelos de adopción empleados en el ámbito del comercio electrónico. El resultado de dicha revisión deriva en la construcción de un modelo adaptado basado en los modelos UTAUT (Unified Theory of Acceptance and Use of Technology, Teoría unificada de la aceptación y el uso de la tecnología) y UTAUT2, combinado con dos factores específicos de adopción del comercio electrónico: el riesgo percibido y la confianza percibida. Por su parte, en el capítulo cuatro se revisan las metodologías de segmentación de clientes y productos empleadas en la literatura. De dicha revisión se obtienen un amplio conjunto de variables de las que finalmente se escogen nueve variables de clasificación que se consideran adecuadas tanto por su adaptación al contexto del comercio electrónico como por su adecuación a las características de la muestra empleada para validar el modelo. Las nueve variables se agrupan en tres conjuntos: variables de tipo socio-demográfico –género, edad, nivel de estudios, nivel de ingresos, tamaño de la unidad familiar y estado civil–, de comportamiento de compra – experiencia de compra por Internet y frecuencia de compra por Internet– y de tipo psicográfico –motivaciones de compra por Internet. La segunda parte del capítulo cuatro se dedica a la revisión de los criterios empleados en la literatura para la clasificación de los productos en el contexto del comercio electrónico. De dicha revisión se obtienen quince grupos de variables que pueden tomar un total de treinta y cuatro valores, lo que deriva en un elevado número de combinaciones posibles. Sin embargo, pese a haber sido utilizados en el contexto del comercio electrónico, no en todos los casos se ha comprobado la influencia de dichas variables respecto a la intención de compra o la conducta real de compra por Internet; por este motivo, y con el objetivo de definir una clasificación robusta y abordable de tipos de productos, en el capitulo cinco se lleva a cabo una validación de las variables de clasificación de productos mediante un experimento previo con 207 muestras. Seleccionando sólo aquellas variables objetivas que no dependan de la interpretación personal del consumidores y que determinen grupos significativamente distintos respecto a la intención y conducta de compra de los consumidores, se obtiene un modelo de dos variables que combinadas dan lugar a cuatro tipos de productos: bien digital, bien no digital, servicio digital y servicio no digital. Definidos el modelo de adopción y los criterios de segmentación de consumidores y productos, en el sexto capítulo se desarrolla el modelo completo de investigación formado por un conjunto de hipótesis obtenidas de la revisión de la literatura de los capítulos anteriores, en las que se definen las hipótesis de investigación con respecto a las influencias esperadas de las variables de segmentación sobre las relaciones del modelo de adopción. Este modelo confiere a la investigación un carácter social y de tipo fundamentalmente exploratorio, en el que en muchos casos ni siquiera se han encontrado evidencias empíricas previas que permitan el enunciado de hipótesis sobre la influencia de determinadas variables de segmentación. El capítulo seis contiene además la descripción del instrumento de medida empleado en la investigación, conformado por un total de 125 preguntas y sus correspondientes escalas de medida, así como la descripción de la muestra representativa empleada en la validación del modelo, compuesta por un grupo de 817 personas españolas o residentes en España. El capítulo siete constituye el núcleo del análisis empírico del trabajo de investigación, que se compone de dos elementos fundamentales. Primeramente se describen las técnicas estadísticas aplicadas para el estudio de los datos que, dada la complejidad del análisis, se dividen en tres grupos fundamentales: Método de mínimos cuadrados parciales (PLS, Partial Least Squares): herramienta estadística de análisis multivariante con capacidad de análisis predictivo que se emplea en la determinación de las relaciones estructurales de los modelos propuestos. Análisis multigrupo: conjunto de técnicas que permiten comparar los resultados obtenidos con el método PLS entre dos o más grupos derivados del uso de una o más variables de segmentación. En este caso se emplean cinco métodos de comparación, lo que permite asimismo comparar los rendimientos de cada uno de los métodos. Determinación de segmentos no identificados a priori: en el caso de algunas de las variables de segmentación no existe un criterio de clasificación definido a priori, sino que se obtiene a partir de la aplicación de técnicas estadísticas de clasificación. En este caso se emplean dos técnicas fundamentales: análisis de componentes principales –dado el elevado número de variables empleadas para la clasificación– y análisis clúster –del que se combina una técnica jerárquica que calcula el número óptimo de segmentos, con una técnica por etapas que es más eficiente en la clasificación, pero exige conocer el número de clústeres a priori. La aplicación de dichas técnicas estadísticas sobre los modelos resultantes de considerar los distintos criterios de segmentación, tanto de clientes como de productos, da lugar al análisis de un total de 128 modelos de adopción de comercio electrónico y 65 comparaciones multigrupo, cuyos resultados y principales consideraciones son elaboradas a lo largo del capítulo. Para concluir, el capítulo ocho recoge las conclusiones del trabajo divididas en cuatro partes diferenciadas. En primer lugar se examina el grado de alcance de los objetivos planteados al inicio de la investigación; después se desarrollan las principales contribuciones que este trabajo aporta tanto desde el punto de vista metodológico, como desde los punto de vista teórico y práctico; en tercer lugar, se profundiza en las conclusiones derivadas del estudio empírico, que se clasifican según los criterios de segmentación empleados, y que combinan resultados confirmatorios y exploratorios; por último, el trabajo recopila las principales limitaciones de la investigación, tanto de carácter teórico como empírico, así como aquellos aspectos que no habiendo podido plantearse dentro del contexto de este estudio, o como consecuencia de los resultados alcanzados, se presentan como líneas futuras de investigación. ABSTRACT Favoured by an increase of Internet penetration rates across the globe, electronic commerce has experienced a rapid growth over the last few years. Nevertheless, adoption of electronic commerce has differed from one country to another. On one hand, it has been observed that countries leading e-commerce adoption have a large percentage of Internet users as well as of online purchasers; on the other hand, other markets, despite having a low percentage of Internet users, show a high percentage of online buyers. Halfway between those two ends of the spectrum, we find countries such as Spain which, despite having moderately high Internet penetration rates and similar socio-economic characteristics as some of the leading countries, have failed to turn Internet users into active online buyers. Several theoretical approaches have been taken in an attempt to define the factors that influence the use of electronic commerce systems by customers. One of the betterknown frameworks to characterize adoption factors is the acceptance modelling theory, which is derived from the information systems adoption in organizational environments. These models are based on individual perceptions on which factors determine purchase intention, as a mean to explain users’ actual purchasing behaviour. Even though research on electronic commerce adoption models has increased in terms of volume and scope over the last years, the majority of studies validate their hypothesis by using a single sample of consumers from which they obtain general conclusions. Nevertheless, since the birth of marketing, and more specifically from the second half of the 19th century, differences in consumer behaviour owing to demographic, sociologic and psychological characteristics have also been taken into account. And such differences are generally translated into different needs that can only be satisfied when sellers adapt their offer to their target market. Electronic commerce has a number of features that makes it different when compared to traditional commerce; the best example of this is the lack of physical contact between customers and products, and between customers and vendors. Other than that, some differences that depend on the type of product may also play an important role in electronic commerce. From all the above, the present research aims to address the study of the main factors influencing purchase intention and actual purchase behaviour in electronic commerce by Spanish end-consumers, taking into consideration both the customer group to which they belong and the type of product being purchased. In order to achieve this goal, this Thesis is structured in eight chapters: four theoretical sections, three empirical blocks and a final section summarizing the conclusions derived from the research. The chapters are arranged in sequence as follows: introduction, current state of electronic commerce, technology adoption models, electronic commerce segmentation, preliminary design of the empirical work, research design, data analysis and results, and conclusions. The introductory chapter offers a detailed justification of the relevance of this study in the context of e-commerce adoption research; it also sets out the objectives, methodology and research stages. The second chapter further expands and complements the introductory chapter, focusing on two elements: the concept of electronic commerce and its evolution from a general point of view, and the evolution of electronic commerce in Spain and main indicators of adoption. This section is intended to allow the reader to understand the research context, and also to serve as a basis to justify the relevance and representativeness of the sample used in this study. Chapters three (technology acceptance models) and four (segmentation in electronic commerce) set the theoretical foundations for the study. Chapter 3 presents a thorough literature review of technology adoption modelling, focusing on previous studies on electronic commerce acceptance. As a result of the literature review, the research framework is built upon a model based on UTAUT (Unified Theory of Acceptance and Use of Technology) and its evolution, UTAUT2, including two specific electronic commerce adoption factors: perceived risk and perceived trust. Chapter 4 deals with client and product segmentation methodologies used by experts. From the literature review, a wide range of classification variables is studied, and a shortlist of nine classification variables has been selected for inclusion in the research. The criteria for variable selection were their adequacy to electronic commerce characteristics, as well as adequacy to the sample characteristics. The nine variables have been classified in three groups: socio-demographic (gender, age, education level, income, family size and relationship status), behavioural (experience in electronic commerce and frequency of purchase) and psychographic (online purchase motivations) variables. The second half of chapter 4 is devoted to a review of the product classification criteria in electronic commerce. The review has led to the identification of a final set of fifteen groups of variables, whose combination offered a total of thirty-four possible outputs. However, due to the lack of empirical evidence in the context of electronic commerce, further investigation on the validity of this set of product classifications was deemed necessary. For this reason, chapter 5 proposes an empirical study to test the different product classification variables with 207 samples. A selection of product classifications including only those variables that are objective, able to identify distinct groups and not dependent on consumers’ point of view, led to a final classification of products which consisted on two groups of variables for the final empirical study. The combination of these two groups gave rise to four types of products: digital and non-digital goods, and digital and non-digital services. Chapter six characterizes the research –social, exploratory research– and presents the final research model and research hypotheses. The exploratory nature of the research becomes patent in instances where no prior empirical evidence on the influence of certain segmentation variables was found. Chapter six also includes the description of the measurement instrument used in the research, consisting of a total of 125 questions –and the measurement scales associated to each of them– as well as the description of the sample used for model validation (consisting of 817 Spanish residents). Chapter 7 is the core of the empirical analysis performed to validate the research model, and it is divided into two separate parts: description of the statistical techniques used for data analysis, and actual data analysis and results. The first part is structured in three different blocks: Partial Least Squares Method (PLS): the multi-variable analysis is a statistical method used to determine structural relationships of models and their predictive validity; Multi-group analysis: a set of techniques that allow comparing the outcomes of PLS analysis between two or more groups, by using one or more segmentation variables. More specifically, five comparison methods were used, which additionally gives the opportunity to assess the efficiency of each method. Determination of a priori undefined segments: in some cases, classification criteria did not necessarily exist for some segmentation variables, such as customer motivations. In these cases, the application of statistical classification techniques is required. For this study, two main classification techniques were used sequentially: principal component factor analysis –in order to reduce the number of variables– and cluster analysis. The application of the statistical methods to the models derived from the inclusion of the various segmentation criteria –for both clients and products–, led to the analysis of 128 different electronic commerce adoption models and 65 multi group comparisons. Finally, chapter 8 summarizes the conclusions from the research, divided into four parts: first, an assessment of the degree of achievement of the different research objectives is offered; then, methodological, theoretical and practical implications of the research are drawn; this is followed by a discussion on the results from the empirical study –based on the segmentation criteria for the research–; fourth, and last, the main limitations of the research –both empirical and theoretical– as well as future avenues of research are detailed.
Resumo:
Durante los últimos años, el imparable crecimiento de fuentes de datos biomédicas, propiciado por el desarrollo de técnicas de generación de datos masivos (principalmente en el campo de la genómica) y la expansión de tecnologías para la comunicación y compartición de información ha propiciado que la investigación biomédica haya pasado a basarse de forma casi exclusiva en el análisis distribuido de información y en la búsqueda de relaciones entre diferentes fuentes de datos. Esto resulta una tarea compleja debido a la heterogeneidad entre las fuentes de datos empleadas (ya sea por el uso de diferentes formatos, tecnologías, o modelizaciones de dominios). Existen trabajos que tienen como objetivo la homogeneización de estas con el fin de conseguir que la información se muestre de forma integrada, como si fuera una única base de datos. Sin embargo no existe ningún trabajo que automatice de forma completa este proceso de integración semántica. Existen dos enfoques principales para dar solución al problema de integración de fuentes heterogéneas de datos: Centralizado y Distribuido. Ambos enfoques requieren de una traducción de datos de un modelo a otro. Para realizar esta tarea se emplean formalizaciones de las relaciones semánticas entre los modelos subyacentes y el modelo central. Estas formalizaciones se denominan comúnmente anotaciones. Las anotaciones de bases de datos, en el contexto de la integración semántica de la información, consisten en definir relaciones entre términos de igual significado, para posibilitar la traducción automática de la información. Dependiendo del problema en el que se esté trabajando, estas relaciones serán entre conceptos individuales o entre conjuntos enteros de conceptos (vistas). El trabajo aquí expuesto se centra en estas últimas. El proyecto europeo p-medicine (FP7-ICT-2009-270089) se basa en el enfoque centralizado y hace uso de anotaciones basadas en vistas y cuyas bases de datos están modeladas en RDF. Los datos extraídos de las diferentes fuentes son traducidos e integrados en un Data Warehouse. Dentro de la plataforma de p-medicine, el Grupo de Informática Biomédica (GIB) de la Universidad Politécnica de Madrid, en el cuál realicé mi trabajo, proporciona una herramienta para la generación de las necesarias anotaciones de las bases de datos RDF. Esta herramienta, denominada Ontology Annotator ofrece la posibilidad de generar de manera manual anotaciones basadas en vistas. Sin embargo, aunque esta herramienta muestra las fuentes de datos a anotar de manera gráfica, la gran mayoría de usuarios encuentran difícil el manejo de la herramienta , y pierden demasiado tiempo en el proceso de anotación. Es por ello que surge la necesidad de desarrollar una herramienta más avanzada, que sea capaz de asistir al usuario en el proceso de anotar bases de datos en p-medicine. El objetivo es automatizar los procesos más complejos de la anotación y presentar de forma natural y entendible la información relativa a las anotaciones de bases de datos RDF. Esta herramienta ha sido denominada Ontology Annotator Assistant, y el trabajo aquí expuesto describe el proceso de diseño y desarrollo, así como algunos algoritmos innovadores que han sido creados por el autor del trabajo para su correcto funcionamiento. Esta herramienta ofrece funcionalidades no existentes previamente en ninguna otra herramienta del área de la anotación automática e integración semántica de bases de datos. ---ABSTRACT---Over the last years, the unstoppable growth of biomedical data sources, mainly thanks to the development of massive data generation techniques (specially in the genomics field) and the rise of the communication and information sharing technologies, lead to the fact that biomedical research has come to rely almost exclusively on the analysis of distributed information and in finding relationships between different data sources. This is a complex task due to the heterogeneity of the sources used (either by the use of different formats, technologies or domain modeling). There are some research proyects that aim homogenization of these sources in order to retrieve information in an integrated way, as if it were a single database. However there is still now work to automate completely this process of semantic integration. There are two main approaches with the purpouse of integrating heterogeneous data sources: Centralized and Distributed. Both approches involve making translation from one model to another. To perform this task there is a need of using formalization of the semantic relationships between the underlying models and the main model. These formalizations are also calles annotations. In the context of semantic integration of the information, data base annotations consist on defining relations between concepts or words with the same meaning, so the automatic translation can be performed. Depending on the task, the ralationships can be between individuals or between whole sets of concepts (views). This paper focuses on the latter. The European project p-medicine (FP7-ICT-2009-270089) is based on the centralized approach. It uses view based annotations and RDF modeled databases. The data retireved from different data sources is translated and joined into a Data Warehouse. Within the p-medicine platform, the Biomedical Informatics Group (GIB) of the Polytechnic University of Madrid, in which I worked, provides a software to create annotations for the RDF sources. This tool, called Ontology Annotator, is used to create annotations manually. However, although Ontology Annotator displays the data sources graphically, most of the users find it difficult to use this software, thus they spend too much time to complete the task. For this reason there is a need to develop a more advanced tool, which would be able to help the user in the task of annotating p-medicine databases. The aim is automating the most complex processes of the annotation and display the information clearly and easy understanding. This software is called Ontology Annotater Assistant and this book describes the process of design and development of it. as well as some innovative algorithms that were designed by the author of the work. This tool provides features that no other software in the field of automatic annotation can provide.
Resumo:
El estudio del comportamiento de la atmósfera ha resultado de especial importancia tanto en el programa SESAR como en NextGen, en los que la gestión actual del tránsito aéreo (ATM) está experimentando una profunda transformación hacia nuevos paradigmas tanto en Europa como en los EE.UU., respectivamente, para el guiado y seguimiento de las aeronaves en la realización de rutas más eficientes y con mayor precisión. La incertidumbre es una característica fundamental de los fenómenos meteorológicos que se transfiere a la separación de las aeronaves, las trayectorias de vuelo libres de conflictos y a la planificación de vuelos. En este sentido, el viento es un factor clave en cuanto a la predicción de la futura posición de la aeronave, por lo que tener un conocimiento más profundo y preciso de campo de viento reducirá las incertidumbres del ATC. El objetivo de esta tesis es el desarrollo de una nueva técnica operativa y útil destinada a proporcionar de forma adecuada y directa el campo de viento atmosférico en tiempo real, basada en datos de a bordo de la aeronave, con el fin de mejorar la predicción de las trayectorias de las aeronaves. Para lograr este objetivo se ha realizado el siguiente trabajo. Se han descrito y analizado los diferentes sistemas de la aeronave que proporcionan las variables necesarias para obtener la velocidad del viento, así como de las capacidades que permiten la presentación de esta información para sus aplicaciones en la gestión del tráfico aéreo. Se ha explorado el uso de aeronaves como los sensores de viento en un área terminal para la estimación del viento en tiempo real con el fin de mejorar la predicción de las trayectorias de aeronaves. Se han desarrollado métodos computacionalmente eficientes para estimar las componentes horizontales de la velocidad del viento a partir de las velocidades de las aeronaves (VGS, VCAS/VTAS), la presión y datos de temperatura. Estos datos de viento se han utilizado para estimar el campo de viento en tiempo real utilizando un sistema de procesamiento de datos a través de un método de mínima varianza. Por último, se ha evaluado la exactitud de este procedimiento para que esta información sea útil para el control del tráfico aéreo. La información inicial proviene de una muestra de datos de Registradores de Datos de Vuelo (FDR) de aviones que aterrizaron en el aeropuerto Madrid-Barajas. Se dispuso de datos de ciertas aeronaves durante un periodo de más de tres meses que se emplearon para calcular el vector viento en cada punto del espacio aéreo. Se utilizó un modelo matemático basado en diferentes métodos de interpolación para obtener los vectores de viento en áreas sin datos disponibles. Se han utilizado tres escenarios concretos para validar dos métodos de interpolación: uno de dos dimensiones que trabaja con ambas componentes horizontales de forma independiente, y otro basado en el uso de una variable compleja que relaciona ambas componentes. Esos métodos se han probado en diferentes escenarios con resultados dispares. Esta metodología se ha aplicado en un prototipo de herramienta en MATLAB © para analizar automáticamente los datos de FDR y determinar el campo vectorial del viento que encuentra la aeronave al volar en el espacio aéreo en estudio. Finalmente se han obtenido las condiciones requeridas y la precisión de los resultados para este modelo. El método desarrollado podría utilizar los datos de los aviones comerciales como inputs utilizando los datos actualmente disponibles y la capacidad computacional, para proporcionárselos a los sistemas ATM donde se podría ejecutar el método propuesto. Estas velocidades del viento calculadas, o bien la velocidad respecto al suelo y la velocidad verdadera, se podrían difundir, por ejemplo, a través del sistema de direccionamiento e informe para comunicaciones de aeronaves (ACARS), mensajes de ADS-B o Modo S. Esta nueva fuente ayudaría a actualizar la información del viento suministrada en los productos aeronáuticos meteorológicos (PAM), informes meteorológicos de aeródromos (AIRMET), e información meteorológica significativa (SIGMET). ABSTRACT The study of the atmosphere behaviour is been of particular importance both in SESAR and NextGen programs, where the current air traffic management (ATM) system is undergoing a profound transformation to the new paradigms both in Europe and the USA, respectively, to guide and track aircraft more precisely on more efficient routes. Uncertainty is a fundamental characteristic of weather phenomena which is transferred to separation assurance, flight path de-confliction and flight planning applications. In this respect, the wind is a key factor regarding the prediction of the future position of the aircraft, so that having a deeper and accurate knowledge of wind field will reduce ATC uncertainties. The purpose of this thesis is to develop a new and operationally useful technique intended to provide adequate and direct real-time atmospheric winds fields based on on-board aircraft data, in order to improve aircraft trajectory prediction. In order to achieve this objective the following work has been accomplished. The different sources in the aircraft systems that provide the variables needed to derivate the wind velocity have been described and analysed, as well as the capabilities which allow presenting this information for air traffic management applications. The use of aircraft as wind sensors in a terminal area for real-time wind estimation in order to improve aircraft trajectory prediction has been explored. Computationally efficient methods have been developed to estimate horizontal wind components from aircraft velocities (VGS, VCAS/VTAS), pressure, and temperature data. These wind data were utilized to estimate a real-time wind field using a data processing approach through a minimum variance method. Finally, the accuracy of this procedure has been evaluated for this information to be useful to air traffic control. The initial information comes from a Flight Data Recorder (FDR) sample of aircraft landing in Madrid-Barajas Airport. Data available for more than three months were exploited in order to derive the wind vector field in each point of the airspace. Mathematical model based on different interpolation methods were used in order to obtain wind vectors in void areas. Three particular scenarios were employed to test two interpolation methods: a two-dimensional one that works with both horizontal components in an independent way, and also a complex variable formulation that links both components. Those methods were tested using various scenarios with dissimilar results. This methodology has been implemented in a prototype tool in MATLAB © in order to automatically analyse FDR and determine the wind vector field that aircraft encounter when flying in the studied airspace. Required conditions and accuracy of the results were derived for this model. The method developed could be fed by commercial aircraft utilizing their currently available data sources and computational capabilities, and providing them to ATM system where the proposed method could be run. Computed wind velocities, or ground and true airspeeds, would then be broadcasted, for example, via the Aircraft Communication Addressing and Reporting System (ACARS), ADS-B out messages, or Mode S. This new source would help updating the wind information furnished in meteorological aeronautical products (PAM), meteorological aerodrome reports (AIRMET), and significant meteorological information (SIGMET).
Resumo:
Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.
Resumo:
Los Objetivos de Desarrollo del Milenio comprometieron a los países con una nueva alianza mundial de alcanzar gradualmente una cobertura universal de los niveles mínimos de bienestar en los países en desarrollo (reducir la pobreza y el hambre y dar respuesta a problemas como la mala salud, las desigualdades de género, la falta de educación, el acceso a agua salubre y la degradación ambiental). Para dar continuidad a esta iniciativa, recientemente en septiembre de 2015, la ONU promulgó la declaración de los Objetivos de Desarrollo Sostenible. Los ODM sitúan la salud en el corazón del desarrollo y establecen un novedoso pacto mundial que vincula a los países desarrollados y los países en desarrollo por medio de obligaciones claras y recíprocas. En este sentido, diversos organismos de cooperación a través de sus programas de cooperación internacional, tratan de mejorar el acceso a la asistencia sanitaria, especialmente a la población vulnerable que vive en zonas rurales de países en desarrollo. Con el fin de ayudar a cumplir los ODM que apoyan los temas de salud en dicha población, estos organismos desarrollan proyectos que despliegan sistemas de e-salud. Las intervenciones se enfrentan a múltiples retos: condicionantes de los países en desarrollo, las necesidades y demandas de los sistemas sanitarios y la complejidad de implantar las TIC en entornos complejos y altamente dinámicos como son los países en desarrollo. Estos condicionantes ocasionan la mayoría de proyectos fallidos que terminan convirtiéndose en soluciones aisladas, que anteponen la tecnología a las necesidades de la población y no generan el impacto esperado en su desarrollo. En este contexto tuvo origen esta tesis doctoral, que persigue como objetivo analizar, planificar, diseñar, verificar y validar un marco arquitectónico de implantación de sistemas de e-salud en áreas rurales de países en desarrollo, que promueva el mejoramiento de la calidad de vida de la población vulnerable de estas regiones y la efectividad de las intervenciones de e-salud en el marco de proyectos de cooperación al desarrollo. Para lograrlo, tomé como punto de partida, diversas estrategias, modelos, metodologías de implantación de e-salud, modelos de gestión de proyectos propuestos por distintos organismos internacionales y propuse una instanciación de estos modelos a proyectos de implantación de sistemas de e-salud en países en desarrollo. Apliqué la metodología action research y los enfoques twin track, middle out y design thinking que me permitieron el refinamiento iterativo del modelo propuesto en la tesis doctoral mediante el trabajo de campo realizado en dos zonas rurales de países de Centroamérica: Jocotán (Guatemala) y San José de Cusmapa (Nicaragua). Como resultado obtuve un modelo experimental basado en cuatro componentes: un modelo de referencia tipo, un modelo conceptual de e-salud, los procesos de gestión y de implantación de sistemas de e-salud en países en desarrollo y una arquitectura de referencia. El modelo experimental resultante aporta herramientas importantes para el despliegue de sistemas de e-salud en países en desarrollo. Se ha propuesto un modelo de referencia que proporciona una visión holística del contexto del país en desarrollo donde se desarrollarán las intervenciones. Un modelo conceptual de e-salud que representa los principales conceptos involucrados en un sistema de e-salud. Los procesos ii- de gestión del proyecto y de implantación del sistema que proporcionan a los grupos de cooperación, herramientas para el análisis, diseño, desarrollo y despliegue de los sistemas de e-salud en áreas rurales de países en desarrollo. Y finalmente la arquitectura de referencia que sienta las bases para la aplicación de estos procesos a un contexto en particular. Las líneas futuras de trabajo sugieren extender el modelo a más casos de estudio que permitan su refinamiento y evaluar los futuros usos que pueden surgir de los sistemas de e-salud resultantes. ABSTRACT Millennium Development Goals (MDGs) committing the countries with a new global partnership to achieve universal coverage of minimum levels of well-being in Developing Countries (for addressing extreme poverty in its many dimensions-income poverty, hunger, disease, lack of adequate housing, and exclusion-while promoting gender equality, education, and environmental sustainability). From September 2015, these goals are replaces with Sustainable Development Goals (SDGs). The MDG place health at the heart of development and establish a novel global compact, linking developed and developing countries through clear, reciprocal obligations. Many public and private institutions promote international cooperation programs to support in achieving the MDGs. Some of these cooperation programs deal improving access to healthcare to poor people living in isolated areas from developing countries. In order to accomplish this goal organizations perform projects (interventions or cooperation projects) that deploy e-health systems in these zones. Nevertheless, this kind of projects face multiple challenges that dismiss the effectiveness of the projects results. In particular, cooperation teams face issues such as constraints in developing countries, lack of electrical and ICT infrastructure, scarce transport, extreme climate conditions, lack ICT capacity, lack of access to healthcare and inefficient delivery methods, etc. Hence, these issues increase the complexity of implementing e-health in developing countries and then causes the most projects fail. In other words, the solutions do not meet population needs and do not generate the expected impact on development. This context is the starting point of this doctoral thesis, which deals with analysing, planning, designing, testing and validating an architectural framework in order to implement e-health systems in rural areas from developing countries, promote development of the population in these regions, and thus improve the impact of interventions of development cooperation projects. To achieve this goal, I took as a starting point the strategies, models, e-health implementation methodologies and projects management models proposed by various international agencies. Then I proposed an instantiation of these models to manage the intervention and implement e-health systems in developing countries. I applied the action research methodology and the approaches twin track, middle out and design thinking which allowed me the iterative refinement of the model proposed in this doctoral thesis. The proposed framework was validated by running two cases studies in rural areas of Central America: Jocotán (Guatemala) and San José de Cusmapa (Nicaragua). As a result, I obtained an experimental model based on four components: a Type reference model, an e-health conceptual model, both process management and implementation e-health systems in developing countries and a reference architecture. The resulting experimental model provides important tools for the deployment of e-health systems in developing countries. The model become as reference model that provides a holistic view of the developing countries context where the interventions will be running. The conceptual model of e-health represents the main concepts involved into an e-health system. The project management and implementation processes of the iv- system provide to the cooperation teams with tools for analysing, designing, developing and deploying e-health systems in rural areas from developing countries. Finally, the reference architecture provides the basis for the implementation of these processes into a particular context. The future research suggest the extension the model to other cases studies in order to refine and evaluate the viability the model.