1000 resultados para SISTEMAS DE ALMACENAMIENTO Y RECUPERACIÓN DE LA INFORMACIÓN
Resumo:
Durante los años 60 fueron frecuentes las profecías que anunciaban jornadas laborales de 4-5 horas para el año 2000, y se basaban generalmente en la progresiva sustitución de la mano de obra por tecnología como las electrónicas y los sistemas aplicados; este cambio permitiría un mayor tiempo libre y de ocio. Sin embargo, la realidad parece resultar peor y contraria a esas expectativas, ya que la jornada de trabajo ha ido ampliándose en el sistema productivo simultáneamente con el avance tecnológico en general y, en particular, de las tecnologías de la información y la comunicación (TIC). El incremento de la jornada de trabajo es un proceso general observado en los países de la OCDE desde la transición de los años 1970/80 hasta hoy (en paralelo, precisamente, con la constante pérdida del poder adquisitivo de los salarios). Este artículo pone en relación la extensión de las TIC con la ampliación de la jornada de trabajo y añade, como nota negativa adicional, que el uso combinado del ordenador portátil y del teléfono móvil, en un entorno de Internet, se convierte en un proceso creciente por el que la gente queda laboralmente disponible durante las 24 horas del día.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
Este artículo de síntesis es la transposición de los dos primeros puntos de nuestra memoria de solicitud para la obtención de una de las becas del Fondo IBM del Centro de Cálculo de la Universidad de Madrid en su primera convocatoria (noviembre de 1968). El artículo representa un punto de vista personal sobre relaciones poco conocidas o discutidas entre diferentes aspectos de las teorías de los sistemas cibernéticos. Un año después (diciembre de 1969) el fruto de nuestro trabajo ha sido recogido en. una extensa memoria donde, junto a una presentación de origen bibliográfico, de la teoría de códigos lineales desde un ángulo matemático y en especial de los códigos cíclicos, se publica un conjunto de resultados originales en el campo de la detección y corrección de errores
Resumo:
Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.
Resumo:
El aumento de la temperatura media de la Tierra durante el pasado siglo en casi 1 ºC; la subida del nivel medio del mar; la disminución del volumen de hielo y nieve terrestres; la fuerte variabilidad del clima y los episodios climáticos extremos que se vienen sucediendo durante las ultimas décadas; y el aumento de las epidemias y enfermedades infecciosas son solo algunas de las evidencias del cambio climático actual, causado, principalmente, por la acumulación de gases de efecto invernadero en la atmósfera por actividades antropogénicas. La problemática y preocupación creciente surgida a raíz de estos fenómenos, motivo que, en 1997, se adoptara el denominado “Protocolo de Kyoto” (Japón), por el que los países firmantes adoptaron diferentes medidas destinadas a controlar y reducir las emisiones de los citados gases. Entre estas medidas cabe destacar las tecnologías CAC, enfocadas a la captura, transporte y almacenamiento de CO2. En este contexto se aprobó, en octubre de 2008, el Proyecto Singular Estratégico “Tecnologías avanzadas de generación, captura y almacenamiento de CO2” (PSE-120000-2008-6), cofinanciado por el Ministerio de Ciencia e Innovación y el FEDER, el cual abordaba, en su Subproyecto “Almacenamiento Geológico de CO2” (PSS-120000-2008-31), el estudio detallado, entre otros, del Análogo Natural de Almacenamiento y Escape de CO2 de la cuenca de Ganuelas-Mazarrón (Murcia). Es precisamente en el marco de dicho Proyecto en el que se ha realizado este trabajo, cuyo objetivo final ha sido el de predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un Almacenamiento Geológico Profundo de CO2 (AGP-CO2), mediante el estudio integral del citado análogo natural. Este estudio ha comprendido: i) la contextualización geológica e hidrogeológica de la cuenca, así como la investigación geofísica de la misma; ii) la toma de muestras de aguas de algunos acuíferos seleccionados con el fin de realizar su estudio hidrogeoquímico e isotópico; iii) la caracterización mineralógica, petrográfica, geoquímica e isotópica de los travertinos precipitados a partir de las aguas de algunos de los sondeos de la cuenca; y iv) la medida y caracterización química e isotópica de los gases libres y disueltos detectados en la cuenca, con especial atención al CO2 y 222Rn. Esta información, desarrollada en capítulos independientes, ha permitido realizar un modelo conceptual de funcionamiento del sistema natural que constituye la cuenca de Ganuelas-Mazarrón, así como establecer las analogías entre este y un AGP-CO2, con posibles escapes naturales y/o antropogénicos. La aplicación de toda esta información ha servido, por un lado, para predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un AGP-CO2 y, por otro, proponer una metodología general aplicable al estudio de posibles emplazamientos de AGP-CO2 desde la perspectiva de los reservorios naturales de CO2. Los resultados más importantes indican que la cuenca de Ganuelas-Mazarrón se trata de una cubeta o fosa tectónica delimitada por fallas normales, con importantes saltos verticales, que hunden al substrato rocoso (Complejo Nevado-Filabride), y rellenas, generalmente, por materiales volcánicos-subvolcánicos ácidos. Además, esta cuenca se encuentra rellena por formaciones menos resistivas que son, de muro a techo, las margas miocenas, predominantes y casi exclusivas de la cuenca, y los conglomerados y gravas pliocuaternarias. El acuífero salino profundo y enriquecido en CO2, puesto de manifiesto por la xx exploración geotérmica realizada en dicha cuenca durante la década de los 80 y objeto principal de este estudio, se encuentra a techo de los materiales del Complejo Nevado-Filabride, a una profundidad que podría superar los 800 m, según los datos de la investigación mediante sondeos y geofísica. Por ello, no se descarta la posibilidad de que el CO2 se encuentre en estado supe critico, por lo que la citada cuenca reuniría las características principales de un almacenamiento geológico natural y profundo de CO2, o análogo natural de un AGP-CO2 en un acuífero salino profundo. La sobreexplotación de los acuíferos mas someros de la cuenca, con fines agrícolas, origino, por el descenso de sus niveles piezométricos y de la presión hidrostática, el ascenso de las aguas profundas, salinas y enriquecidas en CO2, las cuales son las responsables de la contaminación de dichos acuíferos. El estudio hidrogeoquímico de las aguas de los acuíferos investigados muestra una gran variedad de hidrofacies, incluso en aquellos de litología similar. La alta salinidad de estas aguas las hace inservibles tanto para el consumo humano como para fines agrícolas. Además, el carácter ligeramente ácido de la mayoría de estas aguas determina que tengan gran capacidad para disolver y transportar, hacia la superficie, elementos pesados y/o tóxicos, entre los que destaca el U, elemento abundante en las rocas volcánicas ácidas de la cuenca, con contenidos de hasta 14 ppm, y en forma de uraninita submicroscópica. El estudio isotópico ha permitido discernir el origen, entre otros, del C del DIC de las aguas (δ13C-DIC), explicándose como una mezcla de dos componentes principales: uno, procedente de la descomposición térmica de las calizas y mármoles del substrato y, otro, de origen edáfico, sin descartar una aportación menor de C de origen mantélico. El estudio de los travertinos que se están formando a la salida de las aguas de algunos sondeos, por la desgasificación rápida de CO2 y el consiguiente aumento de pH, ha permitido destacar este fenómeno, por analogía, como alerta de escapes de CO2 desde un AGP-CO2. El análisis de los gases disueltos y libres, con especial atención al CO2 y al 222Rn asociado, indican que el C del CO2, tanto disuelto como en fase libre, tiene un origen similar al del DIC, confirmándose la menor contribución de CO2 de origen mantélico, dada la relación R/Ra del He existente en estos gases. El 222Rn sería el generado por el decaimiento radiactivo del U, particularmente abundante en las rocas volcánicas de la cuenca, y/o por el 226Ra procedente del U o del existente en los yesos mesinienses de la cuenca. Además, el CO2 actúa como carrier del 222Rn, hecho evidenciado en las anomalías positivas de ambos gases a ~ 1 m de profundidad y relacionadas principalmente con perturbaciones naturales (fallas y contactos) y antropogénicas (sondeos). La signatura isotópica del C a partir del DIC, de los carbonatos (travertinos), y del CO2 disuelto y libre, sugiere que esta señal puede usarse como un excelente trazador de los escapes de CO2 desde un AGPCO2, en el cual se inyectara un CO2 procedente, generalmente, de la combustión de combustibles fósiles, con un δ13C(V-PDB) de ~ -30 ‰. Estos resultados han permitido construir un modelo conceptual de funcionamiento del sistema natural de la cuenca de Ganuelas-Mazarrón como análogo natural de un AGP-CO2, y establecer las relaciones entre ambos. Así, las analogías mas importantes, en cuanto a los elementos del sistema, serian la existencia de: i) un acuífero salino profundo enriquecido en CO2, que seria análoga a la formación almacén de un AGPxxi CO2; ii) una formación sedimentaria margosa que, con una potencia superior a 500 m, se correspondería con la formación sello de un AGP-CO2; y iii) acuíferos mas someros con aguas dulces y aptas para el consumo humano, rocas volcánicas ricas en U y fallas que se encuentran selladas por yesos y/o margas; elementos que también podrían concurrir en un emplazamiento de un AGP-CO2. Por otro lado, los procesos análogos mas importantes identificados serian: i) la inyección ascendente del CO2, que seria análoga a la inyección de CO2 de origen antropogénico, pero este con una signatura isotópica δ13C(V-PDB) de ~ -30 ‰; ii) la disolución de CO2 y 222Rn en las aguas del acuífero profundo, lo que seria análogo a la disolución de dichos gases en la formación almacén de un AGP-CO2; iii) la contaminación de los acuíferos mas someros por el ascenso de las aguas sobresaturadas en CO2, proceso que seria análogo a la contaminación que se produciría en los acuíferos existentes por encima de un AGP-CO2, siempre que este se perturbara natural (reactivación de fallas) o artificialmente (sondeos); iv) la desgasificación (CO2 y gases asociados, entre los que destaca el 222Rn) del acuífero salino profundo a través de sondeos, proceso análogo al que pudiera ocurrir en un AGP-CO2 perturbado; y v) la formación rápida de travertinos, proceso análogo indicativo de que el AGP-CO2 ha perdido su estanqueidad. La identificación de las analogías más importantes ha permitido, además, analizar y evaluar, de manera aproximada, el comportamiento y la seguridad, a corto, medio y largo plazo, de un AGP-CO2 emplazado en un contexto geológico similar al sistema natural estudiado. Para ello se ha seguido la metodología basada en el análisis e identificación de los FEPs (Features, Events and Processes), los cuales se han combinado entre sí para generar y analizar diferentes escenarios de evolución del sistema (scenario analysis). Estos escenarios de evolución identificados en el sistema natural perturbado, relacionados con la perforación de sondeos, sobreexplotación de acuíferos, precipitación rápida de travertinos, etc., serian análogos a los que podrían ocurrir en un AGP-CO2 que también fuera perturbado antropogénicamente, por lo que resulta totalmente necesario evitar la perturbación artificial de la formación sello del AGPCO2. Por último, con toda la información obtenida se ha propuesto una metodología de estudio que pueda aplicarse al estudio de posibles emplazamientos de un AGP-CO2 desde la perspectiva de los reservorios naturales de CO2, sean estancos o no. Esta metodología comprende varias fases de estudio, que comprendería la caracterización geológico-estructural del sitio y de sus componentes (agua, roca y gases), la identificación de las analogías entre un sistema natural de almacenamiento de CO2 y un modelo conceptual de un AGP-CO2, y el establecimiento de las implicaciones para el comportamiento y la seguridad de un AGP-CO2. ABSTRACT The accumulation of the anthropogenic greenhouse gases in the atmosphere is the main responsible for: i) the increase in the average temperature of the Earth over the past century by almost 1 °C; ii) the rise in the mean sea level; iii) the drop of the ice volume and terrestrial snow; iv) the strong climate variability and extreme weather events that have been happening over the last decades; and v) the spread of epidemics and infectious diseases. All of these events are just some of the evidence of current climate change. The problems and growing concern related to these phenomena, prompted the adoption of the so-called "Kyoto Protocol" (Japan) in 1997, in which the signatory countries established different measurements to control and reduce the emissions of the greenhouse gases. These measurements include the CCS technologies, focused on the capture, transport and storage of CO2. Within this context, it was approved, in October 2008, the Strategic Singular Project "Tecnologías avanzadas de generación, captura y almacenamiento de CO2" (PSE-120000-2008-6), supported by the Ministry of Science and Innovation and the FEDER funds. This Project, by means of the Subproject "Geological Storage of CO2" (PSS- 120000-2008-31), was focused on the detailed study of the Natural Analogue of CO2 Storage and Leakage located in the Ganuelas-Mazarron Tertiary basin (Murcia), among other Spanish Natural Analogues. This research work has been performed in the framework of this Subproject, being its final objective to predict the behaviour and evaluate the safety, at short, medium and long-term, of a CO2 Deep Geological Storage (CO2-DGS) by means of a comprehensive study of the abovementioned Natural Analogue. This study comprises: i) the geological and hydrogeological context of the basin and its geophysical research; ii) the water sampling of the selected aquifers to establish their hydrogeochemical and isotopic features; iii) the mineralogical, petrographic, geochemical and isotopic characterisation of the travertines formed from upwelling groundwater of several hydrogeological and geothermal wells; and iv) the measurement of the free and dissolved gases detected in the basin, as well as their chemical and isotopic characterisation, mainly regarding CO2 and 222Rn. This information, summarised in separate chapters in the text, has enabled to build a conceptual model of the studied natural system and to establish the analogies between both the studied natural system and a CO2-DGS, with possible natural and/or anthropogenic escapes. All this information has served, firstly, to predict the behaviour and to evaluate the safety, at short, medium and long-term, of a CO2-DGS and, secondly, to propose a general methodology to study suitable sites for a CO2-DGS, taking into account the lessons learned from this CO2 natural reservoir. The main results indicate that the Ganuelas-Mazarron basin is a graben bounded by normal faults with significant vertical movements, which move down the metamorphic substrate (Nevado-Filabride Complex), and filled with acid volcanic-subvolcanic rocks. Furthermore, this basin is filled with two sedimentary formations: i) the Miocene marls, which are predominant and almost exclusive in the basin; xxiv and ii) the Plio-Quaternary conglomerates and gravels. A deep saline CO2-rich aquifer was evidenced in this basin as a result of the geothermal exploration wells performed during the 80s, located just at the top of the Nevado-Filabride Complex and at a depth that could exceed 800 m, according to the geophysical exploration performed. This saline CO2-rich aquifer is precisely the main object of this study. Therefore, it is not discarded the possibility that the CO2 in this aquifer be in supercritical state. Consequently, the aforementioned basin gathers the main characteristics of a natural and deep CO2 geological storage, or natural analogue of a CO2-DGS in a deep saline aquifer. The overexploitation of the shallow aquifers in this basin for agriculture purposes caused the drop of the groundwater levels and hydrostatic pressures, and, as a result, the ascent of the deep saline and CO2-rich groundwater, which is the responsible for the contamination of the shallow and fresh aquifers. The hydrogeochemical features of groundwater from the investigated aquifers show the presence of very different hydrofacies, even in those with similar lithology. The high salinity of this groundwater prevents the human and agricultural uses. In addition, the slightly acidic character of most of these waters determines their capacity to dissolve and transport towards the surface heavy and/or toxic elements, among which U is highlighted. This element is abundant in the acidic volcanic rocks of the basin, with concentrations up to 14 ppm, mainly as sub-microscopic uraninite crystals. The isotopic study of this groundwater, particularly the isotopic signature of C from DIC (δ13C-DIC), suggests that dissolved C can be explained considering a mixture of C from two main different sources: i) from the thermal decomposition of limestones and marbles forming the substrate; and ii) from edaphic origin. However, a minor contribution of C from mantle degassing cannot be discarded. The study of travertines being formed from upwelling groundwater of several hydrogeological and geothermal wells, as a result of the fast CO2 degassing and the pH increase, has allowed highlighting this phenomenon, by analogy, as an alert for the CO2 leakages from a CO2-DGS. The analysis of the dissolved and free gases, with special attention to CO2 and 222Rn, indicates that the C from the dissolved and free CO2 has a similar origin to that of the DIC. The R/Ra ratio of He corroborates the minor contribution of CO2 from the mantle degassing. Furthermore, 222Rn is generated by the radioactive decay of U, particularly abundant in the volcanic rocks of the basin, and/or by 226Ra from the U or from the Messinian gypsum in the basin. Moreover, CO2 acts as a carrier of the 222Rn, a fact evidenced by the positive anomalies of both gases at ~ 1 m depth and mainly related to natural (faults and contacts) and anthropogenic (wells) perturbations. The isotopic signature of C from DIC, carbonates (travertines), and dissolved and free CO2, suggests that this parameter can be used as an excellent tracer of CO2 escapes from a CO2-DGS, in which CO2 usually from the combustion of fossil fuels, with δ13C(V-PDB) of ~ -30 ‰, will be injected. All of these results have allowed to build a conceptual model of the behaviour of the natural system studied as a natural analogue of a CO2-DGS, as well as to establish the relationships between both natural xxv and artificial systems. Thus, the most important analogies, regarding the elements of the system, would be the presence of: i) a deep saline CO2-rich aquifer, which would be analogous to the storage formation of a CO2-DGS; ii) a marly sedimentary formation with a thickness greater than 500 m, which would correspond to the sealing formation of a CO2-DGS; and iii) shallow aquifers with fresh waters suitable for human consumption, U-rich volcanic rocks, and faults that are sealed by gypsums and/or marls; geological elements that could also be present in a CO2-DGS. On the other hand, the most important analogous processes identified are: i) the upward injection of CO2, which would be analogous to the downward injection of the anthropogenic CO2, this last with a δ13C(V-PDB) of ~ -30 ‰; ii) the dissolution of CO2 and 222Rn in groundwater of the deep aquifer, which would be analogous to the dissolution of these gases in the storage formation of a CO2-DGS; iii) the contamination of the shallow aquifers by the uprising of CO2-oversaturated groundwater, an analogous process to the contamination that would occur in shallow aquifers located above a CO2-DGS, whenever it was naturally (reactivation of faults) or artificially (wells) perturbed; iv) the degassing (CO2 and associated gases, among which 222Rn is remarkable) of the deep saline aquifer through wells, process which could be similar in a perturbed CO2- DGS; v) the rapid formation of travertines, indicating that the CO2-DGS has lost its seal capacity. The identification of the most important analogies has also allowed analysing and evaluating, approximately, the behaviour and safety in the short, medium and long term, of a CO2-DGS hosted in a similar geological context of the natural system studied. For that, it has been followed the methodology based on the analysis and identification of FEPs (Features, Events and Processes) that have been combined together in order to generate and analyse different scenarios of the system evolution (scenario analysis). These identified scenarios in the perturbed natural system, related to boreholes, overexploitation of aquifers, rapid precipitation of travertines, etc., would be similar to those that might occur in a CO2-DGS anthropogenically perturbed, so that it is absolutely necessary to avoid the artificial perturbation of the seal formation of a CO2-DGS. Finally, a useful methodology for the study of possible sites for a CO2-DGS is suggested based on the information obtained from this investigation, taking into account the lessons learned from this CO2 natural reservoir. This methodology comprises several phases of study, including the geological and structural characterisation of the site and its components (water, rock and gases), the identification of the analogies between a CO2 storage natural system and a conceptual model of a CO2-DGS, and the implications regarding the behaviour and safety of a CO2-DGS.
Resumo:
La observación de la Tierra es una herramienta de gran utilidad en la actualidad para el estudio de los fenómenos que se dan en la misma. La observación se puede realizar a distintas escalas y por distintos métodos dependiendo del propósito. El actual Trabajo Final de Grado persigue exponer la observación del territorio mediante técnicas de Teledetección, o Detección Remota, y su aplicación en la exploración de hidrocarburos. Desde la Segunda Guerra Mundial el capturar imágenes aéreas de regiones de la Tierra estaba restringido a usos cartográficos en el sentido estricto. Desde aquellos tiempos, hasta ahora, ha acontecido una serie de avances científicos que permiten deducir características intrínsecas de la Tierra mediante mecanismos complejos que no apreciamos a simple vista, pero que, están configurados mediante determinados parámetros geométricos y electrónicos, que permiten generar series temporales de fenómenos físicos que se dan en la Tierra. Hoy en día se puede afirmar que el aprovechamiento del espectro electromagnético está en un punto máximo. Se ha pasado del análisis de la región del espectro visible al análisis del espectro en su totalidad. Esto supone el desarrollo de nuevos algoritmos, técnicas y procesos para extraer la mayor cantidad de información acerca de la interacción de la materia con la radiación electromagnética. La información que generan los sistemas de captura va a servir para la aplicación directa e indirecta de métodos de prospección de hidrocarburos. Las técnicas utilizadas en detección por sensores remotos, aplicadas en campañas geofísicas, son utilizadas para minimizar costes y maximizar resultados en investigaciones de campo. La predicción de anomalías en la zona de estudio depende del analista, quien diseña, calcula y evalúa las variaciones de la energía electromagnética reflejada o emitida por la superficie terrestre. Para dicha predicción se revisarán distintos programas espaciales, se evaluará la bondad de registro y diferenciación espectral mediante el uso de distintas clasificaciones (supervisadas y no supervisadas). Por su influencia directa sobre las observaciones realizadas, se realiza un estudio de la corrección atmosférica; se programan distintos modelos de corrección atmosférica para imágenes multiespectrales y se evalúan los métodos de corrección atmosférica en datos hiperespectrales. Se obtendrá temperatura de la zona de interés utilizando los sensores TM-4, ASTER y OLI, así como un Modelo Digital del Terreno generado por el par estereoscópico capturado por el sensor ASTER. Una vez aplicados estos procedimientos se aplicarán los métodos directos e indirectos, para la localización de zonas probablemente afectadas por la influencia de hidrocarburos y localización directa de hidrocarburos mediante teledetección hiperespectral. Para el método indirecto se utilizan imágenes capturadas por los sensores ETM+ y ASTER. Para el método directo se usan las imágenes capturadas por el sensor Hyperion. ABSTRACT The observation of the Earth is a wonderful tool for studying the different kind of phenomena that occur on its surface. The observation could be done by different scales and by different techniques depending on the information of interest. This Graduate Thesis is intended to expose the territory observation by remote sensing acquiring data systems and the analysis that can be developed to get information of interest. Since Second World War taking aerials photographs of scene was restricted only to a cartographic sense. From these days to nowadays, it have been developed many scientific advances that make capable the interpretation of the surface behavior trough complex systems that are configure by specific geometric and electronic parameters that make possible acquiring time series of the phenomena that manifest on the earth’s surface. Today it is possible to affirm that the exploitation of the electromagnetic spectrum is on a maxim value. In the past, analysis of the electromagnetic spectrum was carry in a narrow part of it, today it is possible to study entire. This implicates the development of new algorithms, process and techniques for the extraction of information about the interaction of matter with electromagnetic radiation. The information that has been acquired by remote sensing sensors is going to be a helpful tool for the exploration of hydrocarbon through direct and vicarious methods. The techniques applied in remote sensing, especially in geophysical campaigns, are employed to minimize costs and maximize results of ground-based geologic investigations. Forecasting of anomalies in the region of interest depends directly on the expertise data analyst who designs, computes and evaluates variations in the electromagnetic energy reflected or emanated from the earth’s surface. For an optimal prediction a review of the capture system take place; assess of the goodness in data acquisition and spectral separability, is carried out by mean of supervised and unsupervised classifications. Due to the direct influence of the atmosphere in the register data, a study of the minimization of its influence has been done; a script has been programed for the atmospheric correction in multispectral data; also, a review of hyperspectral atmospheric correction is conducted. Temperature of the region of interest is computed using the images captured by TM-4, ASTER and OLI, in addition to a Digital Terrain Model generated by a pair of stereo images taken by ASTER sensor. Once these procedures have finished, direct and vicarious methods are applied in order to find altered zones influenced by hydrocarbons, as well as pinpoint directly hydrocarbon presence by mean of hyperspectral remote sensing. For this purpose ETM+ and ASTER sensors are used to apply the vicarious method and Hyperion images are used to apply the direct method.
Resumo:
La preocupante situación del sisón común y sus problemas de conservación, son el punto de partida de este estudio , que se centrará en el análisis de la disponibilidad y conectividad del hábitat de la especie y permitirá ofrecer resultados orientados hacia la gestión para su conservación en La Rioja. Tomando como base desarrollos conceptuales de la ecología del paisaje, se pretende hacer un análisis cuantitativo y cualitativo del hábitat del que dispone la especie y de su conectividad. Dos son sus principales objetivos : 1. Un análisis espacialmente explícito de la disponibilidad de hábitat para la especie en términos cuantitativos y cualitativos. 2. Análisis de la matriz del paisaje, que nos dará información acerca de los principales corredores, que serán tanto sus vías de dispersión como de colonización de nuevos territorios
Resumo:
La introducción de las cirugías de mínima invasión en rutina clínica ha provocado la incorporación de los sistemas de vídeo dentro del quirófano. Así, estas técnicas proporcionan al cirujano imágenes que antes solo podían ser vistas mediante cirugía abierta. Los vídeos obtenidos en las intervenciones son almacenados en repositorios. El uso posterior de estos vídeos se ve limitado generalmente a su reproducción, debido a las dificultades de clasificación y gestión. La información que contienen estos repositorios puede ser explotada, reutilizando el conocimiento obtenido en cirugías similares. En este artículo de investigación se presenta el diseño de un módulo de gestión de conocimiento (MGC) para un repositorio de vídeos de cirugía de mínima invasión (CMI). El objetivo del módulo es gestionar y reutilizar la información contenida en el repositorio de vídeos laparoscópicos, para que puedan ser utilizadas con las experiencias previas en entornos de formación de nuevos cirujanos. Para este fin, se han implementado técnicas de recuperación de imagen y vídeo basadas en sus contenidos visuales (CBIR y CBVR). El MGC permite la recuperación de imágenes/vídeos, proporcionando información sobre la tarea que se está realizando en la escena quirúrgica. Los resultados obtenidos en este trabajo muestran la posibilidad de recuperar vídeos de CMI, a partir del instrumental presente en la escena quirúrgica.
Resumo:
Cinchona officinalis (Rubiaceae), especie endémica del Valle de Loja, ubicado en la región sur del Ecuador, es un recurso forestal de importancia medicinal y ecológica, además la especie ha sido catalogada como planta nacional y es un ícono de la región sur por su aporte a la farmacopea mundial. Esta especie, entre los siglos XVII-XIX sufrió una gran presión en sus poblaciones debido a la extracción masiva de la corteza para la cura del paludismo. Aunque la actividad extractiva generó grandes ingresos a la Corona Española y a la región Sur del Ecuador, ésta fue poco o nada sustentable ecológicamente, provocando la desaparición de la especie en muchos sitios de la provincia, pues, en su momento, no se consideraron alternativas de recuperación de las poblaciones naturales. Actualmente la extracción y consumo de la corteza en la zona de origen es baja o nula, sin embargo esta zona enfrenta nuevas amenazas. La deforestación a causa de proyectos de desarrollo en infraestructuras, la práctica de actividades agrícolas y de ganadería, y los efectos del cambio climático han ocasionado, en estos últimos años, la fragmentación de los ecosistemas. La mayoría de los bosques del sur del Ecuador se han convertido en parches aislados (los bosques en los que se distribuye C. officinalis no son la excepción) siendo esta la principal causa para que la especie se encuentre en estado de amenaza. Los individuos de la especie tienen una alta capacidad de rebrote y producen semillas durante todo el año; sin embargo la capacidad germinativa y la tasa de sobrevivencia son bajas, además de estas dificultades la especie requiere de la asociación con otras especies vegetales para su desarrollo, lo cual ha limitado su distribución en pequeños parches aislados. Con esta problemática, la recuperación natural de las poblaciones es una necesidad evidente. Varios trabajos y esfuerzos previos se han realizado a nivel local: i. Identificación de la distribución actual y potencial; ii. Determinación de la fenología y fructificación iii. Programas de educación ambiental, iv. Análisis moleculares para determinar la diversidad genética. v. Ensayos de propagación vegetativa; y otras acciones de tipo cultural. No obstante, el estado de conservación y manejo de las poblaciones naturales no ha mejorado significativamente, siendo necesaria la aplicación de estrategias integradas de conservación in situ y ex situ, que permitan la recuperación y permanencia de las poblaciones naturales a largo plazo. El presente trabajo tiene como fin dar alternativas para el cultivo de tejidos in vitro de Cinchona officinalis centrados en la propagación masiva a partir de semillas, análisis de la fidelidad genética y alternativas de conservación de tejidos. Los objetivos específicos que se plantean son: i. Analizar el proceso de germinación y proliferación in vitro. ii. Evaluar la estabilidad genética en explantes cultivados in vitro, mediante marcadores ISSR. iii. Establecer protocolos de conservación in vitro mediante limitación del crecimiento y criopreservación de segmentos nodales y yemas. Los resultados más significativos de esta investigación fueron: i. El desarrollo de protocolos eficientes para mejorar los porcentajes de germinación y la proliferación de brotes en explantos cultivados in vitro. Para evaluar el efecto de los fenoles sobre la germinación, se determinó el contenido total de fenoles y el porcentaje de germinación en semillas de C. officinalis comparados con una especie de control, C. pubescens. Para inducir a proliferación, se utilizaron segmentos nodales de plántulas germinadas in vitro en medio Gamborg (1968) suplementado con diferentes combinaciones de reguladores de crecimiento (auxinas y citoquininas). Los resultados obtenidos sugieren que el contenido de compuestos fenólicos es alto en las semillas de C. officinalis en comparación con las semillas de C. pubescens. Estos fenoles pueden eliminarse con peróxido de hidrógeno o con lavados de agua para estimular la germinación. La formación de nuevos brotes y callos en la mayoría de las combinaciones de reguladores de crecimiento se observó en un período de 45 días. El mayor porcentaje de proliferación de brotes, formación de callos y presencia de brotes adventicios se obtuvo en medio Gamborg (B5) suplementado con 5.0 mg/l 6-bencil-aminopurina y 3.0 mg/l de ácido indol-3-butírico. ii. La evaluación de la fidelidad genética de los explantes obtenidos con distintas combinaciones de reguladores de crecimiento vegetal y diversos subcultivos. Se realizó el seguimiento a los explantes obtenidos de la fase anterior, determinando el índice de multiplicación y analizando la fidelidad genética de los tejidos obtenidos por las dos vías regenerativas: brotación directa y regeneración de brotes a partir de callos. Este análisis se realizó por amplificación mediante PCR de las secuencias ubicadas entre microsatélites-ISSR (Inter simple sequence repeat). El medio Gamborg (B5) con 3.0 mg/l de AIB y 5.0 mg/l de BAP usado como medio de inducción en la primera etapa de cultivo generó el mayor índice de proliferación (11.5). Un total de 13 marcadores ISSR fueron analizados, 6 de éstos fueron polimórficos. El mayor porcentaje de variación somaclonal fue inducido en presencia de 1.0 mg/l 2,4-D combinado con 0.2 mg/l Kin con un 1.8% en el segundo sub-cultivo de regeneración, la cual incrementó a 3.6% en el tercer sub-cultivo. Todas las combinaciones con presencia de 2,4-D produjeron la formación de callos y presentaron variación genética. Por su parte la fidelidad genética se mantuvo en los sistemas de propagación directa a través de la formación de brotes a partir de meristemos preformados. iii. El establecimiento de protocolos de conservación in vitro y crioconservación de segmentos nodales y yemas. Para la conservación limitando el crecimiento, se cultivaron segmentos nodales en los medios MS y B5 en tres concentraciones de sus componentes (25, 50 y 100%); y en medio B5 más agentes osmóticos como el manitol, sorbitol y sacarosa en diferentes concentraciones (2, 4 y 8%); los cultivos se mantuvieron por 12 meses sin subcultivos. Para el establecimiento de protocolos para la crioconservación (paralización del metabolismo) se usaron yemas axilares y apicales a las cuales se les aplicaron los métodos de encapsulación-deshidratación y vitrificación. La efectividad de los protocolos usados se determinó en función de la sobrevivencia, reducción del crecimiento y regeneración. Los resultados obtenidos en este apartado reflejan que un crecimiento limitado puede mantener tejidos durante 12 meses de almacenamiento, usando medio B5 más manitol entre 2 y 8%. En los protocolos de crioconservación, se obtuvo el mayor porcentaje de recuperación tras la congelación en NL en el tratamiento control seguido por el método crioprotector de encapsulación-deshidratación. Este trabajo brinda alternativas para la propagación de C. officinalis bajo condiciones in vitro, partiendo de material vegetal con alta diversidad genética. El material propagado puede ser fuente de germoplasma para la recuperación y reforzamiento de las poblaciones naturales así como una alternativa de producción para las comunidades locales debido a la demanda actual de corteza de la zona de origen para la elaboración de agua tónica. ABSTRACT Cinchona officinalis (Rubiaceae) is endemic to the Loja Valley, located in the southern area of Ecuador. The importance of this plant as medical and ecological resource is so great that it has been designated as the national flower and is an icon of the southern region for its contribution to the world pharmacopoeia. Between XVII-XIX centuries its population suffered great reduction due to massive harvesting of the bark to cure malaria. Although extraction activity generated large revenues to the Spanish Crown and the southern region of Ecuador, this was not ecologically sustainable, causing the disappearance of the species in many areas of the province, because during that time alternatives to prevent extinction and recover natural populations were not taken in account. Currently the extraction and consumption of bark in the area of origin is almost absent, but this species faces new threats. Deforestation due to infrastructure development, the practice of farming and ranching, and the effects of climate change had led to the fragmentation of ecosystems during the recent years. Most of the forests of southern Ecuador have become isolated patches, including those where C. officinalis is diffused. The lack of suitable habitat is today the main threat for the species. The species has a high capacity for regeneration and produces seeds throughout the year, but the germination rate is low and the growth is slow. In addition, the species requires the association with other plant species to develop. All these factors had limited its distribution to small isolated patches. The natural recovery of populations is essential to face this problem. Several studies and previous efforts had been made at local level: i. Identification of current and potential distribution; ii. Phenology determination. iii. Environmental education programs, iv. Molecular analisis to determine the genetic diversity. v. Testing of vegetative propagation; and other actions of cultural nature. Despite these efforts, the state of conservation and management of natural populations has not improved significantly. Implementation of integrated in situ and ex situ conservation strategies for the recovery and permanence of long-term natural populations is still needed. This work aims to provide alternatives for in vitro culture of tissue of Cinchona officinalis focused on mass propagation from seeds, genetic fidelity analysis and tissue conservation alternatives. The specific aims are: i. Analyze the process of germination and proliferation in vitro. ii. To evaluate the genetic stability of the explants cultured in vitro by ISSR markers. iii. Establish protocols for in vitro conservation by limiting growth and cryopreservation of nodal segments and buds. The most significant results of this research were: i. The development of efficient protocols to improve germination rates and proliferation of buds in explants cultured in vitro. To study the effect of phenols on germination, the total phenolic content and percentage germination was measured in C. officinalis and in a control species, C. pubescens, for comparison. The content of phenolic compounds in C. officinalis seeds is higher than in C. pubescens. These phenols can be removed with hydrogen peroxide or water washes to stimulate germination. To analyze the regeneration, we used nodal explants from seedlings germinated in vitro on Gamborg medium (1968) supplemented with different combinations of growth regulators (auxins and cytokinins) to induce proliferation. The formation of new shoots and calluses was observed within a period of 45 days in most combinations of growth regulators. The highest percentage of shoot proliferation, callus formation and adventitious buds were obtained in B5 medium supplemented with 5.0 mg/l 6-benzyl-aminopurine and 3.0 mg/l indole-3-butyric acid. ii. Evaluating genetic fidelity explants obtained with various combinations of plant growth regulators and different subcultures. The genetic fidelity was analyzed in tissues obtained by the two regenerative pathways: direct sprouting and shoot regeneration from callus. This analysis was performed by PCR amplification of the sequences located between microsatellite-ISSR (Inter Simple Sequence Repeat). Among a total of 13 ISSR markers analyzed, 6 were polymorphic. The highest percentage of somaclonal variation was induced in the presence of 1.0 mg/l 2,4-D combined with 0.2 mg/l Kin with 1.8% in the second round of regeneration, and increased to 3.6% in the third round. The presence of 2,4-D induced genetic variation in all the combinations of growth regulators. Meanwhile genetic fidelity remained systems propagation through direct shoot formation from meristems preformed. iii. Establishing conservation protocols in vitro and cryoconservation of nodal segments and buds. For medium-term conservation (limited growth) nodal segments were cultured in MS and B5 media at three concentrations (25, 50 and 100%); we tested B5 medium with different concentrations of osmotic agents such as mannitol, sorbitol and sucrose (2, 4 and 8%); cultures were maintained for 12 months with regular subculturing. To establish protocols for cryoconservation (cessation of metabolism) different methods of encapsulation-dehydration and vitrification were applied to axillary and apical buds. The effectiveness of the used protocols is determined based on the survival, growth and regeneration success. The results show that these tissues can be maintained in storage for 12 months, using B5 medium plus mannitol between 2 and 8%. The cryoconservation protocol with highest percentage of recovery was obtained by contral treatment, followed by freezing in NL with encapsulation-dehydration method. This work provides alternatives for the propagation in vitro of C. officinalis, starting from plant material with high genetic diversity. The obtained material represents a source of germplasm to support the recovery and strengthening of natural populations as well as a creation of alternative sources for local communities due to the current demand of bark for the preparation of tonic water.
Resumo:
La información digital está en un proceso constante de transformación. Los datos cada vez son mayores, pero no más precisos. El problema a resolver es la fidelización de lectores y para ello la investigación se muestra como un recurso necesario que periodistas y documentalistas tienen que emplear. Además, las redes sociales se introducen en el campo de la información con formatos nuevos, con millones de lectores que compiten con los medios digitales tradicionales. El reto del documentalista es dotar de contenidos, creíbles y veraces en su medio.
Resumo:
Este proyecto combina una serie de líneas de trabajo que, en esencia, estudian interacciones moleculares débiles y propiedades fisicoquímicas de diversos solutos en distintos medios. En todos los casos se procura comprender los factores que determinan la interacción de un soluto con su medio ya sea homogéneo o heterogéneo y aplicar estos conocimientos a diversos procesos, fundamentalmente en medios supramoleculares auto-organizados. Los medios supramoleculares que se estudian son: micelas inversas con agua u otros solventes polares sustitutos confinados en su corazón polar y vesículas. En este proyecto se desarrollan métodos que optimizan la detección de diferentes tipos de interacciones no-covalentes con distintas moléculas pruebas en los diferentes medios y, a partir de esto obtener aplicaciones diversas. Se trata de comprender los factores que determinan la solubilización, ubicación y/o reactividad de las moléculas pruebas en diferentes sitios del medio supramolecular y de esta manera obtener información acerca de las diferentes interacciones específicas en cada sitio del sistema supramolecular, lo cual es fundamental para el reconocimiento molecular ("inteligencia"). En definitiva estos estudios están orientados a: i) entender la adaptabilidad de nuevos sistemas supramoleculares para utilizar los resultados en el diseño de métodos de síntesis, electrosíntesis y catálisis dentro de los principios de la química sostenible o química verde y en la prevención a problemas de impacto ambiental tal como la remediación de aguas contaminadas por hidrocarburos y la degradación de pesticidas utilizando estrategias no convencionales; ii) la comprensión de fenómenos de transferencia de carga en sistemas auto-organizados y membranas biológicas; iii) el desarrollo de nuevos métodos de detección electroquímicos para compuestos de interés biológico, en medicina, alimentos y farmacología. También, dentro de los objetivos hay una componente muy fuerte de formación de recursos humanos como se aprecia en el número de becarios ya incorporados y a incorporar. La integración de estos conocimientos multidisciplinarios crea un ámbito sumamente beneficioso para la formación de doctorandos tan necesarios para el país ya que tendrán la oportunidad de participar en temas de investigación variados, relacionados con disciplinas diferentes, lo que sin duda será un valor añadido en su formación.
Resumo:
La falta de políticas nacionales de inversión en el fondo antiguo en la Argentina hace que la cifra de libros editados antes de 1800 y resguardados en las bibliotecas de nuestro país sea hoy "incalculable" (Fernández Rojo, 2008). Esta comunicación presenta las conclusiones obtenidas durante un trabajo de exploración llevado a cabo durante el año 2011 en el depósito general de la Biblioteca Pública de la Universidad Nacional de La Plata. Se expone una metodología sencilla para la identificación, descripción y registro fotográfico de libros antiguos dispersos en el depósito, por medio de la cual fue posible recobrar 88 documentos con fecha anterior a 1800 en los estantes de la colección general y obtener 682 fotografías, las cuales registraron encuadernaciones, ilustraciones, manuscritos, sellos, ex libris y el estado de conservación de los libros. El cotejo de los resultados con la información disponible en el OPAC y la búsqueda de los títulos en catálogos de libreros y bibliotecas nacionales demostraron el considerable valor económico y patrimonial de los documentos identificados. Por otro lado, esta tarea puso de manifiesto la escasa visibilidad que tienen estos materiales y las dificultades de acceso que presentan registros manuales o de carga mínima para la comunidad de investigadores y el público en general. Se ejemplifica el valor económico y patrimonial de este tipo de material con la descripción de algunos casos representativos, al mismo tiempo que se lista el conjunto de elementos que debe contener un registro bibliográfico para una efectiva recuperación de libros antiguos en el OPAC y su correcta identificación teniendo en cuenta los intereses posibles de investigadores
Resumo:
La falta de políticas nacionales de inversión en el fondo antiguo en la Argentina hace que la cifra de libros editados antes de 1800 y resguardados en las bibliotecas de nuestro país sea hoy "incalculable" (Fernández Rojo, 2008). Esta comunicación presenta las conclusiones obtenidas durante un trabajo de exploración llevado a cabo durante el año 2011 en el depósito general de la Biblioteca Pública de la Universidad Nacional de La Plata. Se expone una metodología sencilla para la identificación, descripción y registro fotográfico de libros antiguos dispersos en el depósito, por medio de la cual fue posible recobrar 88 documentos con fecha anterior a 1800 en los estantes de la colección general y obtener 682 fotografías, las cuales registraron encuadernaciones, ilustraciones, manuscritos, sellos, ex libris y el estado de conservación de los libros. El cotejo de los resultados con la información disponible en el OPAC y la búsqueda de los títulos en catálogos de libreros y bibliotecas nacionales demostraron el considerable valor económico y patrimonial de los documentos identificados. Por otro lado, esta tarea puso de manifiesto la escasa visibilidad que tienen estos materiales y las dificultades de acceso que presentan registros manuales o de carga mínima para la comunidad de investigadores y el público en general. Se ejemplifica el valor económico y patrimonial de este tipo de material con la descripción de algunos casos representativos, al mismo tiempo que se lista el conjunto de elementos que debe contener un registro bibliográfico para una efectiva recuperación de libros antiguos en el OPAC y su correcta identificación teniendo en cuenta los intereses posibles de investigadores
Resumo:
La falta de políticas nacionales de inversión en el fondo antiguo en la Argentina hace que la cifra de libros editados antes de 1800 y resguardados en las bibliotecas de nuestro país sea hoy "incalculable" (Fernández Rojo, 2008). Esta comunicación presenta las conclusiones obtenidas durante un trabajo de exploración llevado a cabo durante el año 2011 en el depósito general de la Biblioteca Pública de la Universidad Nacional de La Plata. Se expone una metodología sencilla para la identificación, descripción y registro fotográfico de libros antiguos dispersos en el depósito, por medio de la cual fue posible recobrar 88 documentos con fecha anterior a 1800 en los estantes de la colección general y obtener 682 fotografías, las cuales registraron encuadernaciones, ilustraciones, manuscritos, sellos, ex libris y el estado de conservación de los libros. El cotejo de los resultados con la información disponible en el OPAC y la búsqueda de los títulos en catálogos de libreros y bibliotecas nacionales demostraron el considerable valor económico y patrimonial de los documentos identificados. Por otro lado, esta tarea puso de manifiesto la escasa visibilidad que tienen estos materiales y las dificultades de acceso que presentan registros manuales o de carga mínima para la comunidad de investigadores y el público en general. Se ejemplifica el valor económico y patrimonial de este tipo de material con la descripción de algunos casos representativos, al mismo tiempo que se lista el conjunto de elementos que debe contener un registro bibliográfico para una efectiva recuperación de libros antiguos en el OPAC y su correcta identificación teniendo en cuenta los intereses posibles de investigadores
Resumo:
BIBLIORed3.0 es una web universitaria administrada y mantenida en la Universidad Complutense (Servicio Documentación Multimedia del Dpto. Biblioteconomía y Documentación) dedicada a proporcionar información y documentación multimedia en y sobre cine, periodismo, publicidad, radio, televisión, internet-web social y gestión de información en medios de comunicación (documentación informativa) en el ámbito fundamentalmente de archivos, bibliotecas, centros-servicios de documentación y servicios especializados universitarios, en acceso abierto y proyección iberoamericana, en la idea de convertirse en una red social propia. BIBLIORed3.0 dispone de dominio propio en Internet e ISSN 2386-8880 (asignado por BNE-Biblioteca Nacional de España, 26.01.2015).