821 resultados para El proceso de investigación social cualitativo
Resumo:
Esta investigación tiene como propósito comprender de qué manera fueron diseñadas e implementadas políticas estatales destinadas al mejoramiento de la calidad de la enseñanza en carreras de ingeniería de la Universidad Nacional de La Plata por parte de actores estatales y universitarios. En particular, se han reconocido las perspectivas acerca de las relaciones entre la universidad y el Estado que orientaron la participación de los funcionarios de la Secretaría de Políticas Universitarias, de profesores, estudiantes y graduados de la Facultad de Ingeniería en el proceso de formulación y puesta en marcha del Programa de Mejoramiento de la Enseñanza en Ingeniería de la Universidad Nacional de La Plata. Asimismo, se han identificado y caracterizado los procesos de toma de decisiones implicados en términos de alianzas, conflictos y negociaciones desplegados por los actores. Desde una perspectiva micro-sociológica, nos hemos enfocado en el análisis de las perspectivas y relaciones sociales que construyen quienes participan del diseño e implementación de una determinada política pública. Al tiempo que también hemos determinado cuáles son las mediaciones que existen entre el nivel de formulación de esa política y su procesamiento en una unidad académica específica; prestando especial atención a las formas de apropiación, resistencia y/o resignificación operadas situacionalmente por parte de actores universitarios
Resumo:
El movimiento de modernización que se desarrolla en el último tercio del S. XIX enfrenta en la rígida y conservadora sociedad cordobesa la férrea resistencia de los católicos que asocian renovación ideológica con ateísmo. La disputa entre conservadores y liberales progresistas por la dominación cultural y la imposición de distintos proyectos de organización nacional, tiene su correlato en el ámbito literario entre defensores del arte romántico y moderno. Los escritores se enfrentan en apasionadas polémicas artísticas-ideológicas sobre la función de la literatura, el rol de los artistas, la adopción de distintas tendencias estéticas, la compatibilidad entre ciencias, fe religiosa y arte, la formación de los intelectuales o la comprensión de una legítima literatura nacional. Las opciones estéticas, asociadas al debate ideológico que se libra en esos momentos, operan retrasando o provocando los cambios culturales en el largo y contradictorio período de transición hacia la modernización. Los resultados de la investigación que proponemos se remiten, de manera privilegiada, a un corpus de textos literarios y discursos críticos sobre la producción literaria e intelectual cordobesa publicados en los diarios: El Eco de Córdoba, El Progreso, El Porvenir, Los Principios, La Carcajada, La Patria, La Libertad y La Voz del Interior entre 1875 y 1918.
Resumo:
Este artículo presenta el Análisis Descriptivo como una estrategia del tratamiento de la información durante el proceso de investigación y su posible uso en estudios de diseño cualitativo. Muchas investigaciones en Ciencias Sociales y Humanas no contemplan la importancia de explicitar los soportes teórico-metodológicos de las inferencias explicativas o interpretación/es a la/s que se arriba, es decir, cómo es que se ha pasado del referente seleccionado (unidad de referencia), al argumento (modelo explicativo o interpretativo) con el que se lo pretende representar. De este modo, se suele ignorar el problema de la representación del referente en un dato tratable y la necesaria transformación del lenguaje natural (LN) en lenguaje descriptivo (LD). Se desarrollan dos ejemplos del campo de la Etología y de la Psicología, aplicando la estrategia metodológica del Análisis Descriptivo. En ellos se demuestra que la codificación que permite realizar este método toma en cuenta por un lado, la base de conocimientos e informaciones relativas a un dominio disciplinar particular y, por otro, permite evidenciar las inferencias seguidas en el razonamiento y las reglas de interpretación utilizadas para arribar a nuevos conocimientos
Resumo:
El proceso de la exploración y la investigación mineras no puede entenderse sin la realización de sondeos y constituye una de las fases más importantes en la vida de una mina. Comprender adecuadamente los pasos a dar y la importancia de cada una de las etapas requiere abordar su estudio con el suficiente rigor para entender como engranan entre sí las distintas actividades. Para ello, la publicación describe de forma suficientemente pormenorizada las distintas técnicas utilizadas en la exploración de recursos minerales para seguidamente, aborar las técnicas de perforación que pueden utilizarse en la etapa de perforación de sondeos. Merecen especial atención los aspectos relativos a la recogia y tratamiento que deben recibir las muestras y los ensayos a realizar en los sondeos. Por ello, se describe con cuidado cual es la labor de la ingeniería tanto en el planteamiento de la campaña como en su seguimiento y supervisión. Este aspecto se complementa de manera notable con una explicación de los distintos métodos de evaluación de reservas y una explicación de las modalidades de ccontratación de una campaña de sondeos. La última parte del libro está dedicada a las tendencias actuales existentes, donde se hace una revisión de los avances habidos en perforación dirigida, la perforación marina, la perforación en ambientes extremos y en particular en los polos de la Tierra, así como las tendencias existentes en los últimos años en materia de análisis y estudio de los testigos recuperados.
Resumo:
En el conocido proceso de I+D muchas veces queda oculto su elemento clave: el conocimiento en todas sus variantes, lo mismo ocurre en el complejo y poco comprendido proceso de innovación. El paper persigue reconocer al conocimiento como el elemento sustantivo de las mejoras de productividad, crecimiento económico, bienestar personal y social, así como actualizar sus fuentes, tipos, difusión y las diferentes posibilidades de aplicación ya existentes y las futuras.
Resumo:
En los últimos años, el desarrollo industrial a nivel globalizado en los diferentes sectores, la difusión de la TI y el uso estratégico de la misma, han crecido de manera exponencial. El uso adecuado de esta, se ha convertido en una gran preocupación para los órganos de gobierno de las organizaciones ya que la falta de dirección y control en las inversiones que se realizan en ellas, así como un uso inadecuado de las mismas pueden comprometer la consecución de los objetivos de la organización, su competitividad y su sostenibilidad a medio-largo plazo. La preocupación de los propietarios de los negocios es mejorar su rendimiento con la ayuda de la TI frente a sus competidores, realizando los procesos de negocio de una manera eficaz y eficiente, por lo que muchas organizaciones han realizado inversiones importantes en la adquisición de tecnología para lograr sus propósitos. Sin embargo la ejecución de estas inversiones no se ha gestionado adecuadamente, conforme a las políticas y planes especificados en los planes de negocio de la organización y la entrega de los servicios de TI no ha sido conforme a los objetivos previstos, generando pérdidas importantes y lo que es peor un gran deterioro de la imagen de la organización, por lo que consideramos a la gestión de la demanda estratégica de la TI como uno de los factores claves para el éxito de los negocios, el cual no ha sido tomada en cuenta por los consejos de gobierno o los altos ejecutivos de las organizaciones. La investigación comienza con una amplia revisión de la literatura, identificando dos elementos muy importantes, la demanda y el suministro de la TI dentro de la gobernanza corporativa de la TI; notándose la escasa información relacionado con la gestión de la demanda estratégica de la TI. Se realizó un estudio exploratorio para conocer como los miembros del consejo de administración y altos ejecutivos de una organización gestionan la demanda estratégica de la TI, obteniendo una respuesta de 130 encuestados, donde se confirma que hace falta normas o metodologías para la gestión de la demanda estratégica de la TI. En base a estos resultados se ha construido un marco de trabajo para todo el proceso de la gestión de la demanda de la TI y como una solución que se plantea en esta tesis doctoral, consiste en la elaboración de una metodología, combinando e integrando marcos de trabajo y estándares relacionados con la gobernanza corporativa de la TI. La metodología propuesta está conformada por tres fases, cada fase con sus actividades principales, y cada actividad principal por un conjunto de sub-actividades. Además, se establecen los roles y responsabilidades de los altos ejecutivos para cada una de las actividades principales. Esta propuesta debe ser de fácil implantación y aplicable en las organizaciones, permitiendo a estas afrontar con éxito el desarrollo de sus negocios, con una mejor calidad, reduciendo los costes de operación y empleando el menor tiempo posible. La validación de la metodología propuesta se realizó a través de una encuesta online y un estudio de casos. En la encuesta de validación participaron 42 altos ejecutivos de diferentes empresas y el estudio de casos se realizó con 5 empresas internacionales. Las respuestas de los estudios fueron analizados, para determinar la aceptación o el rechazo de la metodología propuesta por los participantes, confirmando la validez y confiabilidad del estudio. Este es uno de los primeros estudios reportado con evidencias empíricas para el proceso de la gestión de la demanda estratégica de la TI. Los resultados de esta investigación han sido publicados en revistas y congresos internacionales. ABSTRACT In recent years, the globalized industrial development, diffusion and strategic use of IT in different sectors has grown exponentially. Proper use of IT has become a major concern for government bodies and organizations. Uncontrolled or mismanaged IT investments or improper IT use may compromise the achievement of an organization’s objectives, competitiveness and sustainability in the medium to long term. Business owners set out to use IT to outperform their competitors, enacting business processes effectively and efficiently. Many organizations have made significant investments in technology in order to achieve their aims. However, the deployment of these investments has not been managed properly in accordance with the policies and plans specified in the organizations’ business plans, and IT services have not been delivered in accordance with the specified objectives. This has generated significant losses and, worse still, has seriously damaged the image of organizations. Accordingly, we believe that IT strategic demand management is one of the key factors for business success which has not been overlooked by the boards of trustees or senior executives of organizations. The research begins with an extensive review of the literature. This review has identified two very important elements: IT demand and supply within the corporate governance of IT. We have found that information related to IT strategic demand management is scant. We conducted an exploratory study to learn how members of the board of directors and senior executives of an organization manage IT strategic demand. The survey, which was taken by 130 respondents, confirmed that standards or methodologies are needed to manage IT strategic demand. Based on the results, we have built a framework for the entire IT demand management process. The solution proposed in this thesis is to develop a methodology, combining and integrating frameworks and standards related to the corporate governance of IT. The proposed methodology is divided into three phases. Each phase is composed of a series of key activities, and each key activity is further split into minor activities. We also establish the roles and responsibilities of senior executives for each of the key activities. This proposal should be easy to implement and apply in organizations, enabling corporations to successfully conduct better quality business, reduce operating costs and save time. The proposed methodology was validated by means of an online survey and a case study. The validation survey was completed by 42 senior executives from different companies, and the case study was conducted at five international companies. The study results were analysed to determine the acceptance or rejection of the proposed methodology by the participants, confirming the validity and reliability of the study. This is one the first studies to report empirical evidence for the process of IT strategic demand management. The results of this research have been published in international journals and conferences.
Resumo:
La Ingeniería del Software (IS) Empírica adopta el método científico a la IS para facilitar la generación de conocimiento. Una de las técnicas empleadas, es la realización de experimentos. Para que el conocimiento obtenido experimentalmente adquiera el nivel de madurez necesario para su posterior uso, es necesario que los experimentos sean replicados. La existencia de múltiples replicaciones de un mismo experimento conlleva la existencia de numerosas versiones de los distintos productos generados durante la realización de cada replicación. Actualmente existe un gran descontrol sobre estos productos, ya que la administración se realiza de manera informal. Esto causa problemas a la hora de planificar nuevas replicaciones, o intentar obtener información sobre las replicaciones ya realizadas. Para conocer con detalle la dimensión del problema a resolver, se estudia el estado actual de la gestión de materiales experimentales y su uso en replicaciones, así como de las herramientas de gestión de materiales experimentales. El estudio concluye que ninguno de los enfoques estudiados proporciona una solución al problema planteado. Este trabajo persigue como objetivo mejorar la administración de los materiales experimentales y replicaciones de experimentos en IS para dar soporte a la replicación de experimentos. Para satisfacer este objetivo, se propone la adopción en experimentación de los paradigmas de Gestión de Configuración del Software (GCS) y Línea de Producto Software (LPS). Para desarrollar la propuesta se decide utilizar el método de investigación acción (en inglés action research). Para adoptar la GCS a experimentación, se comienza realizando un estudio del proceso experimental como transformación de productos; a continuación, se realiza una adopción de conceptos fundamentada en los procesos del desarrollo software y de experimentación; finalmente, se desarrollan un conjunto de instrumentos, que se incorporan a un Plan de Gestión de Configuración de Experimentos (PGCE). Para adoptar la LPS a experimentación, se comienza realizando un estudio de los conceptos, actividades y fases que fundamentan la LPS; a continuación, se realiza una adopción de los conceptos; finalmente, se desarrollan o adoptan las técnicas, simbología y modelos para dar soporte a las fases de la Línea de Producto para Experimentación (LPE). La propuesta se valida mediante la evaluación de su: viabilidad, flexibilidad, usabilidad y satisfacción. La viabilidad y flexibilidad se evalúan mediante la instanciación del PGCE y de la LPE en experimentos concretos en IS. La usabilidad se evalúa mediante el uso de la propuesta para la generación de las instancias del PGCE y de LPE. La satisfacción evalúa la información sobre el experimento que contiene el PGCE y la LPE. Los resultados de la validación de la propuesta muestran mejores resultados en los aspectos de usabilidad y satisfacción a los experimentadores. ABSTRACT Empirical software engineering adapts the scientific method to software engineering (SE) in order to facilitate knowledge generation. Experimentation is one of the techniques used. For the knowledge generated experimentally to acquire the level of maturity necessary for later use, the experiments have to be replicated. As the same experiment is replicated more than once, there are numerous versions of all the products generated during a replication. These products are generally administered informally without control. This is troublesome when it comes to planning new replications or trying to gather information on replications conducted in the past. In order to grasp the size of the problem to be solved, this research examines the current state of the art of the management and use of experimental materials in replications, as well as the tools managing experimental materials. The study concludes that none of the analysed approaches provides a solution to the stated problem. The aim of this research is to improve the administration of SE experimental materials and experimental replications in support of experiment replication. To do this, we propose the adaptation of software configuration management (SCM) and software product line (SPL) paradigms to experimentation. The action research method was selected in order to develop this proposal. The first step in the adaptation of the SCM to experimentation was to analyse the experimental process from the viewpoint of the transformation of products. The concepts were then adapted based on software development and experimentation processes. Finally, a set of instruments were developed and added to an experiment configuration management plan (ECMP). The first step in the adaptation of the SPL to experimentation is to analyse the concepts, activities and phases underlying the SPL. The concepts are then adapted. Finally, techniques, symbols and models are developed or adapted in support of the experimentation product line (EPL) phases. The proposal is validated by evaluating its feasibility, flexibility, usability and satisfaction. Feasibility and flexibility are evaluated by instantiating the ECMP and the EPL in specific SE experiments. Usability is evaluated by using the proposal to generate the instances of the ECMP and EPL. The results of the validation of the proposal show that the proposal performs better with respect to usability issues and experimenter satisfaction.
Resumo:
El análisis de imágenes hiperespectrales permite obtener información con una gran resolución espectral: cientos de bandas repartidas desde el espectro infrarrojo hasta el ultravioleta. El uso de dichas imágenes está teniendo un gran impacto en el campo de la medicina y, en concreto, destaca su utilización en la detección de distintos tipos de cáncer. Dentro de este campo, uno de los principales problemas que existen actualmente es el análisis de dichas imágenes en tiempo real ya que, debido al gran volumen de datos que componen estas imágenes, la capacidad de cómputo requerida es muy elevada. Una de las principales líneas de investigación acerca de la reducción de dicho tiempo de procesado se basa en la idea de repartir su análisis en diversos núcleos trabajando en paralelo. En relación a esta línea de investigación, en el presente trabajo se desarrolla una librería para el lenguaje RVC – CAL – lenguaje que está especialmente pensado para aplicaciones multimedia y que permite realizar la paralelización de una manera intuitiva – donde se recogen las funciones necesarias para implementar dos de las cuatro fases propias del procesado espectral: reducción dimensional y extracción de endmembers. Cabe mencionar que este trabajo se complementa con el realizado por Raquel Lazcano en su Proyecto Fin de Grado, donde se desarrollan las funciones necesarias para completar las otras dos fases necesarias en la cadena de desmezclado. En concreto, este trabajo se encuentra dividido en varias partes. La primera de ellas expone razonadamente los motivos que han llevado a comenzar este Proyecto Fin de Grado y los objetivos que se pretenden conseguir con él. Tras esto, se hace un amplio estudio del estado del arte actual y, en él, se explican tanto las imágenes hiperespectrales como los medios y las plataformas que servirán para realizar la división en núcleos y detectar las distintas problemáticas con las que nos podamos encontrar al realizar dicha división. Una vez expuesta la base teórica, nos centraremos en la explicación del método seguido para componer la cadena de desmezclado y generar la librería; un punto importante en este apartado es la utilización de librerías especializadas en operaciones matriciales complejas, implementadas en C++. Tras explicar el método utilizado, se exponen los resultados obtenidos primero por etapas y, posteriormente, con la cadena de procesado completa, implementada en uno o varios núcleos. Por último, se aportan una serie de conclusiones obtenidas tras analizar los distintos algoritmos en cuanto a bondad de resultados, tiempos de procesado y consumo de recursos y se proponen una serie de posibles líneas de actuación futuras relacionadas con dichos resultados. ABSTRACT. Hyperspectral imaging allows us to collect high resolution spectral information: hundred of bands covering from infrared to ultraviolet spectrum. These images have had strong repercussions in the medical field; in particular, we must highlight its use in cancer detection. In this field, the main problem we have to deal with is the real time analysis, because these images have a great data volume and they require a high computational power. One of the main research lines that deals with this problem is related with the analysis of these images using several cores working at the same time. According to this investigation line, this document describes the development of a RVC – CAL library – this language has been widely used for working with multimedia applications and allows an optimized system parallelization –, which joins all the functions needed to implement two of the four stages of the hyperspectral imaging processing chain: dimensionality reduction and endmember extraction. This research is complemented with the research conducted by Raquel Lazcano in her Diploma Project, where she studies the other two stages of the processing chain. The document is divided in several chapters. The first of them introduces the motivation of the Diploma Project and the main objectives to achieve. After that, we study the state of the art of some technologies related with this work, like hyperspectral images and the software and hardware that we will use to parallelize the system and to analyze its performance. Once we have exposed the theoretical bases, we will explain the followed methodology to compose the processing chain and to generate the library; one of the most important issues in this chapter is the use of some C++ libraries specialized in complex matrix operations. At this point, we will expose the results obtained in the individual stage analysis and then, the results of the full processing chain implemented in one or several cores. Finally, we will extract some conclusions related with algorithm behavior, time processing and system performance. In the same way, we propose some future research lines according to the results obtained in this document
Resumo:
Las imágenes hiperespectrales permiten extraer información con una gran resolución espectral, que se suele extender desde el espectro ultravioleta hasta el infrarrojo. Aunque esta tecnología fue aplicada inicialmente a la observación de la superficie terrestre, esta característica ha hecho que, en los últimos años, la aplicación de estas imágenes se haya expandido a otros campos, como la medicina y, en concreto, la detección del cáncer. Sin embargo, este nuevo ámbito de aplicación ha generado nuevas necesidades, como la del procesado de las imágenes en tiempo real. Debido, precisamente, a la gran resolución espectral, estas imágenes requieren una elevada capacidad computacional para ser procesadas, lo que imposibilita la consecución de este objetivo con las técnicas tradicionales de procesado. En este sentido, una de las principales líneas de investigación persigue el objetivo del tiempo real mediante la paralelización del procesamiento, dividiendo esta carga computacional en varios núcleos que trabajen simultáneamente. A este respecto, en el presente documento se describe el desarrollo de una librería de procesado hiperespectral para el lenguaje RVC - CAL, que está específicamente pensado para el desarrollo de aplicaciones multimedia y proporciona las herramientas necesarias para paralelizar las aplicaciones. En concreto, en este Proyecto Fin de Grado se han desarrollado las funciones necesarias para implementar dos de las cuatro fases de la cadena de análisis de una imagen hiperespectral - en concreto, las fases de estimación del número de endmembers y de la estimación de la distribución de los mismos en la imagen -; conviene destacar que este trabajo se complementa con el realizado por Daniel Madroñal en su Proyecto Fin de Grado, donde desarrolla las funciones necesarias para completar las otras dos fases de la cadena. El presente documento sigue la estructura clásica de un trabajo de investigación, exponiendo, en primer lugar, las motivaciones que han cimentado este Proyecto Fin de Grado y los objetivos que se esperan alcanzar con él. A continuación, se realiza un amplio análisis del estado del arte de las tecnologías necesarias para su desarrollo, explicando, por un lado, las imágenes hiperespectrales y, por otro, todos los recursos hardware y software necesarios para la implementación de la librería. De esta forma, se proporcionarán todos los conceptos técnicos necesarios para el correcto seguimiento de este documento. Tras ello, se detallará la metodología seguida para la generación de la mencionada librería, así como el proceso de implementación de una cadena completa de procesado de imágenes hiperespectrales que permita la evaluación tanto de la bondad de la librería como del tiempo necesario para analizar una imagen hiperespectral completa. Una vez expuesta la metodología utilizada, se analizarán en detalle los resultados obtenidos en las pruebas realizadas; en primer lugar, se explicarán los resultados individuales extraídos del análisis de las dos etapas implementadas y, posteriormente, se discutirán los arrojados por el análisis de la ejecución de la cadena completa, tanto en uno como en varios núcleos. Por último, como resultado de este estudio se extraen una serie de conclusiones, que engloban aspectos como bondad de resultados, tiempos de ejecución y consumo de recursos; asimismo, se proponen una serie de líneas futuras de actuación con las que se podría continuar y complementar la investigación desarrollada en este documento. ABSTRACT. Hyperspectral imaging collects information from across the electromagnetic spectrum, covering a wide range of wavelengths. Although this technology was initially developed for remote sensing and earth observation, its multiple advantages - such as high spectral resolution - led to its application in other fields, as cancer detection. However, this new field has shown specific requirements; for example, it needs to accomplish strong time specifications, since all the potential applications - like surgical guidance or in vivo tumor detection - imply real-time requisites. Achieving this time requirements is a great challenge, as hyperspectral images generate extremely high volumes of data to process. For that reason, some new research lines are studying new processing techniques, and the most relevant ones are related to system parallelization: in order to reduce the computational load, this solution executes image analysis in several processors simultaneously; in that way, this computational load is divided among the different cores, and real-time specifications can be accomplished. This document describes the construction of a new hyperspectral processing library for RVC - CAL language, which is specifically designed for multimedia applications and allows multithreading compilation and system parallelization. This Diploma Project develops the required library functions to implement two of the four stages of the hyperspectral imaging processing chain - endmember and abundance estimations -. The two other stages - dimensionality reduction and endmember extraction - are studied in the Diploma Project of Daniel Madroñal, which complements the research work described in this document. The document follows the classical structure of a research work. Firstly, it introduces the motivations that have inspired this Diploma Project and the main objectives to achieve. After that, it thoroughly studies the state of the art of the technologies related to the development of the library. The state of the art contains all the concepts needed to understand the contents of this research work, like the definition and applications of hyperspectral imaging and the typical processing chain. Thirdly, it explains the methodology of the library implementation, as well as the construction of a complete processing chain in RVC - CAL applying the mentioned library. This chain will test both the correct behavior of the library and the time requirements for the complete analysis of one hyperspectral image, either executing the chain in one processor or in several ones. Afterwards, the collected results will be carefully analyzed: first of all, individual results -from endmember and abundance estimations stages - will be discussed and, after that, complete results will be studied; this results will be obtained from the complete processing chain, so they will analyze the effects of multithreading and system parallelization on the mentioned processing chain. Finally, as a result of this discussion, some conclusions will be gathered regarding some relevant aspects, such as algorithm behavior, execution times and processing performance. Likewise, this document will conclude with the proposal of some future research lines that could continue the research work described in this document.
Resumo:
Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.
Resumo:
Se pretende estudiar los quioscos de música en un espacio, (Comunidad de Madrid), y en un tiempo, (desde 1897 año del más antiguo localizado en la Comunidad de Madrid, hasta 2005 por cambio de ciclo político y crisis económica, constando que la actividad constructiva, modificadora y destructiva de los quioscos de música sigue), difundiendo el estudio de los localizados, para que se valoren como objetos arquitectónicos, (de poco tamaño, pero situados y vistos en los lugares más representativos de las localidades. En la metodología de investigación seguida, se usan la inferencia inductiva y deductiva. Se establecen 3 fases en el proceso de investigación por el método inductivo-deductivo: Primera fase. En esta fase se establece la idea del tema de investigación, con el planteamiento del problema, realizándose la pregunta a la que se pretende responder. En este caso la pregunta es: ¿que tipología e invariantes definen a los quioscos de música, como objetos arquitectónicos dentro de los espacios públicos? Se definen luego los objetivos, con la identificación de un objetivo principal como son su tipología e invariantes, y en su caso otros objetivos específicos, como son sus usos y la creación de un modelo. Para ello se utiliza un marco teórico, relativo a los conocimientos que hay sobre la materia, y desde el que se produce la aproximación al problema, y se establece la metodología de trabajo. . Segunda fase, desarrollada en dos etapas: Primera etapa: Se realiza la elección del tipo de trabajo a realizar, es decir, como vamos a conocer la respuesta a la pregunta con un planteamiento cuantitativo, donde se trabaja con objetivos cerrados, y donde se sabe lo que se quiere investigar. En este caso son los objetivos específicos los que completan y marcan el tipo de trabajo. Lo primero que se realiza es un análisis histórico general de los objetos arquitectónicos que sirven de base a las futuras y actuales creaciones de quioscos de música. A continuación se realiza una búsqueda y trabajo de campo, en bibliotecas, páginas web, etc. con obtención de datos “in situ” sobre los quioscos de música, y una relación y descripción de los objetos a estudiar, limitados a la Comunidad de Madrid, desde finales del siglo XIX a principios del XXI, por su suficiente cantidad y representatividad, en relación al conjunto de los quioscos de música del conjunto de las comunidades de España. Segunda etapa: Se realiza el análisis e interpretación de los datos obtenidos, dando respuesta a la pregunta que se había realizado. En ella se vincula el marco teórico con los objetivos, se responde al objetivo principal como son la tipología e invariantes en relación a su composición arquitectónica, a sus elementos formales, a sus sistemas constructivos, a sus materiales, y a alguno de los objetivos específicos, como los usos de los quioscos de música, el diseño de un modelo y la creación de una base de datos de quioscos de música. Tercera fase: Se establecen las conclusiones de todo el trabajo de investigación realizado, y se responde a la posible definición de un modelo según lo planteado en la investigación. Se realiza la difusión/publicación de los conocimientos adquiridos, dando cuenta con rigor de como se ha desarrollado la investigación, ya que es la sociedad la principal receptora de los conocimientos adquiridos en la investigación, y dando la mayor amplitud de información posible, con los anexos y la bibliografía utilizada. En el planteamiento de este trabajo de investigación, hay que partir de la consideración de que los quioscos de música forman parte de los objetos arquitectónicos reconocidos popularmente, como propios de los individuos y de los colectivos que forman las sociedades, ya que forman o han formado parte de las vidas de generaciones de usuarios de los espacios públicos, con una imagen reconocible y que es parte de lo que identifica a cada localidad en la que existe. La situación actual de falta de datos, conocimiento e información sobre los quioscos de música, ha creado la necesidad de realizar un trabajo de investigación, con el objetivo de aportar lo que ahora falta, y crear las bases de futuros trabajos, profundizando en los conocimientos sobre esta materia y/o generando conocimiento en lo relacionado con ella. Uno de los condicionantes es que a pesar del gran número de ellos existente, no hay estudios ni bibliografía adecuada para realizar trabajos relacionados con su construcción, época, estilos, materiales, diseños, tipología etc. excepto en algunas monografías sobre los más representativos de comunidades, ciudades o pueblos concretos, pero que no representan el conjunto de ideales, motivos, épocas diferentes en que se crearon, y con que criterios estilísticos, sociales, de uso etc. se programaron por las distintas administraciones responsables de su construcción. Esta falta de información se suple normalmente con datos que aportan las personas que tienen alguna relación con los quioscos, como los conservadores, jardineros, vecinos, personas mayores, etc., y en algunos casos a través de búsqueda de información en páginas Web, pero con poco rigor y de poca fiabilidad. Se impone por tanto desarrollar una investigación que aporte información sobre la arquitectura de estos objetos, de bibliografía inexistente o insuficiente, consiguiendo que se incorporen en la tipología arquitectónica, adquiriendo la importancia y reconocimiento que se merecen, no solo arquitectónicamente, sino incluso a nivel social, porque en casi todos los casos se añade un componente de hito, de elemento reconocible y nostálgico, con una gran importancia simbólica en las sociedades a lo largo de la historia, dentro de los espacios donde cada uno se ha desarrollado. Para ello se desarrollan a continuación los objetivos tanto generales como específicos, el marco teórico con los conceptos, origen, evolución, estado del arte o estado de la cuestión en el momento actual de los quioscos de música, y la metodología a seguir, con una primera etapa de uso del método inductivo, donde se relacionan y describen los quioscos de música localizados en la Comunidad de Madrid, y una segunda etapa, donde se realiza el análisis y estudio de tipología, invariantes, usos y una propuesta de diseño de un modelo de quiosco de música atendiendo a los resultados de los trabajos realizados.
Resumo:
En el marco del Espacio Europeo de Educación Superior los estudios deben de estar orientados a facilitar la movilidad de los futuros egresados para que su inclusión en mundo laboral sea global y en este contexto, los sistemas educativos deben introducir cambios en el proceso de enseñanza – aprendizaje y en la gestión. Como uno de los elementos básicos de la creación del EEES es el aprendizaje a lo largo de la vida, se deben adoptar metodologías que doten al estudiante de capacidades para poder enfrentarse a todos los retos de la vida laboral. A través de la presente investigación se trata de aportar una visión real de la aplicación efectiva de un modelo de Aprendizaje Basado en Problemas y el Método del Caso acompañados de una fuerte Acción Tutorial y el uso de la Tecnología de la Información y Comunicación en la Universidad (TIC). Se considera asimismo de gran interés para la mejora del aprendizaje conocer cuál es la opinión real de los estudiantes universitarios, ya que son los principales implicados en relación a un modelo formativo apoyado en el Aprendizaje Basado en Problemas, el Método del Caso, la Acción Tutorial y utilización de las TIC. A través de este estudio se pretende comprobar y valorar cual es la visión real que los alumnos tienen de estas aplicaciones y como las utilizan. Para ello durante los últimos cursos se ha trabajado con alumnos de los últimos cursos de la Escuela Técnica Superior de Ingeniería Civil de la Universidad Politécnica de Madrid aplicando técnicas de Aprendizaje Basado en Problemas y el Método del Caso conjuntamente con la utilización de un Modelo de Acción Tutorial y el uso de la TIC. La tarea se ha centrado en desarrollar, a lo largo de los cursos 2009-10, 2010-11, 2011-12 y 2013-14, un modelo de Acción Tutorial con los alumnos matriculados en las asignaturas de Caminos I, Caminos II, Aforos y Ordenación del Tráfico, asignaturas de la titulación de Ingeniería Técnica de Obras Públicas, y por otro lado, en la asignatura de Caminos, perteneciente a la titulación de Ingeniería Civil. Mediante cuestionarios al inicio y final del curso, se ha conocido cuál es la opinión que poseen los alumnos sobre esta acción. A continuación, durante los cursos 2010-11, 2011-12 y 2013-14 se desarrolla un modelo experimental para evaluar las mejoras, tanto de rendimiento como de adquisición de competencias, utilizando el Aprendizaje Basado en Problemas y el Método del Caso acompañados de las TIC en el proceso de enseñanza–aprendizaje como modelo de Acción Tutorial con alumnos. ABSTRACT Abstract In the frame of the European Higher Education Area, the studies must be faced to facilitate mobility of future graduates for inclusion in the workplace is global and in this context, educational systems must introduce changes in the process of education-learning and management. Since one of the basic elements of the creation of the EHEA is learning throughout life, there must be adopted methodologies that provide the student of aptitudes to be able to face all the challenges of the labor life. Through this research it is provided a real vision of the effective application of a Model of Learning Based on Problems and the Case Method accompanied by a strong Tutorial Action and the use of ITC in the University. It is also considered of great interest for the improvement of learning to know what the real opinion of the college students is, as they are the main players in relation in a training model based on Problem-Based Learning, the Case Method, the Tutorial Action and Use of ICT. Through this study it is expected to verify and assess which is the real vision that students have about these applications and how they use them. In order to achieve the goal of this research project, during the last three years I have been working with students of last courses of the Civil Engineering School of the Technical University of Madrid applying with them techniques of Problem-Based Learning and the Case Method together with the use of a Model Action Tutorial and the Use of Information Technology and Communication (ICT). The task has focused on developing, over the 2009-10, 2010-11, 2011-12 and 2013-14 courses, a model of Tutorial Action with students enrolled in the subjects of Roads I, Roads II, Traffic Gauging and Traffic Management, all of them of the old degree in Civil Engineering (1971 Study Plan), and secondly, on the subject of Roads which belong to the current degree of Civil Engineering. Using questionnaires at the beginning and end of the course the perception that students have on this action.. Then, during the 2010-11, 2011-12 and 2013-14 courses an experimental model is developed to evaluate improvements in both performance and skills acquisition, using Problem-Based Learning and the Case Method together with the ICT in Teaching-Learning Pprocess as a model of Tutorial Action with students.
Resumo:
El baloncesto es un deporte basado en unos principios de juego sencillos y unas exigencias físicas y técnicas en la iniciación asumibles por todos los alumnos. Ofreciendo las herramientas adecuadas y adaptando las tareas de aprendizaje al contexto se puede conseguir una competencia elevada. Es necesario llevar a cabo una planificación adecuada y una selección de tareas apropiadas. El juego posee unas características que le convierten en un elemento con gran potencial educativo, en especial para Educación Física, debido al placer que genera y al espacio que ofrece para expresarse y utilizar el cuerpo. A través de este trabajo se propone una Unidad Didáctica de Baloncesto vertebrada por el uso del juego como elemento vehicular. La Investigación-acción es un proceso que explora directamente sobre el terreno, siendo muy sencillo y práctico para aplicar en el ámbito educativo. Engloba de manera casi simultánea el proceso de investigación y el de búsqueda de soluciones. Para analizar el resultado de dicha metodología se exponen los elementos básicos para llevar a cabo un trabajo de Investigación-acción paralelo y adaptado al Baloncesto y la Unidad Didáctica. Basketball is a sport based on easy game principles. Every student is capable of reaching physical and technical request for amateur practice. High skills in basketball can be obtained with suitable tools and adapted activities to the current environment. Appropriate planning and tasks are required for that purpose. In education game activities turn to be an option with excellent opportunities, especially for physical education. It provides students a way to express feelings, practice with their body and have fun. The aim of this project is to propose a basketball teaching unit focused on gaming tasks. Participatory action research intervenes directly on the field, simple and practical to be used in educational context. This model links researching and problem solving on the same process. The basic path to perform a participatory action research is given to analyze the results of carrying out the proposed teaching unit.
Resumo:
Esta investigación es una incursión en el tránsito de Juan Navarro desde sus “habitaciones y horizontes”, las manifestaciones espontáneas de la mano y el proyectar, a la obra que nos devuelve a la experiencia física y corporal del mundo. Juan Navarro debe a sus manos gran parte de sus inquietudes y capacidades. Sus manos están presentes en su obra como materia –piezas de manos-, como herramienta -el dibujo por la mano- y como desencadenante en los procesos creativos de su obra de arquitectura. Las distintas obras remiten a una preocupación común: la de visualizar el espacio a través de un imaginario personal. Sin embargo, el proceso creativo en cada disciplina se desarrolla teniendo en cuenta la especificidad del medio y la experiencia que provoca en el espectador. La obra, como concreción del proceso creativo, se explica por las continuidades y discontinuidades entre las herramientas, mecanismos y estrategias utilizadas en los distintos medios. La tesis se estructura en dos partes, en la primera se estudia cómo se producen los procesos creativos, sus mecanismos en los distintos medios plásticos y el dibujo como herramienta transversal. Se identifican los conceptos y temas que dan lugar a la obra profundizando en el papel de la mano como presencia orgánica, biológica y responsable de una forma de representación personal. La segunda parte se articula en dos capítulos que, a través del dibujo, muestran la arquitectura como modelo e identifican los mecanismos utilizados en su forma de proyectar y su relación con la obra en distintos proyectos. El texto se estructura como una secuencia de ideas articuladas alrededor de un universo gráfico que nos conduce por múltiples itinerarios desde los que atisbar los procesos creativos de Juan Navarro. Estos caminos son hilos con los que se teje una visión personal de la relación entre las herramientas y mecanismos utilizados por Juan Navarro y su obra. La manera cómo se produce el proceso creativo, los mecanismos y las herramientas que los ponen en marcha constituyen una forma de abordar la obra, que hasta la fecha, se ha tratado aisladamente sin una intención de construir un cuerpo estructurado de conocimiento. En la arquitectura Juan Navarro existe un vacío de conocimiento teórico y gráfico sobre el propio proceso y su forma de proyectar. Se ha persistido en la explicación de la obra, sus referencias, temas abordados, relaciones y trasvases sin ahondar en la especificidad del medio. Estos vacíos establecen la necesidad y justificación de esta tesis doctoral. La investigación comienza descifrando una obra que desde sus inicios trabaja con la dualidad de lo gestual y lo conceptual. Plantea una forma de ordenación del mundo, de la sensación sometida a la medida en la que finalmente la obra se recibe como signo que desencadena sentimientos y te devuelve al mundo. Propone la recuperación de los sentidos a través de una arquitectura como vivencia no reductible al espacio geométrico. Identifica los mecanismos y herramientas que se establecen en este proceso y termina concluyendo que el dibujo es la herramienta doblemente transversal porque atiende de forma desigual a las distintas disciplinas y a los dos extremos en que se presenta la actividad creatividad en el trabajo de Juan Navarro. Estos extremos se corresponden con un conocimiento corporal inconsciente y un trabajo constante guiado por la motivación, la predeterminación y la conceptualización. El dibujo por la mano es el espacio de encuentro entre lo que representa la mano y la posibilidad de expresión proyectual codificada. Se produce en un territorio que se extiende desde lo analógico subyacente –que se nutre de imágenes complejas- y el dominio simbólico construido. Abstract. This research is a foray into Juan Navarro’s transition from his "Rooms and Horizons", -spontaneous demonstrations of the hand-, to the project, -the work that brings us back to experiencing the physical world-. Juan Navarro owes his hands much of his capacities and inquisitiveness. His hands are present in his work as the subject –“Hand Pieces”-, as a tool -through hand-drawing - and as a trigger in the creative processes of his work of architecture. The various works refer to a common theme: the viewing space through a personal imagery. However, the creative process in each discipline develops taking into account the specificity of the medium and the experience that arouses in the observer. The work, as completion of the creative process, is explained by the continuities and discontinuities between the tools, mechanisms and strategies used in the different media. The thesis is structured in two parts, the first studies how the creative processes are iniciated, their mechanisms in the different plastic art media, as well as drawing as a transversal tool. In this section the investigation identifies the concepts and themes that give rise to the art work, exploring the role of the hand as the organic, biological presence responsible for a way of personal representation. The second part is divided into two chapters, which, via the drawing, show the architecture as a model and identify the mechanisms used in the his way of projecting form of the project and its the relationship of hand-drawing to with his work ilustrated with different projects. The text is structured as a sequence of ideas, articulated around a graphic universe that leads us by multiple paths, letting us glimpse into the creative processes of Juan Navarro. These paths are threads that weave a personal vision of the relationship between the tools and mechanisms used by Juan Navarro in his work. The way the creative process takes place, the mechanisms and tools that set it in action, constitutes a way of dealing with the work, that, hithergo, has been treated in isolation without an intention to build a structured body of knowledge. In Navarro Baldeweg’s architecture there is a vacuum of theoretical and graphic knowledge of the process itself and his way of projecting. So far, emphasis has been placed mainly on his work’s explanation, its references, the subjects covered, connections and transfers, without delving into the specificity of each medium. These academic gaps justify the need for this doctoral thesis. The investigation begins deciphering a work that, since its very beginning, deals with the duality of the gesture and the concept. It poses a way of managing the world and the sensations which are submitted until it finally detects the work as a sign that triggers feelings and returns the observer to the real world. It proposes the recovery of the senses through an architecture that is sensed as an experience and not merely reduced to geometric space. It identifies the mechanisms and tools that are set out in this process and concludes that drawing is a core tool working in two directions, because it caters unevenly to the various disciplines and to both ends of the creative activity presented in the work of Juan Navarro. These ends correspond with an unconscious physical knowledge and a continuous work guided by motivation, predetermination and conceptualization. Hand-drawing is the meeting space between what the hand represents, and the possibility of an encoded, projectual expression. Thus, hand-drawing takes place in a territory that covers the underlying analogue - which feeds on complex images - to the symbolic built domain.