46 resultados para PROYECTO PALMERO EN EL TERRITORIO COLECTIVO DEL CONSEJO COMUNITARIO DE GUAPI ABAJO
Resumo:
Hoy en día el uso de dispositivos portátiles multimedia es ya una realidad totalmente habitual. Además, estos dispositivos tienen una capacidad de cálculo y unos recursos gráficos y de memoria altos, tanto es así que por ejemplo en un móvil se pueden reproducir vídeos de muy alta calidad o tener capacidad para manejar entornos 3D. El precio del uso de estos recursos es un mayor consumo de batería que en ocasiones es demasiado alto y acortan en gran medida la vida de la carga útil de la batería. El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid ha abierto una línea de trabajo que busca la optimización del consumo de energía en este tipo de dispositivos, concretamente en el ámbito de la reproducción de vídeo. El enfoque para afrontar la solución del problema se basa en obtener un mayor rendimiento de la batería a costa de disminuir la experiencia multimedia del usuario. De esta manera, cuando la carga de la batería esté por debajo de un determinado umbral mientras el dispositivo esté reproduciendo un vídeo de alta calidad será el dispositivo quien se autoconfigure dinámicamente para consumir menos potencia en esta tarea, reduciendo la tasa de imágenes por segundo o la resolución del vídeo que se descodifica. Además de lo citado anteriormente se propone dividir la descodificación y la representación del vídeo en dos procesadores, uno de propósito general y otro para procesado digital de señal, con esto se consigue que tener la misma capacidad de cálculo que con un solo procesador pero a una frecuencia menor. Para materializar la propuesta se usará la tarjeta BeagleBoard basada en un procesador multinúcleo OMAP3530 de Texas Instrument que contiene dos núcleos: un ARM1 Cortex-A8 y un DSP2 de la familia C6000. Este procesador multinúcleo además permite modificar la frecuencia de reloj y la tensión de alimentación dinámicamente para conseguir reducir de este modo el consumo del terminal. Por otro lado, como reproductor de vídeos se utilizará una versión de MPlayer que integra un descodificador de vídeo escalable que permite elegir dinámicamente la resolución o las imágenes por segundo que se decodifican para posteriormente mostrarlas. Este reproductor se ejecutará en el núcleo ARM pero debido a la alta carga computacional de la descodificación de vídeos, y que el ARM no está optimizado para este tipo de procesado de datos, el reproductor debe encargar la tarea de la descodificación al DSP. El objetivo de este Proyecto Fin de Carrera consiste en que mientras el descodificador de vídeo está ejecutándose en el núcleo DSP y el Mplayer en el núcleo ARM del OMAP3530 se pueda elegir dinámicamente qué parte del vídeo se descodifica, es decir, seleccionar en tiempo real la calidad o capa del vídeo que se quiere mostrar. Haciendo esto, se podrá quitar carga computacional al núcleo ARM y asignársela al DSP el cuál puede procesarla a menor frecuencia para ahorrar batería. 1 ARM: Es una arquitectura de procesadores de propósito general basada en RISC (Reduced Instruction Set Computer). Es desarrollada por la empresa inglesa ARM holdings. 2 DSP: Procesador Digital de Señal (Digital Signal Processor). Es un sistema basado en procesador, el cual está orientado al cálculo matemático a altas velocidad. Generalmente poseen varias unidades aritmético-lógicas (ALUs) para conseguir realizar varias operaciones simultáneamente. SUMMARY. Nowadays, the use of multimedia devices is a well known reality. In addition, these devices have high graphics and calculus performance and a lot of memory as well. In instance, we can play high quality videos and 3D environments in a mobile phone. That kind of use may increase the device's power consumption and make shorter the battery duration. Electronic and Microelectronic Design Group of Technical University of Madrid has a research line which is looking for optimization of power consumption while these devices are playing videos. The solution of this trouble is based on taking more advantage of battery by decreasing multimedia user experience. On this way, when battery charge is under a threshold while device is playing a high quality video the device is going to configure itself dynamically in order to decrease its power consumption by decreasing frame per second rate, video resolution or increasing the noise in the decoded frame. It is proposed splitting decoding and representation tasks in two processors in order to have the same calculus capability with lower frecuency. The first one is specialized in digital signal processing and the other one is a general purpose processor. In order to materialize this proposal we will use a board called BeagleBoard which is based on a multicore processor called OMAP3530 from Texas Instrument. This processor includes two cores: ARM Cortex-A8 and a TMS320C64+ DSP core. Changing clock frequency and supply voltage is allowed by OMAP3530, we can decrease the power consumption on this way. On the other hand, MPlayer will be used as video player. It includes a scalable video decoder which let us changing dynamically the resolution or frames per second rate of the video in order to show it later. This player will be executed by ARM core but this is not optimized for this task, for that reason, DSP core will be used to decoding video. The target of this final career project is being able to choose which part of the video is decoded each moment while decoder is executed by DSP and Mplayer by ARM. It will be able to change in real time the video quality, resolution and frames per second that user want to show. On this way, reducing the computational charge within the processor will be possible.
Resumo:
A pesar del creciente interés de las organizaciones por la aplicación de métodos y técnicas de usabilidad en el proceso de desarrollo de software, seleccionar y poner en práctica aquellas técnicas que más se adecuan a las características de un determinado proyecto es una tarea compleja y con un soporte bajo. La diversidad de métodos de usabilidad, su desconocimiento en el mundo profesional y la falta de unas pautas claras para su aplicación en un determinado proyecto están causando que la introducción del Diseño Centrado en el Usuario (UCD, del inglés User Centred Design o DCU en español) en las compañías sea una tarea costosa y compleja. No obstante, las empresas que apuestan por la usabilidad de sus productos se están posicionando por encima del resto al crear sistemas que los usuarios valoran notablemente y por ver incrementadas sus ventas. Jefes de proyecto y consultores, que ven atractivo el desarrollo de sistemas usables, se hallan en un escenario en el que no encuentran un mecanismo sencillo e inmediato para seleccionar y aplicar las técnicas de usabilidad en sus proyectos de forma ágil y estructurada. El criterio para la selección de técnicas y métodos que manejan se basa únicamente en su experiencia profesional y en la bibliografía de numerosos autores. Usability Planner es una aplicación web dirigida a profesionales, estudiantes e investigadores involucrados en el desarrollo de software para ayudar a cambiar este escenario. Su objetivo es dar soporte a la selección de técnicas y métodos de usabilidad en el proceso de desarrollo de software minimizando riesgos y maximizando beneficios.
Resumo:
En las siguientes líneas, se podrá encontrar un trabajo perteneciente al Trabajo Fin de Grado realizado por Cristina Parra Cruz. Dicho trabajo tendrá un tema central de estudio y análisis, la lesión del Ligamento Cruzado Anterior (LCA) en el fútbol femenino. El Ligamento Cruzado Anterior es de dos a cuatro veces superior en el fútbol femenino que en el masculino. Independientemente del sexo afectado, esta lesión conlleva un tiempo de baja deportiva elevado y sus complicaciones futuras (riesgo de nueva lesión) deben ser tenidas en cuenta, como también, el mecanismo de producción, factores de riesgo, momento de la lesión, pierna lesionada o tratamiento médico. El principal objetivo de este estudio es presentar el número de lesiones del LCA en diferentes equipos y categorías a lo lardo de dos temporadas (2012-2013 y 2013-2014).
Resumo:
El objetivo de la presente investigación es el desarrollo de un modelo de cálculo rápido, eficiente y preciso, para la estimación de los costes finales de construcción, en las fases preliminares del proyecto arquitectónico. Se trata de una herramienta a utilizar durante el proceso de elaboración de estudios previos, anteproyecto y proyecto básico, no siendo por tanto preciso para calcular el “predimensionado de costes” disponer de la total definición grafica y literal del proyecto. Se parte de la hipótesis de que en la aplicación práctica del modelo no se producirán desviaciones superiores al 10 % sobre el coste final de la obra proyectada. Para ello se formulan en el modelo de predimensionado cinco niveles de estimación de costes, de menor a mayor definición conceptual y gráfica del proyecto arquitectónico. Los cinco niveles de cálculo son: dos que toman como referencia los valores “exógenos” de venta de las viviendas (promoción inicial y promoción básica) y tres basados en cálculos de costes “endógenos” de la obra proyectada (estudios previos, anteproyecto y proyecto básico). El primer nivel de estimación de carácter “exógeno” (nivel .1), se calcula en base a la valoración de mercado de la promoción inmobiliaria y a su porcentaje de repercusión de suelo sobre el valor de venta de las viviendas. El quinto nivel de valoración, también de carácter “exógeno” (nivel .5), se calcula a partir del contraste entre el valor externo básico de mercado, los costes de construcción y los gastos de promoción estimados de la obra proyectada. Este contraste entre la “repercusión del coste de construcción” y el valor de mercado, supone una innovación respecto a los modelos de predimensionado de costes existentes, como proceso metodológico de verificación y validación extrínseca, de la precisión y validez de las estimaciones resultantes de la aplicación práctica del modelo, que se denomina Pcr.5n (Predimensionado costes de referencia con .5niveles de cálculo según fase de definición proyectual / ideación arquitectónica). Los otros tres niveles de predimensionado de costes de construcción “endógenos”, se estiman mediante cálculos analíticos internos por unidades de obra y cálculos sintéticos por sistemas constructivos y espacios funcionales, lo que se lleva a cabo en las etapas iniciales del proyecto correspondientes a estudios previos (nivel .2), anteproyecto (nivel .3) y proyecto básico (nivel .4). Estos cálculos teóricos internos son finalmente evaluados y validados mediante la aplicación práctica del modelo en obras de edificación residencial, de las que se conocen sus costes reales de liquidación final de obra. Según va evolucionando y se incrementa el nivel de definición y desarrollo del proyecto, desde los estudios previos hasta el proyecto básico, el cálculo se va perfeccionando en su nivel de eficiencia y precisión de la estimación, según la metodología aplicada: [aproximaciones sucesivas en intervalos finitos], siendo la hipótesis básica como anteriormente se ha avanzado, lograr una desviación máxima de una décima parte en el cálculo estimativo del predimensionado del coste real de obra. El cálculo del coste de ejecución material de la obra, se desarrolla en base a parámetros cúbicos funcionales “tridimensionales” del espacio proyectado y parámetros métricos constructivos “bidimensionales” de la envolvente exterior de cubierta/fachada y de la huella del edificio sobre el terreno. Los costes funcionales y constructivos se ponderan en cada fase del proceso de cálculo con sus parámetros “temáticos/específicos” de gestión (Pg), proyecto (Pp) y ejecución (Pe) de la concreta obra presupuestada, para finalmente estimar el coste de construcción por contrata, como resultado de incrementar al coste de ejecución material el porcentaje correspondiente al parámetro temático/especifico de la obra proyectada. El modelo de predimensionado de costes de construcción Pcr.5n, será una herramienta de gran interés y utilidad en el ámbito profesional, para la estimación del coste correspondiente al Proyecto Básico previsto en el marco técnico y legal de aplicación. Según el Anejo I del Código Técnico de la Edificación (CTE), es de obligado cumplimiento que el proyecto básico contenga una “Valoración aproximada de la ejecución material de la obra proyectada por capítulos”, es decir , que el Proyecto Básico ha de contener al menos un “presupuesto aproximado”, por capítulos, oficios ó tecnologías. El referido cálculo aproximado del presupuesto en el Proyecto Básico, necesariamente se ha de realizar mediante la técnica del predimensionado de costes, dado que en esta fase del proyecto arquitectónico aún no se dispone de cálculos de estructura, planos de acondicionamiento e instalaciones, ni de la resolución constructiva de la envolvente, por cuanto no se han desarrollado las especificaciones propias del posterior proyecto de ejecución. Esta estimación aproximada del coste de la obra, es sencilla de calcular mediante la aplicación práctica del modelo desarrollado, y ello tanto para estudiantes como para profesionales del sector de la construcción. Como se contiene y justifica en el presente trabajo, la aplicación práctica del modelo para el cálculo de costes en las fases preliminares del proyecto, es rápida y certera, siendo de sencilla aplicación tanto en vivienda unifamiliar (aisladas y pareadas), como en viviendas colectivas (bloques y manzanas). También, el modelo es de aplicación en el ámbito de la valoración inmobiliaria, tasaciones, análisis de viabilidad económica de promociones inmobiliarias, estimación de costes de obras terminadas y en general, cuando no se dispone del proyecto de ejecución y sea preciso calcular los costes de construcción de las obras proyectadas. Además, el modelo puede ser de aplicación para el chequeo de presupuestos calculados por el método analítico tradicional (estado de mediciones pormenorizadas por sus precios unitarios y costes descompuestos), tanto en obras de iniciativa privada como en obras promovidas por las Administraciones Públicas. Por último, como líneas abiertas a futuras investigaciones, el modelo de “predimensionado costes de referencia 5 niveles de cálculo”, se podría adaptar y aplicar para otros usos y tipologías diferentes a la residencial, como edificios de equipamientos y dotaciones públicas, valoración de edificios históricos, obras de urbanización interior y exterior de parcela, proyectos de parques y jardines, etc….. Estas lineas de investigación suponen trabajos paralelos al aquí desarrollado, y que a modo de avance parcial se recogen en las comunicaciones presentadas en los Congresos internacionales Scieconf/Junio 2013, Rics‐Cobra/Septiembre 2013 y en el IV Congreso nacional de patología en la edificación‐Ucam/Abril 2014. ABSTRACT The aim of this research is to develop a fast, efficient and accurate calculation model to estimate the final costs of construction, during the preliminary stages of the architectural project. It is a tool to be used during the preliminary study process, drafting and basic project. It is not therefore necessary to have the exact, graphic definition of the project in order to be able to calculate the cost‐scaling. It is assumed that no deviation 10% higher than the final cost of the projected work will occur during the implementation. To that purpose five levels of cost estimation are formulated in the scaling model, from a lower to a higher conceptual and graphic definition of the architectural project. The five calculation levels are: two that take as point of reference the ”exogenous” values of house sales (initial development and basic development), and three based on calculation of endogenous costs (preliminary study, drafting and basic project). The first ”exogenous” estimation level (level.1) is calculated over the market valuation of real estate development and the proportion the cost of land has over the value of the houses. The fifth level of valuation, also an ”exogenous” one (level.5) is calculated from the contrast between the basic external market value, the construction costs, and the estimated development costs of the projected work. This contrast between the ”repercussions of construction costs” and the market value is an innovation regarding the existing cost‐scaling models, as a methodological process of extrinsic verification and validation, of the accuracy and validity of the estimations obtained from the implementation of the model, which is called Pcr.5n (reference cost‐scaling with .5calculation levels according to the stage of project definition/ architectural conceptualization) The other three levels of “endogenous” construction cost‐scaling are estimated from internal analytical calculations by project units and synthetic calculations by construction systems and functional spaces. This is performed during the initial stages of the project corresponding to preliminary study process (level.2), drafting (level.3) and basic project (level.4). These theoretical internal calculations are finally evaluated and validated via implementation of the model in residential buildings, whose real costs on final payment of the works are known. As the level of definition and development of the project evolves, from preliminary study to basic project, the calculation improves in its level of efficiency and estimation accuracy, following the applied methodology: [successive approximations at finite intervals]. The basic hypothesis as above has been made, achieving a maximum deviation of one tenth, in the estimated calculation of the true cost of predimensioning work. The cost calculation for material execution of the works is developed from functional “three‐dimensional” cubic parameters for the planned space and constructive “two dimensional” metric parameters for the surface that envelopes around the facade and the building’s footprint on the plot. The functional and building costs are analyzed at every stage of the process of calculation with “thematic/specific” parameters of management (Pg), project (Pp) and execution (Pe) of the estimated work in question, and finally the cost of contractual construction is estimated, as a consequence of increasing the cost of material execution with the percentage pertaining to the thematic/specific parameter of the projected work. The construction cost‐scaling Pcr.5n model will be a useful tool of great interest in the professional field to estimate the cost of the Basic Project as prescribed in the technical and legal framework of application. According to the appendix of the Technical Building Code (CTE), it is compulsory that the basic project contains an “approximate valuation of the material execution of the work, projected by chapters”, that is, that the basic project must contain at least an “approximate estimate” by chapter, trade or technology. This approximate estimate in the Basic Project is to be performed through the cost‐scaling technique, given that structural calculations, reconditioning plans and definitive contruction details of the envelope are still not available at this stage of the architectural project, insofar as specifications pertaining to the later project have not yet been developed. This approximate estimate of the cost of the works is easy to calculate through the implementation of the given model, both for students and professionals of the building sector. As explained and justified in this work, the implementation of the model for cost‐scaling during the preliminary stage is fast and accurate, as well as easy to apply both in single‐family houses (detached and semi‐detached) and collective housing (blocks). The model can also be applied in the field of the real‐estate valuation, official appraisal, analysis of the economic viability of real estate developments, estimate of the cost of finished projects and, generally, when an implementation project is not available and it is necessary to calculate the building costs of the projected works. The model can also be applied to check estimates calculated by the traditional analytical method (state of measurements broken down into price per unit cost details), both in private works and those promoted by Public Authorities. Finally, as potential lines for future research, the “five levels of calculation cost‐scaling model”, could be adapted and applied to purposes and typologies other than the residential one, such as service buildings and public facilities, valuation of historical buildings, interior and exterior development works, park and garden planning, etc… These lines of investigation are parallel to this one and, by way of a preview, can be found in the dissertations given in the International Congresses Scieconf/June 2013, Rics‐Cobra/September 2013 and in the IV Congress on building pathology ‐Ucam/April 2014.
Resumo:
Se ha realizado un estudio de la distribución de plantas vasculares en un territorio situado entre las provincias de Cuenca, Guadalajara, Madrid y Toledo (España). El territorio estudiado está en la Submeseta Sur de la península ibérica, al sur del Sistema Central, norte de los Montes de Toledo y oeste del Sistema Ibérico, en zonas sedimentarias con poco relieve y clima mediterráneo, con grandes contrastes de temperatura y precipitaciones muy irregulares. Coincide con las regiones naturales llamadas: “Alcarrias”, “Campiñas de Madrid y Guadalajara” y “Vegas de los ríos de la Cuenca del Tajo”. Es lo que he llamado Cuenca Media del Tajo. En una primera fase se ha estudiado la flora regional para adquirir conocimientos previos mediante las consultas bibliográficas y de herbarios, se ha contado con bases de datos disponibles para MA, MACB, MAF, JACA, AH, ABH, VAL, SALA y EMMA. Se han revisado las aportaciones propias que en los últimos años he realizado en el territorio en relación a los temas tratados en la tesis. El trabajo de campo ha consistido en la realización de inventarios de presencia de flora. Ha sido muy importante la tarea herborizadora para llegar a la correcta identificación de las especies colectadas en los inventarios. De esta forma el autor ha confeccionado un herbario propio JML que en el territorio muestreado ha reunido cerca de 15000 números en las cuatro provincias estudiadas. Se ha hecho un muestreo sistemático del territorio con unos 6000 listados de plantas. Se ha tomado como unidad de muestreo la cuadrícula de UTM de 1 km de lado incluida como una centésima parte de la cuadrícula de UTM de 10 km. Se han seguido criterios para uniformizar el muestreo. Se ha apuntado el tiempo empleado y la superficie muestreada estimada en cada toma de datos. El criterio mínimo que tienen que cumplir todas las cuadrículas en el área estudiada ha sido que para cada cuadrícula de UTM de 5 km se han realizado al menos 5 inventarios en 5 cuadrículas diferentes de UTM de 1 km y al menos en una hora de tiempo. La unidad de comparación ha sido la cuadrícula UTM de 5 km. Se han informatizado los inventarios de campo, para ello se ha creado la base de datos TESIS en Microsoft office –Access-. Las principales tablas son LOCALIDAD, en la que se anotan las características del lugar muestreado y ESPECIES, que lista las especies de flora consideradas en las cuatro provincias del estudio. Por medio de formularios se han rellenado las tablas; destaca la tabla ESPECIE INVENTARIO que relaciona las tablas ESPECIES y LOCALIDAD; esta tabla cuenta en este momento con unos 165.000 registros. En la tabla ESPECIES_FPVI se visualizan las especies recopiladas. Se ha creado un indicador llamado FPVI “Flora permanentemente visible identificable” que consiste en atribuir a cada especie unos índices que nos permiten saber si una determinada planta se puede detectar en cualquier época del año. Los resultados presentados son: Creación de la base de datos TESIS. El Catálogo Florístico de la Cuenca Media del Tajo, que es el catálogo de la flora de las cuatro provincias desde el principio de la sistemática hasta las Saxifragáceas. En total se han recopilado 1028 taxones distribuidos en 77 familias. Se ha calculado el índice FPVI, para las especies del catálogo. La finalidad para la que se ha diseñado este índice es para poder comparar territorios. Para el desarrollo de ambos resultados ha sido fundamental el desarrollo de la tabla ESPECIES_PVI de la base de datos TESIS. En la tabla ESPECIES_PVI se han apuntado las características ecológicas y se revisa la información bibliográfica disponible para cada especie; las principales fuentes de información consultadas han sido Flora iberica, el proyecto “Anthos” y las bases de datos de los herbarios. Se ha apuntado sí se ha visto, sí está protegida o sí en un endemismo. Otros resultados son: la localización de las cuadrículas de UTM de 10 km, con mayor número de endemismos o especies singulares, con mayor valor botánico. Se ha realizado un par de ejemplos de estudios de autoecología de especie, en concreto Teucrium pumilum y Clematis recta. Se han confeccionando salidas cartográficas de distribución de especies. Se ha elaborado el herbario JML. Se ha presentado una sencilla herramienta para incluir inventarios florísticos, citas corológicas, consultas de autoecología o etiquetado de pliegos de herbario. Como colofón, se ha colaborado para desarrollar una aplicación informática de visualización, análisis y estudio de la distribución de taxones vegetales, que ha utilizado como datos de partida un porcentaje importante de los obtenidos para esta tesis. ABSTRACT I have made a study of the distribution of vascular plants in a territory located between the provinces of Cuenca, Guadalajara, Madrid and Toledo (Spain). The studied area is in the “Submeseta” South of the Iberian Peninsula, south of the Central System, north of the Montes de Toledo and west of the Iberian System, in sedimentary areas with little relief and Mediterranean climate, with big temperature contrasts and irregular rainfall. Coincides with the natural regions called "Alcarrias", "countryside of Madrid and Guadalajara" and “Vegas River Tagus Basin”. This is what I have called Middle Tagus Basin. In a first step we have studied the regional flora to acquire prior knowledge through the literature and herbaria consultations, it has had available databases for MA, MACB, MAF, JACA, AH, ABH, VAL, SALA and EMMA herbaria. The contributions I have made in the last years in the territory in relation to the topics discussed in the thesis have been revised. The field work consisted of conducting inventories presence of flora. Botanize was a very important task to get to the correct identification of the species collected in inventories. In this way the author has made his own herbarium JML in the sampled area has met at least 15000 samples in the four studied provinces. There has been a systematic sampling of the territory with nearly 6,000 listings of plants. Was taken as the sampling unit grid UTM 1 km side included as a hundredth of the UTM grid of 10 km from side. Criteria have been taken to standardize the sampling. Data were taken of the time spent and the estimated sampled surface. The minimum criteria they have to meet all the grids in the study area has been that for each UTM grid of 5 km have been made at least 5 stocks in 5 different grids UTM 1 km and at least one hour of time. The unit of comparison was the UTM grid of 5 km. I have computerized inventories of field, for it was created a database in Access- Microsoft office -TESIS. The main tables are LOCALIDAD, with caracteristics of the sampled location and ESPECIES, which lists the plant species considered in the four provinces of the study, is. Through forms I filled in the tables; highlights ESPECIE INVENTARIO table that relates the tables ESPECIES and LOCALIDAD, this table is counted at the moment with about 165,000 records. The table ESPECIES FPVI visualizes all recollected species. We have created an indicator called FPVI "Flora permanently visible identifiable" that attributes to each species indices that allow us to know whether a given plant can be detected in any season. The results presented are: Creating data base TESIS. The Floristic Books Middle Tagus Basin, which is a catalog of the flora of the four provinces since the beginning of the systematic until Saxifragaceae. In total 1028 collected taxa in 77 families. We calculated FPVI index for species catalog. The purpose for which this index designed is, to compare territories. For the development of both results, it was essential to develop the table ESPECIES_PVI TESIS data base. Table ESPECIES_PVI has signed the ecological characteristics and bibliographic information available for each species is revised; the main sources of information has been Flora iberica, the Anthos project databases of herbaria. Targeted species has been recorded, when seen, protected or endemism. Have also been located UTM grids of 10 km, with the largest number of endemic or unique species and more botanical value. There have been a couple of species autecology studies, namely Teucrium pumilum and Clematis recta, as an example of this type of study. They have been putting together maps of species distribution. We made herbarium JML. I have presented a simple tool to include floristic inventories, chorological appointments, consultations or to tag autoecology herbarium specimens. To cap it has worked to develop a computer application for visualization, analysis and study of the distribution of plant taxa, which has used as input data a significant percentage of those obtained for this thesis.
Resumo:
Un entendimiento infraestructural del proyecto arquitectónico Este trabajo de tesis reivindica la pertinencia de la lógica infraestructural como herramienta de proyecto arquitectónico en el territorio urbano contemporáneo, a través del relato del tránsito que se produce entre las décadas de 1960 y 1970 y el final del siglo XX, desde unos sistemas urbanos centrales, vectoriales y ‘modernos’ hacia unos sistemas policéntricos, organizados según modelos de campos y ‘contemporáneos’. Las infraestructuras han sido tradicionalmente objeto de interés para generaciones de arquitectos y urbanistas que, bien desde su condición plástica más pregnante, bien desde una intuición de su capacidad organizativa, han sido fascinados por la irrupción en el territorio de estos elementos generalmente ajenos al proyecto arquitectónico. Los proyectos que durante décadas han explorado la posibilidad de habitar estas grandes estructuras, o de proyectar con su lenguaje y su escala, han resultado en un acercamiento a la capacidad de lo infraestructural como herramienta de proyecto limitada a cuestiones morfotipológicas. Sin embargo, a partir de un estudio de la infraestructura ‘clásica’ como aquella resultado de la manifestación de las redes de abastecimiento y conectividad básicas, se desvela una naturaleza de lo infraestructural que trasciende su expresión formal conocida y explora su capacidad performativa, como sistema de relaciones, como orden topológico, como soporte flexible para la actividad espontánea y no anticipada. A partir del trabajo de diversos autores y de una selección de proyectos de distinta índole –la mayoría no construidos– se muestra cómo la irrupción de una conciencia relacional, así como la problemática moderna de afrontar los procesos de generación de una ‘nueva ciudad para una nueva sociedad’, motivan la búsqueda de sistemas de generación y control de ‘forma colectiva’ adecuados a un modelo urbano contemporáneo. Transitando por los escritos de Fumihiko Maki en Investigations in Collective Form, Reyner Banham en Megastructure, o Shadrach Woods en The Man in the Street durante los 60 y 70 y, más recientemente, de Stan Allen en Points + Lines, Edward Soja en Postmetropolis o Frei Otto en Occupying and Connecting, se traza esta historia semántica de lo infraestructural desde lo tipológico hasta una noción ampliada que resulta pertinente para operar en el territorio contemporáneo postmetropolitano. Para ello el trabajo plantea, por un lado, la descripción del contexto urbano que podemos asumir como contemporáneo, su evolución y sus características principales. Por otro lado, se explora la formación de esta noción de entendimiento infraestructural en las últimas décadas desde enfoques complementarios. Una introducción describe las condiciones de contexto en las que este estudio doctoral adquiere su pertinencia: el tránsito relativamente reciente desde un modelo vectorial y clásico de ocupación del territorio, al modelo contemporáneo disperso y policéntrico propio del modelo de campos. Un bloque central de tres capítulos analiza ‘lo infraestructural’ como expresión de una arquitectura de las relaciones, como soporte para una sociedad en cambio y como lógica proyectual, no ligada a una forma dada. La última parte, a modo de epílogo, describe el territorio urbano contemporáneo, sus cualidades básicas y la capacidad de las lógicas infraestructurales enunciadas en los capítulos anteriores para operar en él. Un último apartado de conclusiones, establece las bases de una línea de investigación abierta acerca de la operatividad actual de estos sistemas en el proyecto de arquitectura. ABSTRACT An infrastructural understanding of architectural design This thesis project claims for the suitability of infrastructural logics as a design tool within contemporary urban territories. This claim is illustrated by means of a report on the transit between the 60–70’s decades and the end of the 20th century, ranging from vector, central, ‘modern’ urban systems, towards polycentric ‘contemporary’ urban patterns, arranged following field models. Infrastructures have been traditionally on the spot for generations of architects and urban planners who, due to either their aesthetical condition, or an intuition of their organizational capacity, have been fascinated by the bursting of these elements in the territory. Projects which have explored the possibility to inhabit these huge structures, or to design with its language or scale for decades, have turned out to be always limited to morphological-typological issues. However, from the base of a research on ‘classic’ infrastructure –understood as the outcome of supplies and connectivity basic networks– a new nature of infrastructure is revealed, going beyond its known formal expression and exploring its potential to perform as a system of relationships, as a topological pattern, or as a flexible support for spontaneous and unanticipated activity. The breakthrough of a relational consciousness, as well as the modern concern about the generation of ‘a new city for a new society’ are shown, through the works of several authors and a selection of heterogeneous mostly-unbuilt projects. This semantic history of infrastructures, regarding not only typologies but also a broader concept able to operate in contemporary postmetropolitan territory, is drawn by following the paths of Fumihiko Maki in Investigations in Collective Form, Reyner Banham in Megastructure, or Shadrach Woods in The Man in the Street during the 60’s and 70’s and, lately, those of Stan Allen in Points + Lines, Edward Soja in Postmetropolis or Frei Otto in Occupying and Connecting. In order to do so, this thesis project sets, on one hand, a description of the urban context which can be assumed as contemporary, as well as its evolution and main features. On the other hand, complementary approaches help go deep into how this notion of infrastructural insight within the last decades has been created. An introduction describes the contextual conditions for this thesis project to become relevant: the relatively recent transit from a classic spatial occupation pattern, to the contemporary, disperse and polycentric pattern inherent to field models. A three-chapters core analyzes the infrastructures as the expression of an architecture of relations, as well as a support for a changing society and as a formless design logic. The last part, an epilogue, describes the urban contemporary territory and the suitability of the infrastructural logics to operate in it. A final conclusive section, lays the foundations for an open line of research on present functionality of these systems in architectural designs.
Resumo:
El presente estudio se fundamenta en la investigación-acción-participativa (IAP), para buscar alternativas que tiendan al desarrollo local de un territorio. Se centra en la cuenca hidrográfica del rio Manglaralto-Santa Elena-Ecuador, aplicando un sistema metodológico participativo que considera las características peculiares del territorio, que se analizan geoespacialmente reconociendo la influencia de la dinámica de sus cambios y observando los móviles que la propiciaban. A través de mecanismos participativos, se conectan los aspectos técnicos para el conocimiento y el aprovechamiento racional del acuífero costero, con los valores de los habitantes del territorio, para mejorar su abastecimiento de agua y crear nuevas condiciones y oportunidades en el camino del desarrollo local, vislumbrando la sostenibilidad. Cabe indicar que el ente administrativo y propulsor es la Junta de Agua Potable Regional Manglaralto (JAPRM). La hipótesis del estudio considera, que los métodos participativos generan en la comunidad una respuesta basada en su identidad y sus deseos de mejorar, que propiciará una gestión del acuífero costero que conlleve al desarrollo local. Otra hipótesis complementaria estipula que las estrategias del gobierno respecto al turismo propicia un crecimiento en la demanda del agua del acuífero. En Manglaralto-Ecuador, una parroquia de 30.000 habitantes aproximadamente, donde la JAPRM, administra y suministra agua a 23.586 habitantes que cuenta en su organización, llevada por 6 representantes de las comunidades rurales que la conforman, empezaron hace 7 años a buscar una forma de lograr un cambio, de tener agua para el desarrollo de la comunidad. Buscaron ayuda por diferentes medios, políticos, económicas, sociales y encontraron como base fundamental a la cooperación con el Organismo Internacional de Energía Atómica (OIEA) y la Escuela Superior Politécnica del Litoral (ESPOL) para entrelazar aspectos técnicos, ambientales, sociales y culturales. La gestión del acuífero costero, desde la perspectiva del IAP repercute en el desarrollo de Manglaralto. También se realiza un análisis geoespacial-geoestadístico, para vislumbrar aspectos de cambios en el territorio ligados al crecimiento turístico, que afectan a la demanda del recurso agua proveniente del acuífero costero bajo la administración de la JAPRM. La tesis presenta el modelo integral y propio de la comunidad de Manglaralto, que refleja una evolución que alcanzó un apogeo en 2011 y parte del 2012, con 9 pozos de agua que daban servicio los 365 días del año, 24 horas al día ininterrumpidamente. Las condiciones externas (promociones turísticas de la ruta del Spondylus) han repercutido en nuevas problemáticas (crecimiento elevado de la demanda del agua). El acuífero costero se convierte en el emblema y móvil de solución, gracias a la gestión integral y a la interacción IAP que se amolda a la evolución de las condiciones, buscando soluciones para la comunidad y su entorno. El modelo integral del territorio con la participación de sus pobladores, considera el aspecto turístico, como un agente que propicia la mayor demanda del agua. Situación a la que hay que dar respuesta mediante la observación-reflexión en el ciclo del IAP para generar nuevas directrices estratégicas y gestionar el desarrollo local. ABSTRACT The present study is based on the participatory action research (PAR) methodology in order to look for alternatives which tend to the local development of a territory. It focuses on the Manglaralto hydrographic river basin located in Santa Elena-Ecuador through the application of the participatory methodology which considers the peculiar characteristics of the territory. These are geospatially analyzed recognizing the influence of its dynamic of changes and observing the causes that originated them. Through the use of participatory mechanisms, technical aspects are connected for stimulating knowledge and rational use of the coastal aquifer with the values of inhabitants of the territory to improve the water supply and create new conditions of sustainability. It is important to point out that the administrative organism and promoter is the Manglaralto Regional Fresh Water Board (JAPRM). In Manglaralto-Ecuador, a parish of approximately 30,000 inhabitants, the MRFWB manages and supplies water to 23.586 inhabitants. This organization is composed by 6 representatives of rural communities. It started 7 years ago looking for a way to achieve a change, from obtaining water to developing the community. They seeked for help in different fields such as: political, economic and social and they found International Atomic Energy Agency (IAEA) and Escuela Superior Politécnica del Litoral (ESPOL) as a fundamental basis for cooperation to bond technical, environmental, social and cultural aspects. Management of coastal aquifer, from the PAR perspective affects the development of Manglaralto. Also, a geospatial and geostatistical analysis is carried out to distinguish change aspects in territories related to touristy growth which affects the demand of water obtained from the coastal aquifer under the management of the MRFWB. The thesis presents a comprehensive model that belongs to the Manglaralto community and reveals an evolution that reached a peak in 2011 and part of 2012, with 9 water wells that operated the 365 days of the year 24 hours a day without interruption. The external conditions (touristic packages of Spondylus route) have created new problems (higher demand of water). The coastal aquifer is a symbol and solution, thanks to the comprehensive management and PAR interaction which fits the evolution of conditions, looking for solutions for the community and its surroundings. The comprehensive model of territory with the participation of inhabitants considers the touristic aspect as an agent which brings about a higher demand of water. This situation requests a response through the observation-reflection in the PAR cycle to generate new strategic guidelines and promote the local development.
Resumo:
El proyecto consiste en el levantamiento topográfico del parque de la Fuente y la parcela aledaña con referencia catastral 2891201V0001QH para la elaboración del plano topográfico y el modelo digital del terreno (MDT) de la zona, perteneciente a la localidad madrileña de Fuenlabrada. La zona de proyecto abarca una extensión aproximada de 5,2 hectáreas y tanto parque como parcela, dada su proximidad, aparecerán en el mismo plano. La zona de proyecto fue georreferenciada en sistema geodésico de referencia ETRS89, para lo cual se observó una red básica mediante técnicas GNSS, en estático rápido para ser más precisos. La proyección UTM fue la usada para la cartografía, y las altitudes están referidas a la altitud media del mar en Alicante. El levantamiento topográfico se realizó principalmente utilizando la técnica GNSS RTK en post‐proceso, ya que el levantamiento se realizó antes que la observación y cálculo de la red. Se completaron aquellas zonas en las que la señal era de baja calidad o se perdía mediante topografía clásica. El número final de puntos observados por ambas técnicas fue de 5069. El número total de bases que componen la red es 8, numeradas de la 10000 a la 10007. Ésta última se obtuvo observando una red por topografía clásica para densificar la red básica. Con los puntos del levantamiento se elabora la cartografía de la zona a escala 1/250 y se divide en tres hojas. También se obtiene el modelo digital del terreno con dos finalidades: 1. Obtener el curvado del plano topográfico. 2. Servir de punto de partida para el modelado en 3D del parque y la parcela objetos del proyecto utilizando el software Google SketchUp. En la hoja 3/3 aparece íntegramente la parcela aledaña con referencia catastral 2891201V0001QH donde se encajó el proyecto de edificación “Jardín botánico con aulas de la naturaleza”. Una vez encajado se obtuvieron las coordenadas de los puntos básicos de la edificación de cara al replanteo previo a la firma del acta de replanteo. Finalmente se redactó la memoria donde está incluido el presupuesto, reseñas y la descripción detallada de lo resumido anteriormente.
Resumo:
La Terraza Compleja de Arganda (TCA), situada en el tramo bajo del río Jarama (Madrid), está formada por sucesivos apilamientos de secuencias fluviales denominados de abajo a arriba Arganda I, II, III y IV, en los que se han encontrado importantes yacimientos arqueológicos y paleontológicos del Pleistoceno (Áridos 1 y 2, Valdocarros o HAT), y numerosos conjuntos de industria lítica del Paleolítico inferior y medio. Hasta ahora, la única referencia cronológica disponible para la TCA era la proporcionada por el estadio evolutivo de los micromamíferos de los yacimientos Áridos 1 en Arganda I y Valdocarros en Arganda II. En este trabajo, se propone la equivalencia de las distintas unidades de la TCA con terrazas escalonadas y se establece un marco cronológico numérico, obtenido mediante dataciones de termoluminiscencia, luminiscencia ópticamente estimulada y racemización de aminoácidos. Arganda I (≈ T+30-32 m) se situaría hacia el final del MIS 11 o en el inicio del MIS 9, Arganda II (≈T+23-24 m) se correspondería con el inicio del MIS 7, Arganda III (≈T+18-20 m) se situaría entre el MIS 7 y el MIS 5, y Arganda IV comenzaría su deposición en el MIS 5 finalizando su sedimentación en el MIS 1 al sur de Arganda del Rey (Madrid).
Resumo:
La organización es considerada como elemento estratégico en el desarrollo de una localidad rural, ya que a través de ésta se obtienen mayores beneficios, permite a las personas desarrollar sus capacidades y son impulsoras de proyectos dentro de las comunidades. Sin embargo, es común que los territorios rurales cuenten con un tejido asociativo desarticulado que limita esas posibilidades. Por lo anterior se planteo conocer las causas de la escasa participación de la sociedad en grupos organizados y la problemática que enfrentan las organizaciones asentadas en un territorio, a través de un estudio de caso en el municipio de Salinas, San Luis Potosí, México, en 2009. El objetivo de este trabajo es identificar las causas que están originando que la organización no tenga impacto en el municipio, lo que permitirá formular una estrategia para lograr que ésta sea un motor de desarrollo en el territorio. Los resultados indican que la mayoría de las personas no participan en ningún tipo de organización aún cuando les gusta trabajar en grupo. En general, las organizaciones se enfrentan a dificultades para tomar acuerdos y cumplir los compromisos adquiridos. Las organizaciones formales en el municipio incluyen organizaciones económicas y de representación. Ambas presentan problemas internos relacionados con la falta de recursos económicos, la escasa capacitación y la falta compromiso del grupo; elementos que no han permitido su consolidación y su participación en el desarrollo del territorio.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
La conservación de sabor, el aroma y la cantidad microbiana, después de la cosecha y a lo largo de la cadena de distribución es un gran desafío para la industria de fruta fresca. Factores pre y post-cosecha, transporte y almacenamiento influyen directamente en la calidad de las frutas y verduras. El objetivo principal de este trabajo fue investigar el efecto del abonado con compost de orujo en diferentes dosis en el perfil sensorial del melón de La Mancha. Para la realización de este estudio se han empleado tres dosis diferentes de compost de orujo de calidad certificada (1, 2 y 3Kg/m lineal) en melones de la variedad Trujillo cultivados en la región de Castilla-La Mancha. Los melones fueron recolectados en base a su madurez comercial (10-11ºBrix). El análisis descriptivo cuantitativo (QDA) de los melones fue realizado por un panel de 8 catadores entrenados utilizando los atributos que previamente habían sido seleccionados como los que mejor describían las características sensoriales del melón de la variedad Trujillo. Para cuantificar la intensidad de los atributos se utilizaron escalas no estructuradas de 10 cm. La evaluación del perfil sensorial de los melones puso de manifiesto que abonado con compost de orujo no modifica de manera significativa el perfil olfativo y el perfil de textura de los melones independientemente de la dosis empleada. Sin embargo, la dosis de abonado sí modificó ligeramente el perfil gustativo de los melones especialmente cuando la dosis aplicada fue de 3kg/m lineal apareciendo notas a dulce/sintético que no fueron detectadas en los melones control y con menores dosis de abonado.
Resumo:
Estudio de la posibilidad de introducción de la Moringa oleifera en la Península Ibérica, Islas Baleares e Islas Canarias. Se hace un análisis de las características de esta planta , para dar a conocer su cultivo y usos potenciales por los que pueda resultar interesante la introducción, así como su distribución actual (tanto en la región de origen, como donde se ha introducido) y sus características ecológicas. De esta manera, se consigue una clasificación de los parámetros ecológicos que definen el hábitat de la especie , determinantes para conocer si es posible su introducción en el territorio objeto del estudio. Para conocer la aptitud de la Península, las Islas Baleares y el archipiélago Canario para la introducción de la moringa, se va a realizar un análisis de sus parámetros ecológicos (fisiográficos, climáticos y edáficos) de la especie en el territorio objeto de estudio. Para finalmente conocer las áreas potenciales de introducción de la Moringa oleifera en la Península Ibérica, Islas Baleares e Islas Canarias. Islas Canarias.
Resumo:
En el presente artículo se discuten tres corrientes teóricas alter-nativas al cognitivismo, para explicar el desarrollo hacia la pericia en el ám-bito del aprendizaje y del control motor en deporte, haciendo especial énfa-sis en el enactivismo. En la primera parte se tratan las principales nociones de la psicología ecológica, como la regulación del movimiento, la percep-ción directa o la reciprocidad entre percepción y acción. A continuación se explican las principales aportaciones de la teoría de los sistemas dinámicos a la comprensión de la coordinación del movimiento, de la emergencia de la motricidad y de la interacción de las diferentes variables o restricciones. En el siguiente apartado, se expone el enfoque enactivo como una extensión conceptual proveniente de las ciencias cognitivas y que trasciende a los otros paradigmas. Desde esta orientación, se aboga por una fusión entre el cuerpo y la mente del deportista que es indisociable al medio ambiente y que se opone al dualismo y reduccionismo imperante. Por último, se pre-sentan algunas directrices y aplicaciones de investigaciones enactivas que en la actualidad están en pleno desarrollo. Palabras clave: Enactivismo; cognición; acoplamiento información-movimiento; post-cognitivismo; deporte; pericia.
Resumo:
Actualmente en España, y en toda Europa en general, contamos con un gran Patrimonio Industrial que ya ha comenzado a deteriorase y a verse afectado por el transcurso del tiempo. Desde hace unos años, estos edificios tienen gran interés, tanto desde el punto de vista arquitectónico, como cultural, y por ello, ha incrementado la preocupación por su conservación y restauración. Es por ello que se han desarrollado documentos y leyes que ayudan a regular la gestión de nuestro patrimonio y que están poniendo un gran interés en que se elaboren inventarios que nos permitan conocer cuáles son esos edificios y en qué estado se encuentran, con el fin de lograr su conservación. Surgen por tanto, diferentes proyectos de rehabilitación del Patrimonio Industrial que tienen como propósito, no sólo la conservación de los mismos, sino también darles una nueva vida, un reuso que consiga que estos edificios no pierdan su interés o que caigan en el olvido. En este trabajo se muestran cuáles están siendo las nuevas iniciativas que tienen como propósito rehabilitar edificios del Patrimonio Industrial de España conservando sus valores arquitectónicos e históricos y que a su vez se adaptan a la situación actual de la arquitectura y de nuestro país. Aproximándose a esta idea desde el marco más teórico, se estudian diferentes estrategias y métodos de intervención en estos edificios y de una manera más profunda, aquellos proyectos que incluyen la participación ciudadana en el proceso. Para el estudio de la gestión y el funcionamiento de este tipo de estrategia, se ha seleccionado La Campaneta, un proyecto de rehabilitación de la Antigua Fábrica de Cerámica del municipio de Onda, en Castellón, incluido en el Plan Especial del Centro Histórico de Onda y que se encuentra en sus primeras etapas de intervención.