625 resultados para Cercano
Resumo:
Enfocándonos en el campo crítico de la sociología de la educación, proponemos discutir teóricamente el concepto de "resistencias" o de "contraconductas" de estudiantes y la regulación de las conductas en los dispositivos pedagógicos transitando un terreno relativamente fértil referido al modo en que tienen lugar las mediaciones entre lo social y lo escolar en el mundo del siglo XXI. Para ello, creemos que es necesario realizar la caracterización de las resistencias en los dispositivos pedagógicos en tanto conjunto de prácticas que constituyen la producción de subjetividad a través de las cuales los sujetos asumen una identidad en los asuntos sociales e involucran sentidos sobre la relación entre el saber, las instituciones y el poder. Actualmente, las prácticas de resistencia o contraconductas en las escuelas presentan particularidades que nos interesa estudiar atendiendo a la similar distribución desigual de fuerzas en la vida escolar, pero especialmente a la reconfiguración de esas relaciones en un contexto donde las formas de marginalidad ya no son la de pequeños grupos sino marginalidades masivas universalizadas que producen actividad cultural. Entonces, nos hacemos como preguntas de investigación cuáles son las prácticas y discursos de los estudiantes que pueden ser tomadas como resistencia y por qué, qué dinámicas institucionales se generan a partir de esas prácticas y discursos y cómo son tomadas o clasificadas esas prácticas por los adultos de la escuela. Por último, nos preguntamos qué consecuencias o contribuciones tiene para la pedagogía del siglo XXI, caracterizar, pensar o reflexionar sobre las prácticas de resistencia. Tratamos de pensar la escuela desde los contrapoderes o las contraconductas, de desnaturalizar el dispositivo pedagógico moderno, que no puede satisfacerse con denunciar o criticar una institución sino con poner en tela de juicio la forma de racionalidad existente desde hace ya más de un siglo en un mundo que se ha transformado y cambiado radicalmente. Entonces, reflexionar teóricamente sobre las prácticas de resistencia, creemos, nos permitiría poder analizar la escuela ?sus dinámicas, sus discursos, sus prácticas, desde un lugar más cercano a su cotidianeidad y, por supuesto, más productivamente en términos pedagógicos.
Resumo:
Partiendo de la oposición establecida por Freud entre duelo y melancolía, la presente ponencia revisa dicha oposición así como las relecturas de Judith Butler y Christian Gundermann para pensar la performance oral de Néstor Perlongher con su poema "Cadáveres" (escrito en 1981 y leído por él mismo en 1990) como trabajo de la memoria. Parece pertinente ahora preguntarse si en esa lectura pública Perlongher interpeló al terrorismo de Estado que arrojaba a los deudos de las víctimas a la imposibilidad del trabajo de duelo y si esa imposibilidad los hacía a esos deudos "melancólicos". La idea central de la exposición es, por otro lado, que esa realización del poeta instala en la literatura argentina una definitiva ruptura con otras performances poéticas, al tiempo que da algunas pistas para una interpretación del lugar que le correspondería a esta forma de experimentación artística como (im)posibilidad de poetizar el horror. El muchachito de Avellaneda, N.P., exhibe en su realización oral voces mimadas como orquestación polifónica: el discurso de la maestra, de la señora pequeño-burguesa, del homosexual de barrio, etc. Nuestra hipótesis de trabajo es que estamos, entonces, ante un ejercicio de memoria que se halla tan ajeno al duelo como a la melancolía, y más cercano al ritual artístico igualmente transitado por Juan Gelman o Griselda Gambaro
Resumo:
El presente trabajo se enmarca en el proceso de acreditación de carreras de Psicología y Lic. en Psicología de la República Argentina. Ante el actual proceso de acreditación de dichas carreras, se torna necesario poder pensar al mismo desde diversas perspectivas. Hace más de diez años que la Comunidad Europea está llevando adelante un gran y complejo emprendimiento de evaluación de carreras a nivel superior. Esta experiencia es un punto más pero de importancia desde el cual poder pensarnos, tomando en cuenta los resultados allí obtenidos, aquí en nuestro país. La Argentina también es parte de un armado Geopolítico, el Mercosur, en cuyo seno se han confeccionado y acordado ejes en materia de Educación. Entre las múltiples cuestiones que vienen aparejadas en Europa, se encuentra el Modelo por Competencias como uno de sus bastiones. Este trabajo pretende analizar y explorar la existencia y condiciones de posibilidad del Modelo por Competencias en el diseño curricular de las carreras de psicología argentinas, a sabiendas del lugar protagónico que el mismo tiene en el marco de los procesos de acreditación de carreras de ES de la Comunidad Europea. Competencias, más allá de ser es un concepto en boga en materia de educación, no deja de entrecruzarse con visiones críticas del mismo que van desde planteos sobre cuestiones ideológicas y sus consecuencias en la educación, pasando por el carácter confuso del términos, hasta llegar al otro extremos del abanico de críticas que encuentran en dicho modelo la oportunidad para un cambio revolucionario en pos de la excelencia formativa. Sobre la base de trabajos realizados por investigadores de nuestro país en Formación del Psicólogo y de catedráticos e investigadores Europeos en materia de Competencias, se analizará material bibliográfico, documentos e informes especializados de los procesos de acreditación de carreras de psicología en Argentina, España y Europa. Se tomará en cuenta: las declaraciones de Bologna 'junto a sus antecedentes y sucesores-; el Proyecto Tuning Europeo; El Libro Blanco para El Título de Grado de Psicología de España; Currículas de Grado en Psicología de España; Documentos base e informes generados por la Asociación de Unidades Académicas en Psicología (AUAPsi) y por la Unidad de Vinculación Académica de Psicología de Universidades de Gestión Privada (UVAPSI); la Resolución Ministerial 343/09 de Estándares para la acreditación de las carreras correspondientes a los títulos de Psicólogo y Licenciado en Psicología'; y los casos de los planes de estudios de la Facultad de Psicología de la UNMdP. Para detectar la presencia del Modelo de Competencias, se comparan todos estos elementos. Considerando estos aspectos como diversos planos, es que se observa una marcada ausencia de dicho Modelo por Competencias en la formación psicológica de nuestro país, inclusive en tiempos de acreditación de carreras, lo que genera interrogantes de cara a un futuro cercano tanto por la formación del psicólogo y los caminos que empieza a transcurrir este proceso evaluativo, como también la capacidad o no- de respuesta crítica que tengan las Universidades y la comunidad psi, en caso de presentarse abruptamente una exigencia estatal de reforma educativa a nivel superior basado en este modelo
Resumo:
Tanto el modelo de intelectual que se observa aquí, como las estéticas aludidas, corresponden, o tienen su auge, aparentemente, en una época anterior En 1942, la Comisión Nacional de Cultura otorga el Premio Nacional de Literatura a Eduardo Acevedo Díaz por Cancha larga. Este acontecimiento tuvo gran resonancia, tanto que el número 94 de la revista Sur estuvo dedicado al desagraviar a Borges, al no haberse premiado El jardín de senderos que se bifurcan. Poco tiempo después, aparece en el número 76 de Nosotros. Segunda Época un artículo sin firma, titulado "Los premios nacionales de literatura", en el que se justifica la decisión. En 1945, Borges publicará en Sur "El Aleph", donde parodia la situación bajo el título de 'Postdata del primero de marzo de 1943'. El análisis de esta polémica permite dar cuenta de un momento crucial, en el que comienzan a reestructurarse el campo intelectual y el canon en la literatura argentina. Se desplaza al nacionalismo de su lugar hegemónico y comienza a concebirse la "escritura nacional" de un modo menos mimético. De este esta manera, el nativismo regionalista, ligado a aquella tendencia, pasa a ocupar un espacio muy marginal, cercano al olvido, en la historia literaria, pese al lugar importante que ocupó en las primeras décadas del siglo XX.
Campo Acústico en Recintos de Planta en I En L y en U. Aplicación al Diseño Acústico en Restauración
Resumo:
Este trabajo aborda el estudio de la calidad acústica de restaurantes y propone la inteligibilidad como magnitud adecuada para su valoración. La conversación en el entorno de cada mesa se considera como señal de interés para quienes la ocupan, mientras que las conversaciones de los comensales de las restantes mesas se consideran ruido perturbador junto con el procedente de otras fuentes interiores o exteriores, ruido este que por otra parte suele estar limitado por ordenanzas o reglamentaciones ad hoc, a niveles muy por debajo del nivel de conversación medio y se suele tratar como un ruido estacionario homogéneamente distribuido en todo el restaurante. Las condiciones de inteligibilidad en cada mesa del restaurante deben ser equivalentes. La relación señal-ruido juega un papel primordial en todos los modelos objetivos de predicción de la inteligibilidad en recintos comúnmente aceptados en la actualidad. La calificación de la inteligibilidad de un recinto de restauración requiere un mapa de inteligibilidad en una retícula suficientemente fina que cubra la zona de público, en cuyos puntos se necesita calcular los niveles de señal y de ruido, así como el tiempo de reverberación u otro parámetro relacionado con la señal recibida en el tiempo de integración auditiva. Esto conlleva una cantidad ingente de potencia computacional tanto en memoria como en tiempo. Si se dispone de ecuaciones sencillas y fiables de distribución del nivel sonoro en función de la distancia a la fuente sonora los enormes requerimientos de cálculo mencionados podrían reducirse en un factor importante. La teoría estadística clásica de recintos presenta justamente este escenario, pero trabajos relativamente recientes de Barron y colaboradores indican la mejor adecuación de ecuaciones empíricas algo más complejas, dentro de la sencillez, las cuales a su vez han sido cuestionadas en parte por otros autores. La importancia de estas ecuaciones ha condicionado que en esta tesis se haya planeado un programa de exploraciones experimentales ambicioso, a la par que lo mas simplificado posible, para obtener distribuciones de campos sonoros en recintos prismáticos de plantas en forma de I, L y U; en donde se exploran trayectorias axiales y diagonales. En paralelo se exploro el tiempo de reverberación y se completo con estudios análogos en recintos acoplados formados a partir del recinto de planta en U, por su utilidad actual en recintos de interés arquitectónico rehabilitados para restaurantes. Por su facilidad operativa la experimentación se planteo en maquetas a escala reducida asegurando el cumplimiento de los requisitos en este tipo de estudios. Los resultados experimentales directos se corrigieron de los efectos alineales derivados de las descargas eléctricas usadas como señales de excitación, tanto en el tiempo de reverberación como en la distribución de niveles. Con este fin se desarrollaron ecuaciones de corrección de ambas magnitudes en función del parámetro de alinealidad en el rango de débil alinealidad. También se aplicaron correcciones del exceso de absorción sonora en el seno del aire a los valores de humedad relativa, temperatura y presión atmosféricas reinantes en el interior de las maquetas durante la experimentación, para las frecuencias transpuestas por el factor de escala, en relación con la escala real. Como resultado se obtuvo un paquete de archivos de datos experimentales correspondientes a condiciones lineales. Se ha mostrado que una generalización de la ecuación de Barron consigue un buen ajuste a los valores experimentales en todos los casos considerados, lo que apoya el gran fundamento de esta ecuación tipo. El conjunto de ecuaciones empíricas que ajusta cada caso particular solamente difiere en el valor de una de las tres constantes del tipo funcional: el factor ligado al término exponencial. Un valor de esta constante cercano al valor medio de la serie de casos estudiados se ha usado en el cálculo de los mapas de inteligibilidad en recintos prismáticos que se comentaran más adelante Los resultados experimentales del nivel sonoro a lo largo de trayectorias axiales y diagonales comparados a los calculados numéricamente con las ecuaciones empíricas presentan disminuciones justamente detrás de las esquinas de los recintos con plantas en forma de L y de U. Las aéreas de estas zonas afónicas son función de la frecuencia de manera bastante coincidente con las encontradas en las barreras de ruido por efecto de la difracción. A distancias superiores los valores experimentales caen de nuevo sobre las curvas empíricas. Se ha estudiado la influencia en los mapas de inteligibilidad del ruido de fondo, de la absorción sonora, de la distribución de las mesas, de la densidad de mesas por unidad de superficie, del porcentaje de ocupación y su distribución espacial así como de la posición de la mesa de señal. El ruido conversacional resulta ser el factor más adverso a la inteligibilidad. Al aumentar la densidad de mesas (ocupadas) la valoración de la inteligibilidad disminuye e inversamente. La influencia negativa de las mesas de ruido conversacional disminuye rápidamente al aumentar la distancia a la mesa de señal: pudiendo afirmarse que las 4 a 8 mesas mas próximas a la de señal, junto con la absorción total del recinto, constituyen los dos factores que condicionan la inteligibilidad influyendo negativamente el primero y positivamente el segundo. Este resultado difiere del ofrecido por la teoría geométrico estadística clásica donde todas las mesas tienen la misma influencia con independencia del sitio que ocupen en el recinto, y también con la teoría derivada de la ecuación de Barron, que ocupa una posición intermedia. Mayor absorción y menor densidad de mesas (ocupadas) mejoran la inteligibilidad en todos los casos pero la absorción no siempre puede neutralizar el efecto adverso de la densidad de mesas de la cual parece existir un valor frontera imposible de neutralizar en la práctica con incrementos de absorción. El grado de inteligibilidad en torno a la mesa de señal es poco sensible a la posición de esta dentro del recinto, resultado que simplifica el enunciado de criterios de calidad acústica de utilidad práctica tanto en diseño como en reglamentaciones de control. La influencia del ruido de fondo estacionario y homogéneo resulta de escasa o nula influencia en la inteligibilidad para niveles de hasta 50-55 dB, si se admite que los niveles normales de conversación se sitúan de 65 a 70 dB. La subdivisión del restaurante en subespacios menores mediante septa de separación parcial media y alta, presenta ventajas ya que dentro de cada subespacio la inteligibilidad no depende más que de las características de este
Resumo:
La capacidad de comunicación de los seres humanos ha crecido gracias a la evolución de dispositivos móviles cada vez más pequeños, manejables, potentes, de mayor autonomía y más asequibles. Esta tendencia muestra que en un futuro próximo cercano cada persona llevaría consigo por lo menos un dispositivo de altas prestaciones. Estos dispositivos tienen incorporados algunas formas de comunicación: red de telefonía, redes inalámbricas, bluetooth, entre otras. Lo que les permite también ser empleados para la configuración de redes móviles Ad Hoc. Las redes móviles Ad Hoc, son redes temporales y autoconfigurables, no necesitan un punto de acceso para que los nodos intercambien información entre sí. Cada nodo realiza las tareas de encaminador cuando sea requerido. Los nodos se pueden mover, cambiando de ubicación a discreción. La autonomía de estos dispositivos depende de las estrategias de como sus recursos son utilizados. De tal forma que los protocolos, algoritmos o modelos deben ser diseñados de forma eficiente para no impactar el rendimiento del dispositivo, siempre buscando un equilibrio entre sobrecarga y usabilidad. Es importante definir una gestión adecuada de estas redes especialmente cuando estén siendo utilizados en escenarios críticos como los de emergencias, desastres naturales, conflictos bélicos. La presente tesis doctoral muestra una solución eficiente para la gestión de redes móviles Ad Hoc. La solución contempla dos componentes principales: la definición de un modelo de gestión para redes móviles de alta disponibilidad y la creación de un protocolo de enrutamiento jerárquico asociado al modelo. El modelo de gestión propuesto, denominado High Availability Management Ad Hoc Network (HAMAN), es definido en una estructura de cuatro niveles, acceso, distribución, inteligencia e infraestructura. Además se describen los componentes de cada nivel: tipos de nodos, protocolos y funcionamiento. Se estudian también las interfaces de comunicación entre cada componente y la relación de estas con los niveles definidos. Como parte del modelo se diseña el protocolo de enrutamiento Ad Hoc, denominado Backup Cluster Head Protocol (BCHP), que utiliza como estrategia de encaminamiento el empleo de cluster y jerarquías. Cada cluster tiene un Jefe de Cluster que concentra la información de enrutamiento y de gestión y la envía al destino cuando esta fuera de su área de cobertura. Para mejorar la disponibilidad de la red el protocolo utiliza un Jefe de Cluster de Respaldo el que asume las funciones del nodo principal del cluster cuando este tiene un problema. El modelo HAMAN es validado a través de un proceso la simulación del protocolo BCHP. El protocolo BCHP se implementa en la herramienta Network Simulator 2 (NS2) para ser simulado, comparado y contrastado con el protocolo de enrutamiento jerárquico Cluster Based Routing Protocol (CBRP) y con el protocolo de enrutamiento Ad Hoc reactivo denominado Ad Hoc On Demand Distance Vector Routing (AODV). Abstract The communication skills of humans has grown thanks to the evolution of mobile devices become smaller, manageable, powerful, more autonomy and more affordable. This trend shows that in the near future each person will carry at least one high-performance device. These high-performance devices have some forms of communication incorporated: telephony network, wireless networks, bluetooth, among others. What can also be used for configuring mobile Ad Hoc networks. Ad Hoc mobile networks, are temporary and self-configuring networks, do not need an access point for exchange information between their nodes. Each node performs the router tasks as required. The nodes can move, change location at will. The autonomy of these devices depends on the strategies of how its resources are used. So that the protocols, algorithms or models should be designed to efficiently without impacting device performance seeking a balance between overhead and usability. It is important to define appropriate management of these networks, especially when being used in critical scenarios such as emergencies, natural disasters, wars. The present research shows an efficient solution for managing mobile ad hoc networks. The solution comprises two main components: the definition of a management model for highly available mobile networks and the creation of a hierarchical routing protocol associated with the model. The proposed management model, called High Availability Management Ad Hoc Network (HAMAN) is defined in a four-level structure: access, distribution, intelligence and infrastructure. The components of each level: types of nodes, protocols, structure of a node are shown and detailed. It also explores the communication interfaces between each component and the relationship of these with the levels defined. The Ad Hoc routing protocol proposed, called Backup Cluster Head Protocol( BCHP), use of cluster and hierarchies like strategies. Each cluster has a cluster head which concentrates the routing information and management and sent to the destination when out of cluster coverage area. To improve the availability of the network protocol uses a Backup Cluster Head who assumes the functions of the node of the cluster when it has a problem. The HAMAN model is validated accross the simulation of their BCHP routing protocol. BCHP protocol has been implemented in the simulation tool Network Simulator 2 (NS2) to be simulated, compared and contrasted with a hierarchical routing protocol Cluster Based Routing Protocol (CBRP) and a routing protocol called Reactive Ad Hoc On Demand Distance Vector Routing (AODV).
Resumo:
El monte “Cabeza de Hierro”, masa natural de pino silvestre, es un ejemplo de gestión forestal sostenible y de uso múltiple, y reúne ciertas particularidades que hacen muy interesante su caso. Monte privado, ha sido objeto de aprovechamientos madereros al menos desde su adquisición por sus actuales propietarios en 1840. Está ordenado desde 1957. La madera obtenida, de gran calidad, es transformada en su mayor parte en un aserradero cercano de los mismos propietarios. Generador de un considerable número de puestos de trabajo, ha tenido gran importancia en la economía local. Además de la producción de madera ha cumplido y cumple muy eficazmente numerosas funciones ecológicas y ambientales, entre las que podemos destacar la regulación del ciclo hidrológico y la protección frente a la erosión, la generación de un paisaje de gran belleza y el mantenimiento de la biodiversidad; en este sentido destacamos la presencia de una colonia nidificante de buitre negro de reconocida importancia mundial. Fue el primer caso de aplicación en España de los métodos de ordenación de tramo móvil y selvícola. En la tercera revisión de su ordenación, recientemente aprobada, se propone su gestión mediante entresaca regularizada, con cortas por bosquetes, con lo que se pretende mantener la actual estructura de masa irregular por cantones. A continuación se resumen las principales características del monte y las principales propuestas de gestión de su tercera revisión.
Resumo:
Muchos de los proyectos de ayuda al desarrollo han fracasado por fallas en su diseño y ejecución, puesto que al no involucrar a los beneficiarios en estas etapas del proyecto, tienen pocas posibilidades de ser sostenibles en el tiempo. La Universidad Politécnica de Madrid (UPM) y La Coordinadora de Mujeres Aymaras (CMA) están desarrollando un proyecto en la región Puno (Perú), en donde aplicando los lineamientos del Aprendizaje social en la planificación y ejecución de proyectos, junto con las competencias de Dirección de Proyectos, plantean la sostenibilidad de proyectos a través de la participación de los beneficiarios, en todas las etapas del proyecto. Identificando nuevos caminos al conjugar conocimientos y experiencias que dan lugar a un conocimiento más cercano a la realidad. Fortaleciendo una institución que comienza como una agrupación, para luego formar una asociación civil, que se transforma en una entidad empresarial que a través del aprendizaje mutuo puede consolidar una organización empresarial que no solo trasciende su rama productiva, sino que se vuelve en un punto de soporte para la recuperación de la actividad turística de la localidad. Articulando el esfuerzo de empresas, instituciones públicas, beneficiarios e instituciones de desarrollo en un modelo de desarrollo territorial incipiente
Resumo:
Los sistemas fotovoltaicos autónomos, es decir, sistemas que carecen de conexión a la red eléctrica, presentan una gran utilidad para poder llevar a cabo la electrificación de lugares remotos donde no hay medios de acceder a la energía eléctrica. El continuo avance en el número de sistemas instalados por todo el mundo y su continua difusión técnica no significa que la implantación de estas instalaciones no presente ninguna problemática. A excepción del panel fotovoltaico que presenta una elevada fiabilidad, el resto de elementos que forman el sistema presentan numerosos problemas y dependencias, por tanto el estudio de las fiabilidades de estos elementos es obligado. En este proyecto se pretende analizar y estudiar detalladamente la fiabilidad de los sistemas fotovoltaicos aislados. Primeramente, el presente documento ofrece una introducción sobre la situación mundial de las energías renovables, así como una explicación detallada de la energía fotovoltaica. Esto incluye una explicación técnica de los diferentes elementos que forman el sistema energético (módulo fotovoltaico, batería, regulador de carga, inversor, cargas, cableado y conectores). Por otro lado, se hará un estudio teórico del concepto de fiabilidad, con sus definiciones y parámetros más importantes. Llegados a este punto, el proyecto aplica la teoría de fiabilidad comentada a los sistemas fotovoltaicos autónomos, profundizando en la fiabilidad de cada elemento del sistema así como evaluando el conjunto. Por último, se muestran datos reales de fiabilidad de programas de electrificación, demostrando la variedad de resultados sujetos a los distintos emplazamientos de las instalaciones y por tanto distintas condiciones de trabajo. Se destaca de esta forma la importancia de la fiabilidad de los sistemas fotovoltaicos autónomos, pues normalmente este tipo de instalaciones se localizan en emplazamientos remotos, sin personal cualificado de mantenimiento cercano ni grandes recursos logísticos y económicos. También se resalta en el trabajo la dependencia de la radiación solar y el perfil de consumo a la hora de dimensionar el sistema. Abstract Stand-alone photovoltaic systems which are not connected to the utility grid. These systems are very useful to carry out the electrification of remote locations where is no easy to access to electricity. The number increased of systems installed worldwide and their continued dissemination technique does not mean that these systems doesn´t fails. With the exception of the photovoltaic panel with a high reliability, the remaining elements of the system can to have some problems and therefore the study of the reliabilities of these elements is required. This project tries to analyze and study the detaila of the reliability of standalone PV systems. On the one hand, this paper provides an overview of the global situation of renewable energy, as well as a detailed explanation of photovoltaics. This includes a technical detail of the different elements of the energy system (PV module, battery, charge controller, inverter, loads, wiring and connectors). In addition, there will be a theoricall study of the concept of reliability, with the most important definitions and key parameters. On the other hand, the project applies the reliability concepts discussed to the stand-alone photovoltaic systems, analyzing the reliability of each element of the system and analyzing the entire system. Finally, this document shows the most important data about reliability of some electrification programs, checking the variety of results subject to different places and different conditions. As a conclussion, the importance of reliability of stand-alone photovoltaic systems because usually these are located in remote locations, without qualified maintenance and financial resources.These systems operate under dependence of solar radiation and the consumption profile.
Resumo:
One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.
Resumo:
El fútbol es un deporte en cuya práctica existe una alta incidencia de lesión. Además, en el ámbito profesional las lesiones suponen un duro proceso de recuperación para el futbolista, una reducción del rendimiento deportivo para éste y para el equipo, y unos grandes costes económicos para el club. Dentro de esta problemática, la bibliografía consultada concluye que en las pretemporadas se produce una mayor incidencia de lesión por sobrecarga, es decir, sin contacto; un tipo de lesiones que está a nuestro alcance poder prevenir. Por ello, consideramos importante el conocer y desarrollar métodos, herramientas y principios para obtener programas preventivos efectivos, que reduzcan las elevadas cifras de incidencia de lesión mostradas por la literatura. El presente estudio observa y registra las lesiones, a través del cuestionario F-MARC, de un equipo profesional de fútbol de la Liga Española durante las pretemporadas 2008 (n=24) y 2009 (n=24). Además, durante la pretemporada 2009 se aplicó la termografía infrarroja para adquirir información sobre la asimilación de la carga de entrenamiento por parte de los jugadores, y dicha información se utilizarón para mejorar las tomas de decisiones de protocolos post-ejercicio específicos en prevención de lesiones, los cuales fueron los mismos que se utilizaron previamente en la pretemporada 2008. El estudio tiene un diseño con características pre-post sin grupo de control. Es un estudio longitudinal donde, tras un registro inicial de lesiones en la pretemporada 2008, los sujetos fueron expuestos a la variable independiente, utilización de la termografía infrarroja, en el protocolo de prevención de lesiones durante la pretemporada 2009. Los resultados de este trabajo muestran una reducción significativa de hasta el 60% en la frecuencia de lesión durante la pretemporada 2009, y un descenso de la incidencia de lesión total que pasa de 8,3 lesiones por cada 1000 horas de exposición en 2008 a 3,4 en 2009. Con ello, la probabilidad de lesión se redujo considerablemente pasando de un 85% de los jugadores lesionados en 2008 a un 26% en 2009; además, las lesiones de carácter muscular descendieron en 2009 un 70% con respecto al 2008, y los días de baja que causaron todas las lesiones pasó a reducirse un 91,8% en la pretemporada 2009. Por otro lado, el perfil térmico de los jugadores en función de su lateralidad y dominancia, guarda una gran similitud en sus temperaturas, tanto medias como máximas, con temperaturas más elevadas en la zona corporal lumbar y poplítea, y con temperaturas más bajas en tobillos y rodillas. Todas las zonas corporales estudiadas, exceptuando el tobillo (p<0,05), no presentan diferencias significativas entre ambos hemicuerpos, estableciendo un promedio de diferencia entre ambos lados de 0,06±0,16 ºC. Teniendo en cuenta estos resultados, consideramos el límite superior de normalidad de asimetría térmica bilateral en 0,3ºC para todas las zonas corporales estudiadas del miembro inferior exceptuando los tobillos. El parámetro ambiental que más relación tiene con la temperatura registrada por la cámara termográfica es la temperatura de la sala con un coeficiente de correlación cercano a r=1,00, seguido de la presión atmosférica con un coeficiente de correlación cercano r=0,50, y, por último, la humedad que no guarda ningún tipo de relación con la temperatura registrada en cada zona corporal en el rango de valores considerados en el estudio. Por otro lado, los resultados del ANOVA de un factor nos indican que existen diferencias de medias entre los tres grupos formados de temperatura ambiente de sala (1º=18º-21ºC, 2º=22º-24ºC y 3º=25º-31ºC). Además, los resultados de la prueba HSD de Tukey nos indican que existen diferencias entre cada uno de los grupos en todas las zonas corporales estudiadas exceptuando los tobillos. Por último, se propone la ecuación; TC-estándar = TC-real – [0,184 * (TS – 21ºC)] para predecir la influencia de la temperatura ambiente sobre la temperatura registrada por la cámara termográfica. Para concluir, tras los resultados obtenidos, podemos afirmar que la aplicación de un protocolo post-ejercicio de prevención de lesiones basado en la información adquirida a través de valoraciones con termografía infrarroja reduce la incidencia de lesión en el grupo de futbolistas profesionales estudiado. Tenemos que ser conscientes que nos encontramos ante un estudio de campo, donde existen muchos factores que han podido influenciar en los resultados y que son difíciles de controlar. Por lo tanto, debemos ser cautos y concluir que la información adquirida de las evaluaciones termográficas ha sido uno de los aspectos que ayudó a la reducción significativa de la incidencia de lesión en la pretemporada 2009 en el equipo de fútbol profesional español de este estudio, pero que seguramente hayan podido existir otros factores que también hayan favorecido este hecho. ABSTRACT Soccer is a sport with a high incidence of injury. Moreover, in professional soccer injuries lead to a tough recovery process for the players, a reduction athletic performance for them and for their teams, and large economic costs for the club. In this issue, the literature concludes that in the preseason a greater incidence of overuse injury occurs (ie, without contact), and this is a type of injury that we can prevent. Therefore, we consider that it is important to know and develop methods, tools and principles to obtain effective preventive programs that reduce the high injury incidence figures shown in the literature. This study observed and recorded injuries, through the questionnaire F-MARC, from a professional soccer team in the Spanish league during the preseason 2008 (n = 24) and 2009 (n = 24). Moreover, during the 2009 preseason infrared thermography was applied to acquire information about the assimilation of the training load by the players, and this information was used to improve the decision making in the specific post-exercise injury prevention protocols, which were the same used in the previous season 2008. The study had a pre-post design without control group. Is a longitudinal study where, after an initial registration of injuries in the 2008 preseason, subjects were exposed to the independent variable, using infrared thermography, included in the protocol for injury prevention during the 2009 preseason. The results of this study show a significant reduction of up to 60% in the frequency of injury during the 2009 preseason, and a decrease in total injury incidence passing from 8.3 injuries per 1000 hours of exposure in 2008 to 3.4 in 2008. With this, the likelihood of injury decreased significantly from 85% of the players injuried in 2008 to 26% in 2009, also muscle injuries in 2009 fell 70% compared to 2008, and sick leave days that caused by all the injuries happened were reduced a 91.8% in the 2009 preseason. On the other hand, the thermal profile of the players according to their laterality and dominance, is quiet similar in their temperatures, both average and maximum values, with an estimated average of the highest temperatures in the lower back and popliteal areas in the back areas, and lower temperatures in the ankles and knees. All body areas studied, except for the ankle (p <0.05), had no significant differences between both sides of the body, establishing an average difference between both sides of 0.06 ± 0.16 °C. Given these results, we consider the upper limit of normal bilateral thermal asymmetry 0.3 °C for all body areas studied in the lower limb except for ankles. The environmental parameter higher related with temperature recorded by the camera is the temperature of the room with a correlation coefficient close to r = 1.00, followed by atmospheric pressure with a correlation coefficient near r = 0.50, and finally, the humidity that, in the range of values considered in the study, it is not related with temperature in each body area. On the other hand, the results of one-way ANOVA indicate that there are differences between the three temperature of the room groups (1 ° = 18-21 °C, 2 º = 22-24 ºC and 3 º = 25-31 ºC). Moreover, the results of the Tukey HSD test indicate that there are differences between each of the groups for all body areas studied except the ankles. Finally, we propose the equation TC-standard = TC-real – [0,184 * (TS – 21ºC)] to predict the influence of temperature on the temperature recorded by the thermographic camera. In conclusion, we can say from our results that the implementation of a post-exercise injury prevention protocol based on information from assessments with infrared thermography reduces the incidence of injury in professional soccer players. We must be aware that we are facing a field study, where there are many factors that could influence the results and they are difficult to control. Therefore, we must be cautious and conclude that the information acquired from the thermographic evaluation has been one of the aspects that helped to significantly reduce the incidence of injury in the preseason 2009 in the Spanish professional football team, but probably they could exist other factors with a positive effect on the reduction of the injury rates.
Resumo:
La mayor parte de los entornos diseñados por el hombre presentan características geométricas específicas. En ellos es frecuente encontrar formas poligonales, rectangulares, circulares . . . con una serie de relaciones típicas entre distintos elementos del entorno. Introducir este tipo de conocimiento en el proceso de construcción de mapas de un robot móvil puede mejorar notablemente la calidad y la precisión de los mapas resultantes. También puede hacerlos más útiles de cara a un razonamiento de más alto nivel. Cuando la construcción de mapas se formula en un marco probabilístico Bayesiano, una especificación completa del problema requiere considerar cierta información a priori sobre el tipo de entorno. El conocimiento previo puede aplicarse de varias maneras, en esta tesis se presentan dos marcos diferentes: uno basado en el uso de primitivas geométricas y otro que emplea un método de representación cercano al espacio de las medidas brutas. Un enfoque basado en características geométricas supone implícitamente imponer un cierto modelo a priori para el entorno. En este sentido, el desarrollo de una solución al problema SLAM mediante la optimización de un grafo de características geométricas constituye un primer paso hacia nuevos métodos de construcción de mapas en entornos estructurados. En el primero de los dos marcos propuestos, el sistema deduce la información a priori a aplicar en cada caso en base a una extensa colección de posibles modelos geométricos genéricos, siguiendo un método de Maximización de la Esperanza para hallar la estructura y el mapa más probables. La representación de la estructura del entorno se basa en un enfoque jerárquico, con diferentes niveles de abstracción para los distintos elementos geométricos que puedan describirlo. Se llevaron a cabo diversos experimentos para mostrar la versatilidad y el buen funcionamiento del método propuesto. En el segundo marco, el usuario puede definir diferentes modelos de estructura para el entorno mediante grupos de restricciones y energías locales entre puntos vecinos de un conjunto de datos del mismo. El grupo de restricciones que se aplica a cada grupo de puntos depende de la topología, que es inferida por el propio sistema. De este modo, se pueden incorporar nuevos modelos genéricos de estructura para el entorno con gran flexibilidad y facilidad. Se realizaron distintos experimentos para demostrar la flexibilidad y los buenos resultados del enfoque propuesto. Abstract Most human designed environments present specific geometrical characteristics. In them, it is easy to find polygonal, rectangular and circular shapes, with a series of typical relations between different elements of the environment. Introducing this kind of knowledge in the mapping process of mobile robots can notably improve the quality and accuracy of the resulting maps. It can also make them more suitable for higher level reasoning applications. When mapping is formulated in a Bayesian probabilistic framework, a complete specification of the problem requires considering a prior for the environment. The prior over the structure of the environment can be applied in several ways; this dissertation presents two different frameworks, one using a feature based approach and another one employing a dense representation close to the measurements space. A feature based approach implicitly imposes a prior for the environment. In this sense, feature based graph SLAM was a first step towards a new mapping solution for structured scenarios. In the first framework, the prior is inferred by the system from a wide collection of feature based priors, following an Expectation-Maximization approach to obtain the most probable structure and the most probable map. The representation of the structure of the environment is based on a hierarchical model with different levels of abstraction for the geometrical elements describing it. Various experiments were conducted to show the versatility and the good performance of the proposed method. In the second framework, different priors can be defined by the user as sets of local constraints and energies for consecutive points in a range scan from a given environment. The set of constraints applied to each group of points depends on the topology, which is inferred by the system. This way, flexible and generic priors can be incorporated very easily. Several tests were carried out to demonstrate the flexibility and the good results of the proposed approach.
Resumo:
En este trabajo se presenta un método para el modelado de cadenas cinemáticas de robots que salva las dificultades asociadas a la elección de los sistemas de coordenadas y obtención de los parámetros de Denavit-Hartenberg. El método propuesto parte del conocimiento de la posición y orientación del extremo del robot en su configuración de reposo, para ir obteniendo en qué se transforman éstas tras los sucesivos movimientos de sus grados de libertad en secuencia descendente, desde el más alejado al más cercano a su base. Los movimientos son calculados en base a las Matrices de Desplazamiento, que permiten conocer en que se transforma un punto cuando éste es desplazado (trasladado o rotado) con respecto a un eje que no pasa por el origen. A diferencia del método de Denavit-Hartenberg, que precisa ubicar para cada eslabón el origen y las direcciones de los vectores directores de los sistemas de referencia asociados, el método basado en las Matrices de Desplazamiento precisa solo identificar el eje de cada articulación, lo que le hace más simple e intuitivo que aquel. La obtención de las Matrices de Desplazamiento y con ellas del Modelo Cinemático Directo a partir de los ejes de la articulación, puede hacerse mediante algunas simples operaciones, fácilmente programables.
Resumo:
El ruido del tráfico rodado supone aproximadamente la mitad del ruido global ambiental. Las técnicas de control de ruido habitual en emisión (límites de emisión de vehículos) e inmisión (barreras acústicas, doble acristalamiento) no han sido suficientes para disminuir significativamente las molestias por el tráfico rodado en las últimas tres décadas. El efecto positivo de estas técnicas de control ha sido contrarrestado por el aumento de la densidad del tráfico. Por otra parte, la molestia del ruido del tráfico está altamente correlacionada con los niveles máximos de ruido (MNL), producidos por lo general por conductores agresivos. Sin embargo, los sistemas actuales de medición de ruido de tráfico se basan en una valoración global, por lo que no son capaces de discriminar entre los conductores silenciosos y ruidosos. Por lo tanto, en esta tesis se propone un sistema de medida de ruido en el campo cercano, que es capaz de medir la contribución de cada vehículo individual al ruido del tráfico rodado, permitiendo la detección de los conductores ruidosos. Este trabajo describe también una combinación de investigaciones analíticas y experimentales para la identificación de los conductores responsables de la generación de niveles máximos de ruido. El sistema se basa en dos micrófonos embarcados, uno para el ruido del motor y otro para el ruido de rodadura. Con el fin de relacionar estas mediciones de campo cercano con el ruido de los vehículos radiado al campo lejano, se desarrolla un procedimiento completo para la extrapolación del ruido medido por los micrófonos de campo próximo a las posiciones de campo lejano, usando una combinación de predicción analítica y mediciones experimentales. Las correcciones para los niveles extrapolados se deben a factores atmosféricos, al término de divergencia esférica y a las condiciones de absorción de la superficie de propagación. Para el micrófono situado próximo al motor, es necesario también caracterizar las propiedades acústicas del capó del motor. Ambos niveles de ruido se extrapolan de forma independiente a la posición de campo lejano, donde se realiza una comparación entre la predicción y mediciones para confirmar que la metodología es fiable para estimar el impacto a distancia del ruido de tráfico
Resumo:
Durante las últimas décadas se observa una tendencia sostenida al crecimiento en las dimensiones de los grandes buques portacontenedores, que produce, que las infraestructuras portuarias y otras destinadas al tráfico de contenedores deban adaptarse para poder brindar los servicios correspondientes y mantenerse competitivas con otras para no perder el mercado. Esta situación implica importantes inversiones y modificaciones en los sistemas de transporte de contenedores por el gran volumen de carga que se debe mover en un corto periodo de tiempo, lo que genera la necesidad de tomar previsiones relacionadas con la probable evolución a futuro de las dimensiones que alcanzarán los grandes buques portacontenedores. En relación a los aspectos citados surge la inquietud de determinar los condicionantes futuros del crecimiento de los grandes buques portacontenedores, con una visión totalizadora de todos los factores que incidirán en los próximos años, ya sea como un freno o un impulso a la tendencia que se verifica en el pasado y en el presente. En consideración a que el tema a tratar y resolver se encuentra en el futuro, con un horizonte de predicción de veinte años, se diseña y se aplica una metodología prospectiva, que permite alcanzar conclusiones con mayor grado de objetividad sobre probables escenarios futuros. La metodología prospectiva diseñada, conjuga distintas herramientas metodológicas, cualitativas, semi-cuantitativas y cuantitativas que se validan entre sí. Sobre la base del pasado y el presente, las herramientas cuantitativas permiten encontrar relaciones entre variables y hacer proyecciones, sin embargo, estas metodologías pierden validez más allá de los tres a cuatro años, por los vertiginosos y dinámicos cambios que se producen actualmente, en las áreas política, social y económica. Las metodologías semi-cuantitativas y cualitativas, empleadas en forma conjunta e integradas, permiten el análisis de circunstancias del pasado y del presente, obteniendo resultados cuantitativos que se pueden proyectar hacia un futuro cercano, los que integrados en estudios cualitativos proporcionan resultados a largo plazo, facilitando considerar variables cualitativas como la creciente preocupación por la preservación del medio ambiente y la piratería. La presente tesis, tiene como objetivo principal “identificar los condicionantes futuros del crecimiento de los grandes buques portacontenedores y determinar sus escenarios”. Para lo cual, la misma se estructura en fases consecutivas y que se retroalimentan continuamente. Las tres primeras fases son un enfoque sobre el pasado y el presente, que establece el problema a resolver. Se estudian los antecedentes y el estado del conocimiento en relación a los factores y circunstancias que motivaron y facilitaron la tendencia al crecimiento de los grandes buques. También se estudia el estado del conocimiento de las metodologías para predecir el futuro y se diseña de una metodología prospectiva. La cuarta fase, denominada Resultados, se desarrolla en distintas etapas, fundamentadas en las fases anteriores, con el fin de resolver el problema dando respuestas a las preguntas que se formularon para alcanzar el objetivo fijado. En el proceso de esta fase, con el objeto de predecir probables futuros, se aplica la metodología prospectiva diseñada, que contempla el análisis del pasado y el presente, que determina los factores cuya influencia provocó el crecimiento en dimensiones de los grandes buques hasta la actualidad, y que constituye la base para emplear los métodos prospectivos que permiten determinar qué factores condicionarán en el futuro la evolución de los grandes buques. El probable escenario futuro formado por los factores determinados por el criterio experto, es validado mediante un modelo cuantitativo dinámico, que además de obtener el probable escenario futuro basado en las tendencias de comportamiento hasta el presente de los factores determinantes considerados, permite estudiar distintos probables escenarios futuros en función de considerar un cambio en la tendencia futura de los factores determinantes. El análisis del pasado indica que la tendencia al crecimiento de los grandes buques portacontenedores hasta el presente, se ha motivado por un crecimiento económico mundial que se tradujo en un aumento del comercio internacional, particularmente entre los países de Asia, con Europa y Estados Unidos. Esta tendencia se ha visto favorecida por el factor globalización y la acelerada evolución tecnológica que ha permitido superar los obstáculos que se presentaron. Es de destacar que aún en periodos de crisis económicas, con pronósticos de contracciones en el comercio, en los últimos años continuó la tendencia al crecimiento en dimensiones, en busca de una economía de escala para el transporte marítimo de contenedores, en las rutas transoceánicas. La investigación de la evolución de los grandes buques portacontenedores en el futuro, se efectúa mediante el empleo de una metodología prospectiva en la que el criterio experto se valida con un método cuantitativo dinámico, y además se fundamenta en una solida base pre-prospectiva. La metodología diseñada permite evaluar con un alto grado de objetividad cuales serán los condicionantes que incidirán en el crecimiento en tamaño de los grandes buques portacontenedores en el escenario con mayor probabilidad de acontecer en los próximos veinte años (2032), y también en otros escenarios que podrían presentarse en el caso de que los factores modifiquen su tendencia o bien se produzcan hechos aleatorios. El resultado se sintetiza en que la tendencia al crecimiento de los grandes buques portacontenedores en los próximos 20 años se verá condicionada por factores en relación a los conceptos de oferta (los que facilitan u obstaculizan la tendencia), demanda (los que motivan o impulsan la tendencia) y factores externos (los que desestabilizan el equilibrio entre oferta y demanda). La tendencia al crecimiento de los grandes buques portacontenedores se verá obstaculizada / limitada principalmente por factores relacionados a las infraestructuras, resultando los pasos y/o canales vinculados a las rutas marítimas, los limitantes futuros al crecimiento en dimensiones de los grandes buques portacontenedores; y la interacción buque / infraestructura (grúas) un factor que tenderá a obstaculizar esta tendencia de los grandes portacontenedores. El desarrollo económico mundial que estimula el comercio internacional y los factores precio del petróleo y condicionantes medioambientales impulsarán la tendencia al crecimiento de los grandes buques portacontenedores. Recent years have seen a sustained tendency towards the growth in the dimensions of large container ships. This has meant that port and other infrastructure used for container traffic has had to be adapted in order to provide the required services and to maintain a competitive position, so as not to lose market share. This situation implies the need for major investments in modifications to the container transport system, on account of the large volume of traffic to be handled in a short period of time. This in turn has generated a need to make provision for the probable future evolution of the ultimate dimensions that will be reached by large container ships. Such considerations give rise to the question of what are the future determinants for the growth of large container ships, requiring an overall vision of all the factors that will apply in future years, whether as a brake on or an incentive to the growth tendency which has been seen in the past and present In view of the fact that the theme to be dealt with and resolved relates to the future, with a forecasting horizon of some 20 years, a foresight methodology has been designed and applied so as to enable conclusions about probable future scenarios to be reached with a greater degree of objectivity. The designed methodology contains different methodological tools, both qualitative, semi-quantitative and quantitative, which are internally consistent. On the basis of past and present observations, the quantitative elements enable relationships to be established and forecasts to be made. Nevertheless such an approach loses validity more than three or four years into the future, on account of the very rapid and dynamic changes which may be seen at present in political, social and economic spheres. The semi-quantitative and qualitative methodologies are used coherently together and allow the analysis of past and present conditions, thus obtaining quantitative results which for short-term projections, which when integrated with the qualitative studies provide results for the long-term, facilitating the consideration of qualitative variables such as the increasing importance of environmental protection and the impact of piracy. The principal objective of the present thesis is "to identify the future conditions affecting the growth of large container ships and to determine possible scenarios". The thesis is structured in consecutive and related phases. The first three phases focus on the past and present in order to determine the problem to be resolved. The background is studied in order to establish the state of knowledge about the factors and circumstances which have motivated and facilitated the growth tendency for large container ships and the methodologies that have been used. In this way a specific foresight methodology is designed. The fourth phase, Results, is developed in distinct stages based on the previous phases, so as to resolve the problem posed and responding to the questions that arise. In this way the determined objective is reached. The fourth phase sees the application of the methodology that has been designed in order to predict posible futures. This includes analysis of the past and present factors which have caused the growth in the dimensions of large container ships up to the present. These provide the basis on which to apply the foresight methods which enable the future factors which will condition the development of such large container ships. The probable future scenarios are made up of the factors identified by expert judgement (using the Delphi technique) and validated by means of a dynamic quantitative model. This model both identifies the probable future scenarios based on past and present factors and enables the different future scenarios to be analysed as a function of future changes in the conditioning factors. Analysis of the past shows that the growth tendency up to the present for large container ships has been motivated by the growth of the world economy and the consequent increased international trade, especially between the countries of Asia with Europe and the United States. This tendency has been favoured by the trend towards globalization and by the rapid technical evolution in ship design, which has allowed the obstacles encountered to be overcome. It should be noted that even in periods of economic crisis, with an expectation for reduced trade, as experienced in recent years, the tendency towards increased ship dimensions has continued in search of economies of scale for the maritime transport of containers on transoceanic routes. The present investigation of the future evolution of large container ships has been done using a foresight methodology in which the expert judgement is validated by a dynamic quantitative methodology, founded on a firm pre-foresight analysis. The methodology that has been designed permits the evaluation, with a high degree of objectivity, of the future factors that will affect the growth of large container ships for the most probable scenario expected in the next 20 years (up to 2032). The evaluation applies also to other scenarios which may arise, in the event that their component factors are modified or indeed in the light of random events. In summary, the conclusión is that the tendency for growth in large container ships in the future 20 years will be determined by: factors related to supply, which slow or halt the tendency; factors related to demand, which encourage the tendency and finally, external factors which interrupt the equilibrium between supply and demand. The tendency for increasing growth in large container ships will be limited or even halted by factors related to infrastructure, including the natural and man-made straits and canals used by maritime transport. In addition the infrastructure required to serve such vessels both in port (including cranes and other equipment) and related transport, will tend to slow the growth tendency. The factors which will continue to encourage the tendency towards the growth of large container ships include world economic development, which stimulates international trade, and an increasing emphasis on environmental aspects.