875 resultados para subject positions


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Civil buildings are not specifically designed to support blast loads, but it is important to take into account these potential scenarios because of their catastrophic effects, on persons and structures. A practical way to consider explosions on reinforced concrete structures is necessary. With this objective we propose a methodology to evaluate blast loads on large concrete buildings, using LS-DYNA code for calculation, with Lagrangian finite elements and explicit time integration. The methodology has three steps. First, individual structural elements of the building like columns and slabs are studied, using continuum 3D elements models subjected to blast loads. In these models reinforced concrete is represented with high precision, using advanced material models such as CSCM_CONCRETE model, and segregated rebars constrained within the continuum mesh. Regrettably this approach cannot be used for large structures because of its excessive computational cost. Second, models based on structural elements are developed, using shells and beam elements. In these models concrete is represented using CONCRETE_EC2 model and segregated rebars with offset formulation, being calibrated with continuum elements models from step one to obtain the same structural response: displacement, velocity, acceleration, damage and erosion. Third, models basedon structural elements are used to develop large models of complete buildings. They are used to study the global response of buildings subjected to blast loads and progressive collapse. This article carries out different techniques needed to calibrate properly the models based on structural elements, using shells and beam elements, in order to provide results of sufficient accuracy that can be used with moderate computational cost.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente investigación tiene como objetivo el desarrollo de una metodología que favorezca la innovación en las empresas a través de la actividad directiva, analizando a su vez, su influencia a nivel macro, en los sistemas de innovación, en las políticas de innovación y en el capital intelectual y a nivel micro, en la innovación, en el desempeño y en el clima organizacional. Se estima importante realizar un estudio sobre este tema debido a que la innovación se considera un pilar crítico para el desarrollo social a través de la competitividad de las empresas, así como, una fuente importante de ventaja competitiva. Existe abundante literatura sobre la influencia de la innovación en la gestión empresarial y el papel que el liderazgo desempeña en términos generales. Sin embargo, la literatura presenta diversos estilos de liderazgo sin mostrar una línea consistente de interrelación entre ellos, por lo que finalmente no existe una relación sólida entre el liderazgo, la gestión empresarial y la innovación. Este hecho se debe, como se muestra en la tesis, a que la literatura analiza las organizaciones y el liderazgo desde una perspectiva sociológica u organizacional, y otra desde la perspectiva psicológica sin aportar una línea de articulación entre ambas. Es decir, la literatura analiza el comportamiento organizacional pero no su causa. A lo largo de la tesis se van desarrollando diferentes líneas de trabajo que se convierten en aportaciones empíricas y académicas. Así, una de las aportaciones de la tesis es la sustitución de la figura del líder como persona, por la de un directivo con una doble función; por un lado, la función de liderazgo cuyo objetivo es generar cambio y por el otro, la función de gestionar el día a día o desempeño. Sustituir la figura del líder por una doble funcionalidad directiva facilita la comprensión del concepto liderazgo, lo que permite a su vez, establecer estrategias para su desarrollo, haciendo una realidad el que el liderazgo puede ser aprendido. Este resultado constituye la primera aportación de la tesis. Así mismo, a través de un exhaustivo análisis de la literatura, se desarrolla una propuesta de liderazgo integrado de acuerdo con el modelo Stuart-Kotze, el cual se describe también ampliamente. Encontrar un modelo único de liderazgo supone la piedra angular para el desarrollo de la metodología. Esta propuesta de liderazgo integrado da lugar a la segunda aportación de la tesis. Del mismo modo, se realiza un estudio en profundidad de la perspectiva psicológica de las organizaciones desarrollando el constructo Miedo al Error (ME) que resulta ser un rasgo de la personalidad existente en todos los seres humanos y que presenta una influencia negativa tanto en el desempeño, como en la innovación empresarial. Este resultado permite identificar cuales son las verdaderas barreras para el ejercicio del liderazgo, señalando que la disminución del ME debe ser considerada como una competencia de la Inteligencia Emocional a ser desarrollada por los directivos. Este resultado constituye la tercera aportación de la tesis. Una vez desarrollado el modelo de gestión empresarial expuesto, se procede a su validación, analizando la relación entre los constructos que definen el modelo de gestión: el desempeño, la innovación y el ME. Para identificar las influencias o relaciones de causalidad que subyacen entre los constructos, se utilizó la técnica del modelo de ecuaciones estructurales (SEM). La población objeto de estudio estuvo constituida por 350 profesionales con responsabilidad directiva, procedentes de empresas del sector servicios repartidas por toda la geografía española. Como fuente primaria de recolección de información se utilizó el cuestionario desarrollado por Stuart-Kotze M-CPI (Momentum Continuous Performance Improvement). En primer lugar se procedió a evaluar las propiedades psicométricas del modelo de medida, llevándose a cabo un análisis factorial exploratorio (AFE) y un análisis factorial confirmatorio (AFC) de segundo orden. Los resultados obtenidos ponen de manifiesto que el constructo desempeño (D) viene determinado por dos dimensiones, (DOP), desempeño orientado hacia la planificación y (DORT), desempeño orientado hacia la realización de la tarea. Es decir, la muestra de directivos no percibe que la planificación en el día a día y la realización de la tarea estén articuladas. Posteriormente se procede a realizar el contraste del modelo a través del método de ecuaciones estructurales. Los resultados muestran que la relación de influencia de la dimensión DOP no es significativa, por lo que el constructo D queda representado únicamente por la dimensión DORT. Los resultados de la investigación proporcionan conclusiones e hipótesis para futuras investigaciones. Si bien la muestra de directivos realiza un plan estratégico, éste no se tiene en cuenta en el día a día. Este hecho podría explicar el alto grado de administración por crisis tan frecuente en la empresa española. A su vez, el ME presenta una influencia negativa en la innovación, lo que concuerda con la literatura. Al respecto, considerar el ME como un rasgo de la personalidad, presente tanto en directivos como en colaboradores, facilita la comprensión de las barreras de la organización hacia la comunicación abierta a la vez, que una dirección de trabajo para la mejora de la capacidad innovadora de la organización. Por último, los resultados establecen la existencia de una relación causal entre el desempeño diario y la innovación. Con respecto a este segundo resultado y analizando los comportamientos que identifican el constructo D surgen también varias conclusiones e hipótesis para futuras investigaciones. Los resultados ponen de manifiesto que la muestra de directivos genera iniciativas de cambio con la finalidad de que el trabajo diario salga adelante según los estándares de calidad definidos. Sin embargo, estas iniciativas sólo proceden de los directivos, sin participación alguna de los colaboradores, los cuales son sólo responsables de la implementación produciéndose la consiguiente desmotivación y pérdida de oportunidades. Esta conclusión pone de manifiesto que la innovación de las empresas de la muestra sucede para garantizar la eficiencia de los procesos existentes, pero en ningún caso surge de la iniciativa de buscar una mejor eficacia empresarial. Este hecho plantea un origen doble de la innovación en los procesos. La innovación proactiva que buscaría la mejora de la eficacia de la organización y una innovación de carácter reactiva que buscaría la salvaguarda de la eficiencia. Quizás sea esta la causa del gap existente entre la innovación en España y la innovación de los países que ocupan los primeros puestos en el ranking de producción de innovación lo que constituye un importante punto de partida para una investigación futura. ABSTRACT This research aims to develop a methodology that supports innovation in companies through the managers’ activity, analysing in turn its influence at the macro level: innovation systems, innovation policies and Intellectual capital and at the micro level: innovation itself, performance and organizational climate. It is considered important to conduct a study on this subject due to the fact that innovation is considered a critical pillar for the development and future of the enterprise and an important source of competitive advantage. There is abundant literature about the influence of innovation in business management and the role that leadership plays in general terms. However, the literature presents various styles of leadership without showing a consistent relationship among them, so finally there is not a strong relationship among leadership, business management and innovation. As shown in the thesis, this is due to the fact that the literature analyses organizations and leadership from a sociological or organizational perspective and from a psychological perspective, without providing a hinge line between the two. That is, the existing literature discusses organizational behaviour but not its cause. Throughout the thesis, different lines of work that become empirical and academic contributions have been developed. Thus, one of the contributions of the thesis is replacing the figure of the leader as a person, by a manager with a dual function. Firstly, we have the leadership role which aims to generate change and, on the other hand, the function to manage the day-to-day task or performance. Replacing the figure of the leader by a dual managerial functionality facilitates the understanding of the leadership concept, allowing in turn, to establish development strategies and making true that leadership can be learned. This outcome is the first contribution of the thesis. Likewise, through a comprehensive literature review, an integrated leadership proposal is developed, according to the Kotze model, which is also described widely. Finding a specific leadership model represents the cornerstone for the development of the methodology. This integrated leadership proposal leads to the second contribution of the thesis. Similarly, an in-depth study was conducted about the psychological perspective of the organizations disclosing the construct Fear of Failure. This construct is a personality trait that exists in all human beings and has a negative influence on both performance and business innovation. This outcome allows identifying which are the real barriers to the exercise of leadership, noting that the decrease in fear of failure must be considered as an Emotional Intelligence competence to be developed by managers. This outcome represents the third contribution of the thesis. Once a business management model has been developed, we proceed to its validation by analysing the relationship among the model constructs: management, innovation and fear of failure. To identify the influence or causal relationships underlying the constructs, a structural equation model (SEM) technique was used. The study population consisted of 350 professionals with managerial responsibility, from companies in the services sector scattered throughout the Spanish geography. As a primary source for gathering information a questionnaire developed by Kotze M-CPI (Continuous Performance Improvement Momentum) was used. First we proceeded to evaluate the psychometric properties of the measurement model, carrying out an exploratory factorial analysis (EFA) and a confirmatory factorial analysis (CFA) of second order. The results show that the performance construct D is determined by two-dimensions (DOP: performance oriented to planning) and (DORT: aiming at the realization of the task). That is, the sample of managers does not perceive that planning and the daily task are articulated. Then, we proceeded to make the contrast of the model through a structural equation model SEM. The results show that the influence of the DOP dimension is not significant, so that only the DORT dimension finally represents the construct D. The research outcomes provide conclusions and hypotheses for future research. Although the managers in the sample develop a strategic plan, it seems that managers do not take it into account in their daily tasks. This could explain the high degree of crisis management so prevalent in the Spanish companies. In turn, the fear of failure has a negative influence on innovation, consistent with the literature. In this regard, the fear of failure is considered as a personality trait, present in both managers and employees, which enables the understanding of organizational barriers to open communication and provides a direction to improve the organization’s innovative capacity as well. Finally, the results establish a causal relationship between daily performance and innovation. Regarding this second outcome and analysing the behaviours that identify the construct D, several conclusions and hypotheses for future research arise as well. The results show that the managers in the sample show initiatives of change in order to make everyday work go ahead, according to defined quality standards. However, these initiatives only come from managers without any participation of coworkers, which are only responsible for the implementation, and this produces discouragement and loss of opportunities. This finding shows that the innovation by the companies in the sample happens to guarantee the efficiency of existing processes, but do not arise from an initiative that seeks better business efficacy. This raises two sources of innovation in processes. The first source would be a proactive innovation that would seek improved organizational efficacy. The second one is a reactive innovation that would seek to safeguard efficiency. Perhaps this is the cause of the existing gap between the innovation activity in Spain and the innovation activity in those countries that occupy the top positions in the ranking of innovation outcomes. The Spanish companies seek process efficiency and the top innovators business efficacy. This is an important starting point for future research.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper the influence of an axial microgravity on the minimum volume stability limit of axisymmetric liquid bridges between unequal disks is analyzed both theoretically and experimentally. The results here presented extend the knowledge of the static behaviour of liquid bridges to fluid configurations different from those studied up to now (almost equal disks). Experimental results, obtained by simulating microgravity conditions by the neutral buoyancy technique, are also presented and are shown to be in complete agreement with theoretical ones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Esta tesis doctoral pretende analizar el rendimiento en fútbol desde un punto de vista físico de los jugadores de un equipo de excelencia (EE). Se entiende como EE a un equipo que presenta un prolongado bagaje de éxitos nacionales e internacionales a lo largo de varios años. MÉTODO: Se utilizó el sistema de registro (AMISCO) de la actividad del jugador de fútbol en competición (distancia total recorrida, distancias a distintas velocidades, y número de sprints) analizando a lo largo de seis temporadas continuada la actividad de jugadores de élite (N=2082), siendo 1051 pertenecientes al EE y 1031 a jugadores de los equipos rivales (ER). RSULTADO: El perfil de actividad (distancia total, distancia en distintas velocidades y nº de sprints) de los jugadores del EE muestran valores inferiores al de los jugadores de los ER. De igual forma ocurre en cada una de las partes del partido, el puesto específico de juego de los jugadores en las distintas temporadas analizadas y en los distintos meses de la temporada. El EE registra una mayor actividad (distancia total recorrida en el partido, distancia recorrida en velocidades altas V>17 km/h y nº de Sprints) cuando juega de local a cuando lo hace como visitante. Asimismo EE muestra demandas superiores de exigencia física en la competición europea (Champions League) frente a la Liga en la distancia total recorrida en el partido y a velocidades bajas (V<17 km/h), mientras que apenas muestra diferencias en los indicadores de exigencia física cuando se enfrenta a los equipos rivales de distinto nivel de rendimiento, exceptuando en la distancia recorrida andando (V=01-11 km/h) con diferencias significativas superiores cuando el nivel del oponente es de Máxima dificultad frente a Elevada dificultad (p<.01) o Media dificultad (p<.01). En función del estilo de juego se registran diferencias en la distancia total recorrida en el partido, en velocidades bajas (V<17 km/h) y en el nº de Sprints (V>24 km/h). Por último, el perfil de actividad del EE no se ve influenciado por el efecto de estar sometido a una alta densidad competitiva (jugar un partido entre semana). Se constata como un jugador de un EE está supeditado no sólo a las exigencias del puesto específico sino también está sujeta a las características propias del jugador al desempeñar el rol o función táctica encomendada. Esta influencia es más evidente en jugadores que ocupan puestos específicos avanzados. CONCLUSION: La presente investigación aporta la caracterización de la actividad de los jugadores de un EE frente al perfil de actividad de sus rivales, mostrando un nivel de respuesta específica y diferente, más estable frente a determinadas variables contextuales y donde la exigencia física en el puesto específico se ve condicionada por las características individuales del jugador, todos estos aspectos pueden ayudar a la hora de planificar el entrenamiento en este tipo de equipos. ABSTRACT OBJETIVE: This doctoral thesis aims to analyze the performance in football from a physical point of view on a team of excellence. METHOD: The registration system (AMISCO) activity soccer player in competition (total distance traveled distances at different speeds, and number of sprints) was used to analyze over six seasons continued activity elite players (N = 2082), with 1051 belonging to Team Excellence (EE) and 1031 players from rival teams (ER). RESULT: The competitive physical response of the US players are analyzed and compared with that of ER. The activity profile (total distance, distance at different speeds and number of sprints) of EE players shown below players ER values. The same occurs in each of the parts of the game, the specific game since players analyzed in different seasons and in different months of the season. The EE recorded increased activity (total distance traveled in the match, distance at high speeds V> 17 km / h and sprints number) when playing a local when it does on the road. EE also shows higher demands physical demands in European competition (Champions League) against the League in the total distance traveled in the party and at low speeds (V <17 km / h), while just shows differences in indicators of demand physics when the opposing teams with different levels of performance faces, except in the distance walked (V = 01-11 km / h) with significant differences when higher level Maximum opponent is facing difficulty High difficulty (p < .01) or Medium difficulty (p <.01). Depending on the style of play differences are recognized in the total distance traveled in the party, at low speeds (V <17 km / h) and the number of Sprints (V> 24 km / h). Finally, the activity profile of EE is not influenced by the effect of being subjected to a high competitive density (play a game during the week). It is found as a player on a team of Excellence is subject not only to the requirements of the specific position but is also subject to the characteristics of the player to play the role or function entrusted tactics. This influence is most evident in advanced players who occupy specific positions. CONCLUSION: This research provides the characterization of the activity of EE players versus activity profile of its rivals, showing a level of response specific and different, more stable against certain contextual variables and where the physical demands on the specific position is conditioned by the individual characteristics of the player, all these aspects can help in planning training in this type of equipment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La estimación de la biomasa de la vegetación terrestre en bosque tropical no sólo es un área de investigación en rápida expansión, sino también es un tema de gran interés para reducir las emisiones de carbono asociadas a la deforestación y la degradación forestal (REDD+). Las estimaciones de densidad de carbono sobre el suelo (ACD) en base a inventarios de campo y datos provenientes de sensores aerotransportados, en especial con sensores LiDAR, han conducido a un progreso sustancial en el cartografiado a gran escala de las reservas de carbono forestal. Sin embargo, estos mapas de carbono tienen incertidumbres considerables, asociadas generalmente al proceso de calibración del modelo de regresión utilizado para producir los mapas. En esta tesis se establece una metodología para la calibración y validación de un modelo general de estimación de ACD usando LiDAR en un sector del Parque Nacional Yasuní en Ecuador. En el proceso de calibración del modelo se considera el tamaño y la ubicación de las parcelas, la influencia de la topografía y la distribución espacial de la biomasa. Para el análisis de los datos se utilizan técnicas geoestadísticas en combinación con variables geomorfométricas derivadas de datos LiDAR, y se propone un esquema de muestreo estratificado por posiciones topográficas (valle, ladera y cima). La validación del modelo general para toda la zona de estudio presentó valores de RMSE = 5.81 Mg C ha-1, R2 = 0.94 y sesgo = 0.59, mientras que, al considerar las posiciones topográficas, el modelo presentó valores de RMSE = 1.67 Mg C ha-1, R2 = 0.98 y sesgo = 0.23 para el valle; RMSE = 3.13 Mg C ha-1, R2 = 0.98 y sesgo = - 0.34 para la ladera; y RMSE = 2.33 Mg C ha-1, R2 = 0.97 y sesgo = 0.74 para la cima. Los resultados obtenidos demuestran que la metodología de muestreo estratificado por posiciones topográficas propuesto, permite calibrar de manera efectiva el modelo general con las estimaciones de ACD en campo, logrando reducir el RMSE y el sesgo. Los resultados muestran el potencial de los datos LiDAR para caracterizar la estructura vertical de la vegetación en un bosque altamente diverso, permitiendo realizar estimaciones precisas de ACD, y conocer patrones espaciales continuos de la distribución de la biomasa aérea y del contenido de carbono en la zona de estudio. ABSTRACT Estimating biomass of terrestrial vegetation in tropical forest is not only a rapidly expanding research area, but also a subject of tremendous interest for reducing carbon emissions associated with deforestation and forest degradation (REDD+). The aboveground carbon density estimates (ACD) based on field inventories and airborne sensors, especially LiDAR sensors have led to a substantial progress in large-scale mapping of forest carbon stocks. However, these carbon maps have considerable uncertainties generally associated with the calibration of the regression model used to produce these maps. This thesis establishes a methodology for calibrating and validating a general ACD estimation model using LiDAR in Ecuador´s Yasuní National Park. The size and location of the plots are considered in the model calibration phase as well as the influence of topography and spatial distribution of biomass. Geostatistical analysis techniques are used in combination with geomorphometrics variables derived from LiDAR data, and then a stratified sampling scheme considering topographic positions (valley, slope and ridge) is proposed. The validation of the general model for the study area showed values of RMSE = 5.81 Mg C ha-1, R2 = 0.94 and bias = 0.59, while considering the topographical positions, the model showed values of RMSE = 1.67 Mg C ha-1, R2 = 0.98 and bias = 0.23 for the valley; RMSE = 3.13 Mg C ha-1, R2 = 0.98 and bias = - 0.34 for the slope; and RMSE = 2.33 Mg C ha-1, R2 = 0.97 and bias = 0.74 for the ridge. The results show that the stratified sampling methodology taking into account topographic positions, effectively calibrates the general model with field estimates of ACD, reducing RMSE and bias. The results show the potential of LiDAR data to characterize the vertical structure of vegetation in a highly diverse forest, allowing accurate estimates of ACD, and knowing continuous spatial patterns of biomass distribution and carbon stocks in the study area.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Complejidad y contradicción en la arquitectura ha resultado ser una de las referencias capitales más aludidas, citadas y reproducidas de la literatura arquitectónica de los tiempos recientes. No en vano, en la introducción de la propia obra, Vincent Scully afirmó que «probablemente es el texto más importante sobre arquitectura desde ‘Vers une Architecture’, escrito por Le Corbusier en 1923». Sin embargo, sus fuentes parece que están inexploradas o, al menos, no examinadas. Por ello, Road to 1966 se plantea como un trabajo de investigación con tres objetivos de partida fundamentales: (1) el interés en estudiar el debate arquitectónico candente, creado con las fricciones surgidas entre los protagonistas de unos años que cambiaron el estado de lo que se consideraba una obra legítima en arquitectura; (2) se pretende ampliar la cronología del desarrollo intelectual de un texto, el de Venturi, que marcó la segunda mitad del siglo xx, de manera retroactiva hasta los años de la II Guerra Mundial, cuando parece que empezaban a ser coherentes y reconocibles unas nuevas posiciones desde las que aproximarse a las cuestiones de la práctica, la teoría y la historia de la arquitectura; (3) poder ofrecer una nueva interpretación de dicho texto de Venturi, entendido no como el origen primigenio de parte de las grandes transformaciones de la arquitectura reciente (de los últimos cincuenta años), sino como el resultado necesario de esa cronología intelectual previa. La arquitectura norteamericana de estos años de posguerra ha resultado ser crucial en su posterior desarrollo, y, especialmente, en relación al libro de Venturi. De hecho, Scully en la introducción de la edición original de Complejidad y contradicción, señalaba que «el principal argumento del libro está expuesto a finales de los cincuenta». Que la arquitectura del siglo xx tiene en la Norteamérica de los años sesenta -cuando se consolida la figura de Venturi- uno de sus capítulos más decisivos, frecuentemente asumido como el paso siguiente a la importada modernidad heroica europea, hoy parece no ser discutido por casi nadie. Ahora bien: ¿qué ocurre con los años intermedios? ¿Qué acontece entre el final de la II Guerra Mundial y esos años sesenta? La posible carencia de una postura dominante y clara quizás haya sumido esta etapa en un cierto olvido o descuido por parte de historiadores y críticos. Así, este trabajo se estructura alrededor del papel que ocupa el texto venturiano, sin ser éste su único protagonista. Tomado más bien como excusa, la tesis va profundizando de manera deductiva en el conjunto de circunstancias que pudieron llevar a su autor hacia las conclusiones que desarrolló, detectando los ambientes biográficos y formativos, pensamientos compartidos e influencias epistemológicas y profesionales mutuas, que justificarían una novedosa interpretación de dicho texto como el corolario necesario de un panorama de crisis y cambios - éste sí protagonista en este trabajo-, al contrario de cómo habitualmente se ha venido entendiendo dicha obra. La investigación se centra predominantemente en el rastreo de las fuentes citadas por el propio Venturi en su libro, así como de los textos de mayor difusión (generalmente revistas profesionales no exclusivamente académicas, además de libros, catálogos de exposiciones, actas de simposios…), y no tanto en las obras construidas o proyectadas; sí, quizás, en los términos en los que dichas obras fueron publicadas, comentadas o reseñadas. Así, se ha adoptado una aproximación concebida sub specie bibliotecae, donde se han aplicado unos métodos de trabajo caracterizados por su componente cronológica, y, después, analítico-comparativa: dicho de otro modo, un método historiográfico-periodístico capaz de relacionar las historias o cursos de ciertas ideas o nociones, dentro de un contexto general más amplio en sus derivadas arquitectónicas, estéticas, socio-generacionales, culturales, filosóficas, científicas, políticas, literarias… Con ello, se pretende establecer una relectura del primer libro de Venturi y sus años de gestación desde unas nuevas concepciones, más modernas que postmodern(ist)as, proponiendo una posible evolución en la arquitectura más reciente cuyas raíces, a fin de cuentas, tendrían su origen en la Norteamérica de 1946 a 1966. ABSTRACT Complexity and Contradiction in Architecture has proved to be one of the capital, alluded references cited and reproduced in the architectural literature of the recent times. Not surprisingly, in the Introduction to the book, Vincent Scully wrote that "yet it is probably the most important writing on the making of architecture since Le Corbusier´s ‘Vers une Architecture’, of 1923". However, its sources seem to be unexplored or at least not examined. Therefore, Road to 1966 is presented as a research with three fundamental starting objectives: (1) first, the interest in studying the burning architectural debate, created within the arising frictions among the protagonists of the years that changed the status of what was considered a legitimate work in architecture; (2) second, it seeks to extend the chronology of the intellectual background of the book written by Venturi, which marked the second half of the twentieth century, in a retroactive manner to the years of the World War II, when it seems that some new positions from which to approach the issues of practice, theory and history of architecture began to be consistent and recognizable; (3) lastly, to offer a new interpretation of Venturi’s text, now understood not as the primal source of the great transformations of the recent architecture (of the last fifty years), but as the necessary result of that background intellectual chronology. The American architecture of these post-war years has proved to be crucial in its later stages, and especially in relation to the book of Robert Venturi. In fact, Scully in the Introduction to the first edition of Complexity and Contradiction, noted that "the major argument of this book was laid out in the late fifties". The fact that the architecture of the twentieth century –when the leading figure of Venturi was consolidated- has in the North America of the sixties one of its most decisive chapters, (often assumed as the next step to the imported European heroic modernism) today seems to be discussed by almost anyone. Now, what about the intervening years? What happens between the end of the World War II and the sixties? The potential lack of a clear dominant position of this stage may have plunged it into oblivion or oversight by historians and critics. Thus, this research is structured around the role that occupies Venturi’s work, whereas this is not its only subject. Rather taken as an excuse, the thesis deepens deductively in the set of circumstances that could lead its author to the conclusions he developed in 1966, detecting biographical and academic environments, shared thoughts and epistemological and mutual professional influences, that would justify a new interpretation of this book as a necessary corollary of an outlook of crisis and change (this major and center subject in this dissertation), contrary to what has been commonly understood upon this work. The research focuses predominantly on tracing the sources cited by Venturi himself in his book, as well as other texts of wider dissemination and outreach (usually professional journals not exclusively academic, as well as books, catalogs of exhibitions, symposia proceedings...), and not so much in the buildings or unbuilt projects; but also, perhaps, it is focused in the terms in which these works were published, commented or reviewed. Hence an approach conceived sub specie bibliotecae has been adopted, with working methods characterized by their chronological component, and then the analytical-comparative one: in other words, a historiographicaljournalistic method able to relate stories or courses of certain ideas or notions, within a broader general context in its architectural, aesthetic, sociological-generational, cultural, philosophical, scientific, political, literary... sides. This approach intends to establish a re-reading of Venturi’s first book and its years of gestation, from some new understandings, more modern than postmodern(ist), proposing a possible evolution of the latest architecture whose roots, after all, would have their origin in the North America of 1946-1966.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesis analiza los antecedentes y el contexto arquitectónico de aquellas obras que se pueden enmarcar dentro del concepto de lo Grande. Arrancando en los movimientos utópicos, megaestructuralistas o radicales de los años sesenta, nos conduce hasta conceptos, proyectos y teorías contemporáneos. Para ello es preciso, definir lo Grande no solo a través de cuestiones dimensionales, sino también de cambio de dimensión espacial y conceptual. Se estudian arquitecturas, que, una vez superado un cierto volumen, magnitud o grado de complejidad, se convierten en un ‘edificio grande’, adquiriendo propiedades de otra naturaleza, generando un cambio o salto entre escalas, o un desplazamiento entre campos, rompiendo los límites habituales de la escala, el tamaño u otras codificaciones con las que se categorizan los proyectos entre la ‘arquitectura’ y la ‘ciudad’. El cuerpo de tesis principal se estructura en dos secciones, ‘Genealogías y asociaciones’ y ‘Desplazamiento de conceptos’, y una Conclusión, que trata de compilar las consideraciones o conclusiones extraídas de lo anterior, construyendo así la propia teoría de lo Grande. Genealogías y asociaciones revisa las formas de conocimiento que contextualizan lo Grande, haciendo un barrido de las estructuras sociales, económicas y políticas, desde una perspectiva y un marco con influencia directa en la arquitectura. Recorre teorías, tesis y proyectos que reflexionan o trabajan en lo Grande y en los límites entre las escalas desde la década de los sesenta hasta hoy día. En ese barrido examina conceptos y condiciones capaces de abrir nuevos paradigmas y escenarios arquitectónicos. El contexto sociocultural que lo enmarca resulta crucial para definir posteriormente conceptos, en un barrido desde la cultura de masas a la sociedad de la información, repasando la influencia y repercusión que ha tenido la tecnología y la globalización en el desarrollo de la arquitectura. Por último, se estudian conceptos entre el espacio y a la política, mediante una análisis que enmarque las posiciones de apoyo, refuerzo o rechazo en la relación de la obra de arquitectura y la naturaleza política que esta adquiere por la mera condición de ser Grande. Desplazamiento de conceptos, ofrece condiciones y ejemplos que permiten definir las ‘propiedades’ de lo Grande, a través de una investigación teórica y analítica de las herramientas y estrategias que operan en estas escalas, para confirmar cómo, desarrollos aparentemente cuantitativos, pueden dar lugar a avances cualitativos o a mutaciones que permitan superar los paradigmas anteriores. El objetivo es la definición del conjunto de instrumentos, estrategias y operaciones que sintetizan los valores de cada concepto, con las que construir una ‘cosmogonía’ sobre el tema, apoyándose para ello en textos de referencia, proyectos paradigmáticos y conceptos derivados de los análisis. Los conceptos a estudio devienen directamente de ciertos atributos y características detectadas en las genealogías de lo Grande. Así, consideramos Grande a aquella arquitectura cuya escala y tamaño ha experimentado lo que definiremos como ‘cambio de dimensiones’, no solo a nivel dimensional, sino también perceptivo, técnico y contextual; su tamaño no solo depende de sus magnitudes sino también de la cantidad de materia que contiene el sistema o que circula por él; que tiene trazas, dotes y propiedades de infraestructura; que está instalada, y por tanto, es reactiva con el medio; por ello, es al mismo tiempo autónoma respecto al todo, aunque relacionada con él; un espacio capaz de aceptar la indeterminación de ciertas partes frente a la especificidad de otras, como forma de admitir la pérdida del control total y el detalle; por tanto, que ha desplazado la planificación y el diseño por la investigación programática y la estrategia operativa. En definitiva una arquitectura que desplaza o muta conceptos, atributos y estrategias de otras disciplinas, de los saltos entre escalas y de los nuevos programas. ABSTRACT The thesis will analyze the architectural background and context of those works which can be framed within the concept of Bigness. From the utopian, megastructuralism and radical movements of the sixties, it will lead to contemporary concepts, projects and theories, and ultimately define a theory of Bigness. It will be necessary to define Bigness or the Large, not only in terms of size, but also considering change in spatial and conceptual dimensions. Its case studies are architectures which, surpassing a certain volume, magnitude or degree of complexity, become a ‘large building’ and acquire characteristics of another nature. This generates a change or ‘leap’ in scale, or a displacement in fields, breaking the conventional limits of scale, size and other codes used to categorise projects within ‘architecture’ or the ‘city’. The main body of the thesis is structured into two sections, Genealogies and Associations and Displacement of Concepts, and the Conclusion, which will compile the considerations and conclusions extracted from the previous parts, building the actual theory of Bigness. The first section, Genealogies and Associations, will review the forms of knowledge which contextualize the Large, covering a spectrum of social, economic and political structures from the framework and perspective of their direct influence on architecture. It will account theories, thesis and projects which reflect or work on Bigness and on the limits between scales from the sixties to today, examining those concepts and conditions which may be useful to unfold new settings and paradigms. As the sociocultural context will also prove crucial in order to later define concepts, a broad sweep will cover from the mass society to the information society, revising the influence and repercussions of technology and globalization on the development of architecture. Lastly, it will study concepts in-between space and politics, by means of a study framing positions of support, assistance or rejection towards the work of architecture, and the political nature the work is given only due to its condition of being Big. The following section, Displacement of Concepts, provides conditions and examples which allow the definition of the ‘characteristics’ of Bigness by means of a theoretical and analytical investigation of the tools and strategies which operate on these scales. This is in order to confirm how apparently quantitative developments can lead to qualitative advances or to mutations that enable the overcoming of previous paradigms. The objective is to define the set of strategies, operations and tools, which synthesize the values of each concept; the grounding for a “cosmogony” of the subject, underpinned by relevant reference texts, paradigmatic projects and concepts stemming from the analyses. The concepts of study arise directly from certain attributes and characteristics detected in Bigness. For this purpose, it is that architecture whose dimensions and size have experienced what we will define as a ‘change of dimensions’, not only of size, but also perceptual, technical and contextual;its size depends not only on its magnitude but also the amount of material that contains or flows through system; which possesses traits, faculties and features of an infrastructure; which is installed, and is therefore reactive with its surroundings; due to this, it will be autonomous with respect to the whole and yet related to it; a space which can accept the undetermined nature of some of its parts as well as the specificity of other parts, acknowledging the loss of total control and detail; and thus, which has displaced planning and design with operational strategies. In conclusion, an architecture that displaces or mutates concepts, attributes and strategies stemming from other disciplines, from the jumps between scales, and from the new programs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As três imagens de Lula - Os posicionamentos das revistas CartaCapital, Primeira Leitura e Veja nas eleições para presidente em 2002. O tema proposto por este projeto de mestrado é selecionado pela sua relevância social: uma reflexão sobre o papel da imprensa na democracia através de análises de revistas no período que antecedeu as últimas eleições para presidente em 2002. Os objetos de análise são periódicos que atingem segmentos importantes da sociedade brasileira: as revistas CartaCapital (de setembro a novembro), Primeira Leitura (de agosto a novembro) e Veja (de setembro a novembro). O assunto definido para a análise é a construção da imagem apresentada do candidato Luís Inácio Lula da Silva, ou seja, de que maneira essas revistas trataram em suas linhas editoriais da figura do presidenciável em questão.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As três imagens de Lula - Os posicionamentos das revistas CartaCapital, Primeira Leitura e Veja nas eleições para presidente em 2002. O tema proposto por este projeto de mestrado é selecionado pela sua relevância social: uma reflexão sobre o papel da imprensa na democracia através de análises de revistas no período que antecedeu as últimas eleições para presidente em 2002. Os objetos de análise são periódicos que atingem segmentos importantes da sociedade brasileira: as revistas CartaCapital (de setembro a novembro), Primeira Leitura (de agosto a novembro) e Veja (de setembro a novembro). O assunto definido para a análise é a construção da imagem apresentada do candidato Luís Inácio Lula da Silva, ou seja, de que maneira essas revistas trataram em suas linhas editoriais da figura do presidenciável em questão.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema desta tese é a relação entre hermenêutica, niilismo e religião no pensamento do filósofo italiano Gianni Vattimo. Partindo da articulação das idéias de Nietzsche e Heidegger, Vattimo afirma que a superação da metafísica tem como finalidade o niilismo. Este termo assume três significados: (1) Tudo é interpretação. (2) Fazer esta afirmação também é interpretação, pois o ser não é estrutura, mas evento, impossibilitando a afirmação da existência de algo originário. (3) O niilismo é o destino da história do ser, promovendo o enfraquecimento das estruturas fortes da metafísica. Estes três aspectos engendram a hermenêutica e são igualmente engendrados por ela. A vocação da hermenêutica e da história do ser para o enfraquecimento da metafísica é devedora da concepção cristã de esvaziamento de Deus. Por causa disto, segundo Vattimo, o cristianismo é o elemento niilista operante no interior da metafísica.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema desta tese é a relação entre hermenêutica, niilismo e religião no pensamento do filósofo italiano Gianni Vattimo. Partindo da articulação das idéias de Nietzsche e Heidegger, Vattimo afirma que a superação da metafísica tem como finalidade o niilismo. Este termo assume três significados: (1) Tudo é interpretação. (2) Fazer esta afirmação também é interpretação, pois o ser não é estrutura, mas evento, impossibilitando a afirmação da existência de algo originário. (3) O niilismo é o destino da história do ser, promovendo o enfraquecimento das estruturas fortes da metafísica. Estes três aspectos engendram a hermenêutica e são igualmente engendrados por ela. A vocação da hermenêutica e da história do ser para o enfraquecimento da metafísica é devedora da concepção cristã de esvaziamento de Deus. Por causa disto, segundo Vattimo, o cristianismo é o elemento niilista operante no interior da metafísica.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa um período de crise vivido pelo protestantismo brasileiro (simbolizado aqui pela Igreja Metodista e pela Igreja Presbiteriana do Brasil) durante a época da Ditadura Civil e Militar, focando o olhar mais especificamente no intervalo entre os anos de 1964 e 1974. Influenciadas pelo ambiente político e ideológico da época, essas duas denominações protestantes foram palco de uma disputa entre suas alas conservadoras e progressistas. Como resultado, estabeleceu-se um clima interno de “caça às bruxas”, marcado por atitudes autoritá-rias e de apoio ao regime imposto. Seguindo uma proposta advinda de trabalhos anteriores, a pesquisa procura levantar os fundamentos que embasaram as atitudes das alas conservadoras do protestantismo nesse conflito, um aspecto pouco considerado pela historiografia sobre o tema. A principal suspeita é a de que as posturas conservadoras decorreram do contato do pro-testantismo importado do mundo anglo saxão com a herança cultural patriarcal autoritária e católica presente no Brasil desde seu período fundacional. Essa mescla de elementos teológi-cos importados somada à herança cultural tipicamente brasileira acabou moldando a mentali-dade dos setores conservadores do protestantismo nacional entre o final do século XIX e me-ados do XX, que acabou aflorando quando novos agentes surgiram no cenário religioso duran-te o período do Golpe Civil e Militar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Fas/Fas ligand (FasL) system participates in regulation of the immune system through the apoptotic process. However, the extent to which abnormalities in this system are involved in the loss of self-tolerance and development of autoimmune disease not associated with Fas/FasL mutations remains unknown. The present study addresses this issue in Fas/FasL-intact, systemic lupus erythematosus (SLE)-prone (NZB × NZW) (NZB/W) F1 mice. While splenic B cells from 2-month-old mice before overt SLE expressed Fas poorly, in vitro stimulation with an agonistic anti-CD40 mAb up-regulated their Fas expression, thus revealing the existence of two populations: one was Fashigh and highly susceptible to anti-Fas mAb-induced apoptosis, and the other was Faslow and apoptosis-resistant. The Faslow cells were included in the CD5+ B cell subpopulation and contained most of the cells that produced IgM anti-DNA antibodies. The isotype of anti-DNA antibodies switches from IgM to IgG in NZB/W F1 mice at ages beginning at about 6 months. These IgG anti-DNA antibodies were produced almost exclusively by a subpopulation of splenic B cells that spontaneously expressed low levels of Fas in vivo and were apoptosis-resistant. The findings indicate that precursor B cells for autoantibody production and presumably autoantibody-secreting cells in these mice are relatively resistant to Fas-mediated apoptosis, a finding supporting the concept that abnormalities of Fas-mediated apoptotic process are involved in the development of autoreactive B cells in Fas/FasL-intact autoimmune disease.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alignments of homologous genes typically reveal a great diversity of intron locations, far more than could fit comfortably in a single gene. Thus, a minority of these intron positions could be inherited from a single ancestral gene, but the larger share must be attributed to subsequent events of intron gain or intron “sliding” (movement from one position to another within a gene). Intron sliding has been argued from cases of discordant introns and from putative spatial clustering of intron positions. A list of 32 cases of discordant introns is presented here. Most of these cases are found to be artefactual. The spatial and phylogenetic distributions of intron positions from five published compilations of gene data, comprising 205 intron positions, have been examined systematically for evidence of intron sliding. The results suggest that sliding, if it occurs at all, has contributed little to the diversity of intron positions.