22 resultados para Isostatic pressing.
Resumo:
En el día de hoy nos enfrentamos a una serie de desafíos económicos, geopolíticos y ambientales que apuntan hacia una transformación profunda del mundo tal y como lo conocemos. La arquitectura esta – siempre lo ha estado – imbricada en todos estos problemas. En nuestra actual condición de recursos limitados e injusticia global surge la necesidad de superar la dicotomía entre progreso y tradición, entre innovación y preservación – la urgencia de redefinir incluso cada uno de estos términos. Los tipos de crisis que encaramos ahora no se resolverán con mas tecnología y más crecimiento – se necesita también una profunda reevaluación de nuestros sistemas de valores e incluso de nuestra sensibilidad. En este contexto, la humilde contribución de esta tesis consiste en proponer la idea de un realismo en arquitectura, entendido como una actitud progresista y atenta a lo que ya existe, dispuesta a abrir los ojos al presente, a las condiciones y los problemas reales que nos rodean. Pensando en esta idea, resulta evidente que si bien el realismo carece de una definición clara en el campo de la arquitectura hoy, cuenta sin embargo con numerosos precedentes parciales, entre ellos algunos de los más notorios episodios de la historia de la arquitectura reciente. Al intentar confeccionar una lista provisional de arquitectos realistas en el último siglo, otro hecho se nos presenta: muchos, por no decir todos estos arquitectos, comparten una fijación por la fotografía, bien apropiándose del trabajo de fotógrafos contemporáneos, bien tomando sus propias imágenes como una forma de mirar fuera de sus estudios e incorporar la realidad del medio construido a sus proyectos. Parece entonces lógico pensar que la arquitectura, como disciplina visual, ha acudido a otra disciplina visual en búsqueda de su propia respuesta al problema del realismo – dentro de este campo la fotografía reverbera con la arquitectura especialmente, ya que ambas son consideradas simultáneamente como practicas utilitarias y como parte de las bellas artes. Parece entonces lógico el organizar la investigación como una serie de casos, con la esperanza de que la acumulación de diversas instancias en las que la arquitectura ha acudido a la fotografía en su búsqueda de un realismo arrojara luz sobre las ideas más generales a debate. Por tanto, cada uno de los episodios en este texto se examina en sus propios términos, si bien una serie de interconexiones emergen a medida que el estudio procede con un suave orden cronológico. Hacia el final del texto cuestiones más grandes recobran protagonismo, a medida que las repercusiones políticas de nuestro estudio se hacen más patentes y comenzamos a interrogar las implicaciones contemporáneas y el potencial futuro de nuestra discusión sobre el realismo. ABSTRACT Today we are faced with a series of economic, geopolitical and environmental challenges that outline a deep transformation of the world as we know it. Architecture is – it has always been – ingrained in all of these problems. In our current condition of limited resources and global inequalities there is a necessity to overcome the dichotomy between progress and tradition, between innovation and preservation – an urgency to even redefine these terms altogether. The types of crises that we are facing will not be solved with more technology and more growth – a deep reevaluation of our systems of values and our sensibilities are also needed. In this context, the humble contribution of this text is to put forward the idea of an architectural realism, understood as an attitude that is both progressive and attentive to what is already in place, willing to open its eyes to the present and accept the real conditions and problems around us. In thinking about this prospect, it immediately becomes apparent that even if realism lacks a clear definition in the field of architecture today, there are numerous partial precedents for it, among them some of the most notorious episodes in the recent history of architecture. In crafting a tentative list of realist architects in the last century, another realization takes place: many, not to say all of these architects, have had a fixation with photography, either appropriating the work of contemporary photographers or taking photographs themselves as a way to look out their windows and bring the reality of the built environment into their practices. It seems then logical to think that architecture, as a visual discipline, has looked to other visual disciplines in search for its own take on the problem of realism – within this field, photography specially resonates with architecture, since both are regarded simultaneously as utilitarian practices and belonging to the fine arts. The idea then becomes to organize the research as a series of cases, with the hope that the accumulation of diverse instances in which architecture has approached photography in its realist drive will shed some light on the larger ideas at stake. Therefore, each of the episodes in this text is examined on its own terms, with a series of interconnections slowly emerging as our survey proceeds with a soft chronologic order. Towards the end of the study, larger issues regain relevance as the political repercussions of our inquiry become more pressing and we start to question the contemporary implications and future potentials of our discussion on realism.
Resumo:
Positive composite electrodes having LiNi0.5Mn1.5O4 spinel as active material, a blend of graphite and carbon black for increasing the electrode electrical conductivity and either polyvinyldenefluoride (PVDF) or a blend of PVDF with a small amount of Teflon® (1 wt%) for building up the electrode. They have been processed by tape casting on an aluminum foil as current collector using the doctor blade technique. Additionally, the component blends were either sonicated or not, and the processed electrodes were compacted or not under subsequent cold pressing. Composites electrodes with high weight, up to 17 mg/cm2, were prepared and studied as positive electrodes for lithium-ion batteries. The addition of Teflon® and the application of the sonication treatment lead to uniform electrodes that are well-adhered to the aluminum foil. Both parameters contribute to improve the capacity drained at high rates (5C). Additional compaction of the electrode/aluminum assemblies remarkably enhances the electrode rate capabilities. At 5C rate, remarkable capacity retentions between 80% and 90% are found for electrodes with weights in the range 3–17 mg/cm2, having Teflon® in their formulation, prepared after sonication of their component blends and compacted under 2 tonnes/cm2.
Resumo:
This survey presents the results of a questionnaire sent to a list of key scholars and professionals in fields related to urban processes and planning – town planning, geography, sociology, architecture and anthropology. The survey raised four simple, straightforward questions. What are the most pressing conflicts with regard to contemporary cities? What are the main fields of action for solving them? How can your discipline contribute with respect to this task? Could you mention an intervention that could serve as an example of that line of work? The response represents a plural and multidisciplinary perspective on contemporary urban issues from which a series of research and intervention perspectives emerges.
Resumo:
En los últimos años, y a la luz de los retos a los que se enfrenta la sociedad, algunas voces están urgiendo a dejar atrás los paradigmas modernos —eficiencia y rendimiento— que sustentan a las llamadas prácticas sostenibles, y están alentando a repensar, en el contexto de los cambios científicos y culturales, una agenda termodinámica y ecológica para la arquitectura. La cartografía que presenta esta tesis doctoral se debe de entender en este contexto. Alineándose con esta necesidad, se esfuerza por dar a este empeño la profundidad histórica de la que carece. De este modo, el esfuerzo por dotar a la arquitectura de una agenda de base científica, se refuerza con una discusión cultural sobre el progresivo empoderamiento de las ideas termodinámicas en la arquitectura. Esta cartografía explora la historia de las ideas termodinámicas en la arquitectura desde el principio del siglo XX hasta la actualidad. Estudia, con el paso de los sistemas en equilibrio a los alejados del equilibrio como trasfondo, como las ideas termodinámicas han ido infiltrándose gradualmente en la arquitectura. Este esfuerzo se ha planteado desde un doble objetivo. Primero, adquirir una distancia crítica respecto de las prácticas modernas, de modo que se refuerce y recalibre el armazón intelectual y las herramientas sobre las que se está apoyando esta proyecto termodinámico. Y segundo, desarrollar una aproximación proyectual sobre la que se pueda fundamentar una agenda termodinámica para la arquitectura, asunto que se aborda desde la firme creencia de que es posible una re-descripción crítica de la realidad. De acuerdo con intercambios de energía que se dan alrededor y a través de un edificio, esta cartografía se ha estructurado en tres entornos termodinámicos, que sintetizan mediante un corte transversal la variedad de intercambios de energía que se dan en la arquitectura: -Cualquier edificio, como constructo espacial y material inmerso en el medio, intercambia energía mediante un flujo bidireccional con su contexto, definiendo un primer entorno termodinámico al que se denomina atmósferas territoriales. -En el interior de los edificios, los flujos termodinámicos entre la arquitectura y su ambiente interior definen un segundo entorno termodinámico, atmósferas materiales, que explora las interacciones entre los sistemas materiales y la atmósfera interior. -El tercer entorno termodinámico, atmosferas fisiológicas, explora los intercambios de energía que se dan entre el cuerpo humano y el ambiente invisible que lo envuelve, desplazando el objeto de la arquitectura desde el marco físico hacia la interacción entre la atmósfera y los procesos somáticos y percepciones neurobiológicas de los usuarios. A través de estos tres entornos termodinámicos, esta cartografía mapea aquellos patrones climáticos que son relevantes para la arquitectura, definiendo tres situaciones espaciales y temporales sobre las que los arquitectos deben actuar. Estudiando las conexiones entre la atmósfera, la energía y la arquitectura, este mapa presenta un conjunto de ideas termodinámicas disponibles —desde los parámetros de confort definidos por la industria del aire acondicionado hasta las técnicas de acondicionamiento pasivo— que, para ser efectivas, necesitan ser evaluadas, sintetizadas y recombinadas a la luz de los retos de nuestro tiempo. El resultado es un manual que, mediando entre la arquitectura y la ciencia, y a través de este relato histórico, acorta la distancia entre la arquitectura y la termodinámica, preparando el terreno para la definición de una agenda termodinámica para el proyecto de arquitectura. A este respecto, este mapa se entiende como uno de los pasos necesarios para que la arquitectura recupere la capacidad de intervenir en la acuciante realidad a la que se enfrenta. ABSTRACT During the last five years, in the light of current challenges, several voices are urging to leave behind the modern energy paradigms —efficiency and performance— on which the so called sustainable practices are relying, and are posing the need to rethink, in the light of the scientific and cultural shifts, the thermodynamic and ecological models for architecture. The historical cartography this PhD dissertation presents aligns with this effort, providing the cultural background that this endeavor requires. The drive to ground architecture on a scientific basis needs to be complemented with a cultural discussion of the history of thermodynamic ideas in architecture. This cartography explores the history of thermodynamic ideas in architecture, from the turn of the 20th century until present day, focusing on the energy interactions between architecture and atmosphere. It surveys the evolution of thermodynamic ideas —the passage from equilibrium to far from equilibrium thermodynamics— and how these have gradually empowered within design and building practices. In doing so, it has posed a double-objective: first, to acquire a critical distance with modern practices which strengthens and recalibrates the intellectual framework and the tools in which contemporary architectural endeavors are unfolding; and second, to develop a projective approach for the development a thermodynamic agenda for architecture and atmosphere, with the firm belief that a critical re-imagination of reality is possible. According to the different systems which exchange energy across a building, the cartography has been structured in three particular thermodynamic environments, providing a synthetic cross-section of the range of thermodynamic exchanges which take place in architecture: -Buildings, as spatial and material constructs immersed in the environment, are subject to a contiuous bidirectional flow of energy with its context, defining a the first thermodynamic environment called territorial atmospheres. -Inside buildings, the thermodynamic flow between architecture and its indoor ambient defines a second thermodynamic environment, material atmospheres, which explores the energy interactions between the indoor atmosphere and its material systems. -The third thermodynamic environment, physiological atmospheres, explores the energy exchanges between the human body and the invisible environment which envelopes it, shifting design drivers from building to the interaction between the atmosphere and the somatic processes and neurobiological perceptions of users. Through these three thermodynamic environments, this cartography maps those climatic patterns which pertain to architecture, providing three situations on which designers need to take stock. Studying the connections between atmosphere, energy and architecture this map presents, not a historical paradigm shift from mechanical climate control to bioclimatic passive techniques, but a range of available thermodynamic ideas which need to be assessed, synthesized and recombined in the light of the emerging challenges of our time. The result is a manual which, mediating between architecture and science, and through this particular historical account, bridges the gap between architecture and thermodynamics, paving the way to a renewed approach to atmosphere, energy and architecture. In this regard this cartography is understood as one of the necessary steps to recuperate architecture’s lost capacity to intervene in the pressing reality of contemporary societies.
Resumo:
La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.
Resumo:
El hormigón estructural sigue siendo sin duda uno de los materiales más utilizados en construcción debido a su resistencia, rigidez y flexibilidad para diseñar estructuras. El cálculo de estructuras de hormigón, utilizando vigas y vigas-columna, es complejo debido a los fenómenos de acoplamiento entre esfuerzos y al comportamiento no lineal del material. Los modelos más empleados para su análisis son el de Bernoulli-Euler y el de Timoshenko, indicándose en la literatura la conveniencia de usar el segundo cuando la relación canto/luz no es pequeña o los elementos están fuertemente armados. El objetivo fundamental de esta tesis es el análisis de elementos viga y viga-columna en régimen no lineal con deformación por cortante, aplicando el concepto de Pieza Lineal Equivalente (PLE). Concepto éste que consiste básicamente en resolver el problema de una pieza en régimen no lineal, transformándolo en uno lineal equivalente, de modo que ambas piezas tengan la misma deformada y los mismos esfuerzos. Para ello, se hizo en primer lugar un estudio comparado de: las distintas propuestas que aplican la deformación por cortante, de los distintos modelos constitutivos y seccionales del hormigón estructural y de los métodos de cálculo no lineal aplicando el método de elementos finitos (MEF). Teniendo en cuenta que la resolución del problema no lineal se basa en la resolución de sucesivos problemas lineales empleando un proceso de homotopía, los problemas lineales de la viga y viga-columna de Timoshenko, se resuelven mediante MEF, utilizando soluciones nodalmente exactas (SNE) y acción repartida equivalente de cualquier orden. Se obtiene así, con muy pocos elementos finitos, una excelente aproximación de la solución, no sólo en los nodos sino en el interior de los elementos. Se introduce el concepto PLE para el análisis de una barra, de material no lineal, sometida a acciones axiales, y se extiende el mismo para el análisis no lineal de vigas y vigas-columna con deformación por cortante. Cabe señalar que para estos últimos, la solución de una pieza en régimen no lineal es igual a la de una en régimen lineal, cuyas rigideces son constantes a trozos, y donde además hay que añadir momentos y cargas puntuales ficticias en los nodos, así como, un momento distribuido ficticio en toda la pieza. Se han desarrollado dos métodos para el análisis: uno para problemas isostáticos y otro general, aplicable tanto a problemas isostáticos como hiperestáticos. El primero determina de entrada la PLE, realizándose a continuación el cálculo por MEF-SNE de dicha pieza, que ahora está en régimen lineal. El general utiliza una homotopía que transforma de manera iterativa, unas leyes constitutivas lineales en las leyes no lineales del material. Cuando se combina con el MEF, la pieza lineal equivalente y la solución del problema original quedan determinadas al final de todo el proceso. Si bien el método general es un procedimiento próximo al de Newton- Raphson, presenta sobre éste la ventaja de permitir visualizar las deformaciones de la pieza en régimen no lineal, de manera tanto cualitativa como cuantitativa, ya que es posible observar en cada paso del proceso la modificación de rigideces (a flexión y cortante) y asimismo la evolución de las acciones ficticias. Por otra parte, los resultados obtenidos comparados con los publicados en la literatura, indican que el concepto PLE ofrece una forma directa y eficiente para analizar con muy buena precisión los problemas asociados a vigas y vigas-columna en las que por su tipología los efectos del cortante no pueden ser despreciados. ABSTRACT The structural concrete clearly remains the most used material in construction due to its strength, rigidity and structural design flexibility. The calculation of concrete structures using beams and beam-column is complex as consequence of the coupling phenomena between stresses and of its nonlinear behaviour. The models most commonly used for analysis are the Bernoulli-Euler and Timoshenko. The second model is strongly recommended when the relationship thickness/span is not small or in case the elements are heavily reinforced. The main objective of this thesis is to analyse the beam and beam-column elements with shear deformation in nonlinear regime, applying the concept of Equivalent Linear Structural Element (ELSE). This concept is basically to solve the problem of a structural element in nonlinear regime, transforming it into an equivalent linear structural element, so that both elements have the same deformations and the same stresses. Firstly, a comparative study of the various proposals of applying shear deformation, of various constitutive and sectional models of structural concrete, and of the nonlinear calculation methods (using finite element methods) was carried out. Considering that the resolution of nonlinear problem is based on solving the successive linear problem, using homotopy process, the linear problem of Timoshenko beam and beam-columns is resolved by FEM, using the exact nodal solutions (ENS) and equivalent distributed load of any order. Thus, the accurate solution approximation can be obtained with very few finite elements for not only nodes, but also for inside of elements. The concept ELSE is introduced to analyse a bar of nonlinear material, subjected to axial forces. The same bar is then used for other nonlinear beam and beam-column analysis with shear deformation. It is noted that, for the last analyses, the solution of a structural element in nonlinear regime is equal to that of linear regime, in which the piecewise-stiffness is constant, the moments and fictitious point loads need to be added at nodes of each element, as well as the fictitious distributed moment on element. Two methods have been developed for analysis: one for isostatic problem and other more general, applicable for both isostatic and hiperstatic problem. The first method determines the ELSE, and then the calculation of this piece is performed by FEM-ENS that now is in linear regime. The general method uses the homotopy that transforms iteratively linear constitutive laws into nonlinear laws of material. When combined with FEM, the ELSE and the solution of the original problem are determined at the end of the whole process. The general method is well known as a procedure closed to Newton-Raphson procedure but presents an advantage that allows displaying deformations of the piece in nonlinear regime, in both qualitative and quantitative way. Since it is possible to observe the modification of stiffness (flexural and shear) in each step of process and also the evolution of the fictitious actions. Moreover, the results compared with those published in the literature indicate that the ELSE concept offers a direct and efficient way to analyze with very good accuracy the problems associated with beams and beams columns in which, by typology, the effects of shear cannot be neglected.
Resumo:
El minuto final de un partido ajustado de baloncesto es un momento crítico que está sujeto a multitud de factores que influyen en su desarrollo. Así, el porcentaje de acierto en los tiros libres durante ese periodo de tiempo va a determinar, en muchas ocasiones, el resultado final del partido. La disminución de rendimiento (drop) en esta faceta de juego en condiciones de presión, puede estar relacionada con múltiples variables propias del contexto deportivo estudiado, como por ejemplo: los segundos restantes de posesión, la situación en el marcador (ir ganando, empatando o perdiendo), la localización del partido (jugar en casa o fuera), la fase de competición (fase regular o eliminatorias) o el nivel del equipo (mejores/peores equipos). Además, las características del jugador que realiza los lanzamientos tienen una gran importancia respecto a su edad y años de experiencia para afrontar los momentos críticos, así como el puesto de juego que ocupa en el equipo. En este sentido, la combinación de factores del contexto y del jugador, permiten interactuar en el rendimiento del lanzador en los momentos finales de partido durante sus lanzamientos de tiro libre. El presente trabajo de tesis doctoral tiene como objetivo encontrar aquellas variables más relacionadas con la disminución de rendimiento del jugador en los tiros libres durante el último minuto de juego, y la última serie de tiros libres en los partidos ajustados de baloncesto. Para alcanzar el objetivo del estudio se analizaron 124 partidos ajustados (diferencias iguales o inferiores a 2 puntos) de todas las competiciones (fase regular, playoff y copa del Rey) de la liga ACB durante las temporadas 2011-2012 a 2014-2015. Para el registro de variables se analizó el porcentaje de acierto en los tiros libres del lanzador en la liga regular, partido completo, último minuto y última serie. De este modo se trató de analizar qué variables del contexto y del jugador permitían explicar el rendimiento en los tiros libres durante el último minuto, y la última serie de tiros libres del partido. Por otro lado, se trató de conocer el grado de asociación entre el descenso del rendimiento (drop) en los momentos finales de partido, y las variables estudiadas del jugador: puesto de juego, edad, y años de experiencia profesional; mientras que las variables situacionales consideradas fueron: fase de competición, localización, clasificación, tiempo restante, y diferencia parcial en el marcador. Para el análisis de los datos se realizaron dos modelos estadísticos: 1º) un modelo de regresión lineal múltiple para conocer el efecto de las variables independientes en el porcentaje de aciertos del lanzador en el último minuto, y en la última serie de tiros libres del partido; y 2º) un análisis de regresión logística binomial para analizar la relación existente entre la probabilidad de tener un drop (disminución del rendimiento) y las características del lanzador, y las variables situacionales. Los resultados del modelo de regresión lineal múltiple mostraron efectos negativos significativos en el porcentaje de acierto en los tiros libres durante el último minuto, cuando los lanzadores son los pívots (-19,45%). Por otro lado, los resultados durante la última serie mostraron el efecto negativo significativo sobre la posición de pívot (- 19,30%) y la diferencia parcial en el marcador (-3,33%, para cada punto de diferencia en el marcador) en el porcentaje de acierto en los tiros libres. Las variables independientes edad, experiencia profesional, clasificación en la liga regular, fase de competición, localización, y tiempo restante, no revelaron efectos significativos en los modelos de regresión lineal. Los resultados de la regresión logística binomial revelaron que las variables experiencia profesional entre 13 y 18 años (OR = 4,63), jugar de alero (OR = 23,01), y jugar de base (OR = 10,68) están relacionadas con una baja probabilidad de disminuir el rendimiento durante el último minuto del partido; mientras que ir ganando, aumenta esta probabilidad (OR = 0,06). Además, los resultados de la última serie mostraron una menor disminución del rendimiento del jugador cuando tiene entre 13 y 18 años de experiencia (OR = 4,28), y juega de alero (OR = 8,06) o base (OR = 6,34). Por el contrario, las variables situacionales relacionadas con esa disminución del rendimiento del jugador son las fases eliminatorias (OR = 0,22) e ir ganando (OR = 0,04). Los resultados principales del estudio mostraron que existe una disminución del rendimiento del jugador en su porcentaje de acierto en los tiros libres durante el último minuto y en la última serie de lanzamientos del partido, y que está relacionada significativamente con la edad, experiencia profesional, puesto de juego del jugador, y diferencia parcial en el marcador. Encontrando relación también con la fase de competición, durante la última serie de tiros libres del partido. Esta información supone una valiosa información para el entrenador, y su aplicación en el ámbito competitivo real. En este sentido, la creación de simulaciones en el apartado de aplicaciones prácticas, permite predecir el porcentaje de acierto en los tiros libres de un jugador durante los momentos de mayor presión del partido, en base a su perfil de rendimiento. Lo que puede servir para realizar una toma de decisiones más idónea, con el objetivo de lograr el mejor resultado. Del mismo modo, orienta el tipo de proceso de entrenamiento que se ha de seguir, en relación a los jugadores más tendentes al drop, con el objetivo de minimizar el efecto de la presión sobre su capacidad para rendir adecuadamente en la ejecución de los tiros libres, y lograr de esta manera un rendimiento más homogéneo en todos los jugadores del equipo en esta faceta del juego, durante el momento crítico del final de partido. ABSTRACT. The final minute of a close game in basketball is a critical moment which is subject to many factors that influence its development. Thus, the success rate in free-throws during that period will determine, in many cases, the outcome of the game. Decrease of performance (drop) in this facet of play under pressure conditions, may be related to studied own multiple sports context variables, such as the remaining seconds of possession, the situation in the score (to be winning, drawing, or losing) the location of the match (playing at home or away), the competition phase (regular season or playoffs) or team level (best/worst teams). In addition, the characteristics of the player are very important related to his age and years of experience to face the critical moments, as well as his playing position into team. In this sense, the combination of factors in context and player, allows interact about performance of shooter in the final moments of the game during his free-throw shooting. The aim of this present doctoral thesis was find the most related variables to player´s drop in free throws in the last minute of the game and the last row of free-throws in closed games of basketball. To achieve the objective of the study, 124 closed games (less or equal than 2 points difference) were analyzed in every copetition in ACB league (regular season, playoff and cup) from 2011-2012 to 2014-2015 seasons. To record the variables, the percentage of success of the shooter in regular season, full game, last minute, and last row were analyzed. This way, it is tried to analyze which player and context variables explain the free-throw performance in last minute and last row of the game. On the other hand, it is tried to determine the degree of association between decrease of performance (drop) of the player in the final moments, and studied player variables: playing position, age, and years of professional experience; while considered situational variables considered were: competition phase, location, classification, remaining time, and score-line. For data analysis were performed two statistical models: 1) A multiple linear regression model to determine the effect of the independent variables in the succsess percentage of shooter at the last minute, and in the last row of free-throws in the game; and 2) A binomial logistic regression analysis to analyze the relationship between the probability of a drop (lower performance) and the characteristics of the shooter and situational variables. The results of multiple linear regression model showed significant negative effects on the free-throw percentage during last minute, when shooters are centers (-19.45%). On the other hand, results in the last series showed the significant negative effect on the center position (-19.30%) and score-line (-3.33% for each point difference in the score) in the free-throw percentage. The independent variables age, professional experience, ranking in the regular season, competition phase, location, and remaining time, revealed no significant effects on linear regression models. The results of the binomial logistic regression showed that the variables professional experience between 13 and 18 years (OR = 4.63), playing forward (OR = 23.01) and playing guard (OR = 10.68) are related to reduce the probability to decrease the performance during the last minute of the game. While wining, increases it (OR = 0.06). Furthermore, the results of the last row showed a reduction in performance degradation when player is between 13 and 18 years of experience (OR = 4.28), and playing forward (OR = 8.06) or guard (OR = 6.34). By contrast, the variables related to the decrease in performance of the player are the knockout phases (OR = 0.22) and wining (OR = 0.04). The main results of the study showed that there is a decrease in performance of the player in the percentage of success in free-throws in the last minute and last row of the game, and it is significantly associated with age, professional experience, and player position. Finding relationship with the competition phase, during last row of free-throws of the game too. This information is a valuable information for the coach, for applying in real competitive environment. In this sense, create simulations in the section of practical applications allows to predict the success rate of free-throw of a player during the most pressing moments of the game, based on their performance profile. What can be used to take more appropriate decisions in order to achieve the best result. Similarly, guides the type of training process must be followed in relation to the most favorable players to drop, in order to minimize the effect of pressure on their ability to perform properly in the execution of the free-throws. And to achieve, in this way, a more consistent performance in all team players in this facet of the game, during the critical moment in the final of the game.