683 resultados para Receituário pronto


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Reducir el impacto ambiental que genera el sector de la edificación necesita de la participación y colaboración de los distintos agentes del sector: arquitectos, urbanistas, promotores, ingenieros, constructores, administraciones, investigadores, etc. En este sentido, las redes sociales son extremadamente útiles para compartir, informar, debatir y,en definitiva, intercambiar experiencias y conocimientos sobre aquello que realmente funciona. Bajo esta idea y con el apoyo del programa Intelligent Energy Europe de la UE, se ha lanzado la plataforma web Construction21 en España, Francia, Alemania, Italia, Rumania y Lituania y con el objetivo de que pronto se extienda al resto de países de la UE-27. La plataforma contiene información detallada sobre edificios reales construidos bajo criterios ambientales, demostrando que otra manera de construir es posible. También facilita ejemplos de productos y soluciones constructivas innovadoras y ya testadas en casos reales. Las comunidades temáticas relativas a distintos temas clave de la construcción sostenible (como la eficiencia energética, la certificación ambiental, el análisis de ciclo de vida, la rehabilitación energética, etc.) constituyen otro de los contenidos principales de esta plataforma. En Construction21 son los propios usuarios los encargados de publicar los contenidos, fomentando así procesos de inteligencia compartida, tanto a nivel de las plataformas nacionales como a nivel europeo. Esta comunicación pretende explicar los alcances conseguidos hasta la fecha, así como los resultados esperados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto del pequeño nuevo pueblo de Vegaviana en la provincia de Cáceres se inscribió dentro de la amplia labor desarrollada por el Instituto Nacional de Colonización (INC) como materialización de la utopía agraria del franquismo. No obstante, planteado dentro de una nueva sensibilidad arquitectónica y urbanística por su principal autor, José Luis Fernández del Amo, supuso un importante punto de ruptura con la concepción tradicionalista entonces imperante. Ello hizo que recibiera un pronto reconocimiento nada más terminarse a finales de los años 50 en diversos certámenes nacionales e internacionales. En 1967 recibiría además el Premio Nacional de Arquitectura, habiendo siendo recientemente reconocido como Bien de Interés Cultural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resulta imposible disociar la evolución de la arquitectura de Enric Miralles de lo que fue el desarrollo de un sistema de representación propio. Partiendo de una posición heredada de su formación en la Escuela de Arquitectura de Barcelona y de su práctica en el estudio Viaplana-Piñón, donde adquiere el gusto por la precisión en el dibujo técnico, la delineación sobre papel vegetal o el grafismo constituido exclusivamente a base de líneas del mismo grosor, Miralles pronto evoluciona hacia un método caracterizado por un personal uso del sistema diédrico, vinculado a una concepción fragmentaria de la planta de arquitectura y del espacio mismo. Miralles proyectará por fragmentos de planta, asignándoles una geometría característica para diferenciarlos entre sí y desarrollar su espacialidad y sección con cierta autonomía, a través de planos y maquetas independientes. Gran parte de la arquitectura que elabora con Carme Pinós, en solitario o con Benedetta Tagliabue, estará compuesta por colecciones de piezas heterogéneas herederas de los fragmentos de la planta original, que encajan entre sí no en base a esquemas clásicos de integración subordinada o jerárquica, sino a través de posiciones relativas de yuxtaposición o superposición, caracterizadas por una ausencia de compacidad en la solución de conjunto. Este sistema de representación se apoya por tanto en la geometría como mecanismo de diferenciación por piezas, se basa en la fragmentación del diédrico desde la fragmentación de la planta, y en la falta de compacidad como soporte de pensamiento separativo. Un sistema que se define como “planta Miralles”, término que incluye todas las técnicas de representación empleadas por el arquitecto, desde planos a maquetas, pero que enfatiza la importancia estratégica de la planta como origen y guía del proyecto de arquitectura. La tesis se estructura en los tres primeros capítulos como un corolario de las categorías enunciadas, explicando, en orden cronológico a través de los proyectos, la evolución de la geometría, la utilización del diédrico, y el impacto de la falta de compacidad en la obra construida. Mientras que estos capítulos son globales, se refieren a la trayectoria de este método en su totalidad, el cuarto y último es un estudio de detalle de su aplicación en un proyecto particular, el Ayuntamiento de Utrecht, a través de los dibujos originales de Miralles. Tanto en la explicación global como en el estudio de detalle de este sistema de representación, la tesis pone de manifiesto su instrumentalidad en el pensamiento de esta arquitectura, argumentando que ésta no podría haber sido desarrollada sin la existencia del mismo. La relación entre representación y pensamiento es por tanto un tema capital para explicar esta obra. No obstante, hasta la fecha, las referencias al mismo en la bibliografía disponible no han pasado de ser una colección de opiniones dispersas, incapaces de construir por sí mismas un cuerpo estructurado y coherente de conocimiento. Se ha insistido sobremanera en el análisis y contextualización de los proyectos individuales, y poco en el estudio de la técnica proyectual utilizada para pensarlos y llevarlos a cabo. En definitiva, se han priorizado los resultados frente a los procesos creativos, existiendo por tanto un inexplicable vacío teórico respecto a un tema de gran importancia. Este vacío es el marco donde se inserta la necesidad de esta tesis doctoral. La investigación que aquí se presenta explica el origen y evolución del sistema de representación de Enric Miralles, desde su etapa como estudiante en la Escuela de Arquitectura de Barcelona hasta los últimos proyectos que elabora con Benedetta Tagliabue, así como el estudio de sus consecuencias en la obra construida. Termina concluyendo que su desarrollo es paralelo al de la arquitectura de Miralles, poniendo de manifiesto su vinculación y mutua interdependencia. ABSTRACT It is impossible to dissociate the evolution of the architecture of Enric Miralles from the development of his own system of representation. Starting from a position inherited from his training at the Barcelona School of Architecture and his practice at the office of Viaplana-Piñón, where he acquires a liking for precision in drafting and a graphic style based exclusively on lines of the same thickness, Miralles soon moves into a method defined by a customized use of the dihedral system, connected to a fragmented conception of the floorplan and space itself. Breaking up the floorplan into multiple fragments, Miralles will design an architecture where each of them has a unique shape and geometry, developing their sections and spatial qualities with a certain degree of autonomy within the whole, through separate plans and models. Many of the projects he designs with Carme Pinós, individually or with Benedetta Tagliabue, will consist of collections of heterogeneous pieces, heirs of the original floorplan fragments, which do not fit together according to classical principles of subordinate or hierarchical integration, but based on relative positions of juxtaposition or superposition that lead to a lack of compactness in the overall scheme. This system of representation is thus based on the use of geometry as a way of differentiating architectural pieces, on the fragmentation of the dihedral system from the fragmentation of the floorplan, and on a lack of compactness as a device of separative thinking. This system is defined as “Miralles plan”, a term that includes all techniques of representation used by the architect, from plans to models, and that emphasizes the particular importance of the floorplan as the guiding force of the design process. The first three chapters of the thesis have been structured as a corollary of these categories, explaining, in chronological order through Miralles’ projects, the evolution of geometry, the customization of the dihedral system, and the impact of the lack of compactness on the built work. While these three chapters are global, for they refer to the overall evolution of this system, the fourth and last one is a case study of its application to a particular project, the Utrecht Town Hall, through Miralles’ original drawings. Both in the global and particular explanations of this system of representation, the thesis highlights its instrumentality in the process of thinking this architecture, arguing that it could not have been designed without its parallel development. The relationship between thinking and representation is therefore a key issue to explain this architecture. However, to date, existing references to it in the available literature have not evolved from a collection of scattered opinions, unable to build for themselves a structured and coherent body of knowledge. Great emphasis has been put on the critical contextualization of this architecture through the analysis of the projects themselves, but little on the study of the design technique used to think and carry them out. Results have been prioritized over creative processes, existing therefore an inexplicable theoretical void on an issue of great importance. This void is the conceptual framework where the need for this thesis is inserted. This research explains the origin and evolution of Enric Miralles’ system of representation, from his time as student at the Barcelona School of Architecture to the last projects he designed with Benedetta Tagliabue, as well as the study of its impact on the built work. It concludes that the development of this system runs parallel to that of the architecture it is used for, making it explicit its indissolubility and mutual interdependence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La afirmación de que las primeras realizaciones arquitectónicas y de ingeniería estructural son tan antiguas como la civilización no es gratuita. En efecto, tan pronto como se desea cubrir un espacio, salvar un vano o transmitir un empuje (vertical u horizontal), es preciso el desarrollo de un conocimiento específico. El dominio de las técnicas para resolver,en particular, tales problemas ha sido transmitido a través de construcciones religiosas o áulicas que han permanecido a través de los siglos como puntos de referencia y muestra de la habilidad, el ingenio y la audacia de las generaciones predecesoras. Obras como el puente de Alcántara (Cáceres), la mezquita de Córdoba y el monasterio de El Escorial (Madrid) -de los siglos I, X y XVI, respectivamente- demuestran la personalidad de sus proyectistas pero también sus conocimientos constructivos, su capacidad organizadora y la ambición y poderío económico de sus promotores. De hecho, aunque la habilidad para combinar mecanismos estructurales se encuentra en todos los artefactos manejados por el hombre, es en el ámbito de la edificación y de las obras públicas donde, hasta épocas relativamente recientes, se encuentran los ejemplos más espectaculares de estructuras resistentes. Éstos sólo aparecen, sin embargo, cuando coincide la calidad de cada uno de los tres factores que intervienen en la obra, es decir, un proyectista con imaginación y conocimientos, una industria de la construcción capaz de ofrecerle los materiales más adecuados y de llevar a cabo los procesos constructivos que aquél imagine, y un promotor con solvencia económica pero también capaz de calibrar las ventajas de las soluciones que se ofrecen y apreciar factores imponderables como la innovación o la estética, que tanto añaden al cumplimiento de los factores utilitarios que se encuentran en la motivación de las construcciones. A lo largo de la historia los proyectistas españoles han dado pruebas de calidad en algunas realizaciones que se comentarán a continuación y siempre han demostrado un buen conocimiento del estado del arte en el exterior.Sin embargo, no puede decirse que ése haya sido el caso de los promotores o de la industria que, por uno u otro motivo, se ha visto muy afectada por avatares políticos o decisiones económicas equivocadas. Las quejas de Pablo Alzola sobre el "espíritu cosmopolita con que abrimos nuestras puertas a quienes nos las cierran herméticamente", el cual, en el siglo XIX, facilitó las franquicias a la importación de materiales relacionados con la industria ferroviaria, condenando esta importación "a muerte el porvenir de la industria española de hierro y acero, base muy principal de prosperidad en todas las naciones juntas", resuenan de nuevo en relación con la integración europea. Ello se explica por la tendencia general hacia el rendimiento inmediato de las capitales con la consiguiente destecnificación propia y penetración de productos extranjeros conseguidos mediante una investigación coordinada entre administración, industria y universidad. La falta de grupos organizados, de lo que es una interesante excepción la industria del hormigón, ha provocado en muchos ámbitos una ausencia de legislación propia que la industria nacional actualmente echa en falta como defensa específica en términos técnicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los métodos numéricos aplicados al estudio de estructuras sometidas a esfuezos de origen sísmico han sido utilizados habitualmente en ingeniería. La limitación tradicional con que se encontraba el analista radicaba en el enorme esfuerzo de cálculo mecánico necesario para obtener respuestas significativas tan pronto como el modelo matemático a analizar presentaba una cierta complejidad. Esta situación se vió sustancialmente modificada por la aparición del ordenador que, justamente, libera al proyectista del trabajo repetitivo irracional y permite dedicar tiempo a la reflexión, a la par que aumenta espectacularmente la capacidad de modelado. No es extraño pues, que en los ultimos 30 años se haya asistido a un renacimiento de una rama de la Matemática que parecía agostada y que ,fecundada por la nueva herramienta ha florecido en un sinf{n de técnicas y procedimientos que ponen al alcance del ingeniero el análisis de virtualmente, cualquier problema estructural. En este capítulo se pretende exponer algunas de las ideas subyacentes en estos métodos nuevos así como su posible aplicación al campo que nos interesa. Evidentemente, la limitación de espacio impedirá profundizar adecuadamente en los temas, pero la finalidad última será dotar al estudioso de un marco general en el que situar posteriores aventuras intelectuales. El contenido se articula en tres grupos principales que se refieren, respectivamente al modelado de la solicitación sísmica, de la estructura y cimiento, y al análisis de la respuesta. Tras lo dicho anteriormente, una exposición que no incluyese alguna manifestación palpable de la influencia de la máquina, estaría indefectiblemente esviada. Por ello, se incluyen como apéndices cuatro bloques de subrutinas; dos de ellas, en lenguaje Basic de microordenador, se refeiren a la transformada rápida de Fourier de la que se hablará más adelante, y al cálculo de autovalores de estructuras formadas por barras; la tercera es un pequeño programa en Fortran IV, que permite obtener la respuesta de un sistema de un grado de libertad por un método de integracidn paso a paso. En el primer apartado se inserta tambien un programa de determinación de hipocentros. Todas las subrutinas son elementales y ampliamente mejorables. Creemos sin embargo que ello las hace especialmente legibles lo que puede impeler su uso y mejora par el estudiante ; intervención, en definitiva ,deseada y que es el más importante objetivo al que aspiramos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cemento natural fue patentado en Inglaterra en 1796, pero no llegó a España hasta 1835, aunque todavía se discute dónde comenzó la producción nacional, ya que surgió casi simultáneamente en el País Vasco (Zumaya y Rezola) y en Cataluña (San Celoní y San Juan de las Abadesas). Desde entonces fue ampliamente utilizado en la ornamentación arquitectónica durante el siglo XIX y principios del siglo XX en Madrid. Con su llegada reemplazó materiales tradicionales que se utilizaban anteriormente, como las cales aéreas e hidráulicas, y el yeso. Sin embargo, su uso no se alargó en el tiempo, pues pronto fue sustituido por el cemento Portland. En la actualidad, lo que queda de el son cientos de " testimonios de piedra" que hay que conservar y reparar ocasionalmente de la mejor manera posible. Las propiedades finales del cemento natural dependían en gran medida de las materias primas utilizadas y su temperatura de obtención y en general, se caracterizaba por un fraguado rápido (aproximadamente de 15 minutos), una buena resistencia y un agradable color ocre. Esta comunicación muestra las características de las fachadas madrileñas del S.XIX recubiertas con morteros de cemento natural, su estado de conservación y deterioro, así como los daños producidos como resultado de intervenciones desafortunadas en las que han empleado materiales no compatibles con este cemento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El requerimiento de proveer alta frecuencia de datos en los modernos sistema de comunicación inalámbricos resulta en complejas señales moduladas de radio-frequencia (RF) con un gran ancho de banda y alto ratio pico-promedio (PAPR). Para garantizar la linealidad del comportamiento, los amplificadores lineales de potencia comunes funcionan típicamente entre 4 y 10 dB de back-o_ desde la máxima potencia de salida, ocasionando una baja eficiencia del sistema. La eliminación y restauración de la evolvente (EER) y el seguimiento de la evolvente (ET) son dos prometedoras técnicas para resolver el problema de la eficiencia. Tanto en EER como en ET, es complicado diseñar un amplificador de potencia que sea eficiente para señales de RF de alto ancho de banda y alto PAPR. Una propuesta común para los amplificadores de potencia es incluir un convertidor de potencia de muy alta eficiencia operando a frecuencias más altas que el ancho de banda de la señal RF. En este caso, la potencia perdida del convertidor ocasionado por la alta frecuencia desaconseja su práctica cuando el ancho de banda es muy alto. La solución a este problema es el enfoque de esta disertación que presenta dos arquitecturas de amplificador evolvente: convertidor híbrido-serie con una técnica de evolvente lenta y un convertidor multinivel basado en un convertidor reductor multifase con control de tiempo mínimo. En la primera arquitectura, una topología híbrida está compuesta de una convertidor reductor conmutado y un regulador lineal en serie que trabajan juntos para ajustar la tensión de salida para seguir a la evolvente con precisión. Un algoritmo de generación de una evolvente lenta crea una forma de onda con una pendiente limitada que es menor que la pendiente máxima de la evolvente original. La salida del convertidor reductor sigue esa forma de onda en vez de la evolvente original usando una menor frecuencia de conmutación, porque la forma de onda no sólo tiene una pendiente reducida sino también un menor ancho de banda. De esta forma, el regulador lineal se usa para filtrar la forma de onda tiene una pérdida de potencia adicional. Dependiendo de cuánto se puede reducir la pendiente de la evolvente para producir la forma de onda, existe un trade-off entre la pérdida de potencia del convertidor reductor relacionada con la frecuencia de conmutación y el regulador lineal. El punto óptimo referido a la menor pérdida de potencia total del amplificador de evolvente es capaz de identificarse con la ayuda de modelo preciso de pérdidas que es una combinación de modelos comportamentales y analíticos de pérdidas. Además, se analiza el efecto en la respuesta del filtro de salida del convertidor reductor. Un filtro de dampeo paralelo extra es necesario para eliminar la oscilación resonante del filtro de salida porque el convertidor reductor opera en lazo abierto. La segunda arquitectura es un amplificador de evolvente de seguimiento de tensión multinivel. Al contrario que los convertidores que usan multi-fuentes, un convertidor reductor multifase se emplea para generar la tensión multinivel. En régimen permanente, el convertidor reductor opera en puntos del ciclo de trabajo con cancelación completa del rizado. El número de niveles de tensión es igual al número de fases de acuerdo a las características del entrelazamiento del convertidor reductor. En la transición, un control de tiempo mínimo (MTC) para convertidores multifase es novedosamente propuesto y desarrollado para cambiar la tensión de salida del convertidor reductor entre diferentes niveles. A diferencia de controles convencionales de tiempo mínimo para convertidores multifase con inductancia equivalente, el propuesto MTC considera el rizado de corriente por cada fase basado en un desfase fijo que resulta en diferentes esquemas de control entre las fases. La ventaja de este control es que todas las corrientes vuelven a su fase en régimen permanente después de la transición para que la siguiente transición pueda empezar muy pronto, lo que es muy favorable para la aplicación de seguimiento de tensión multinivel. Además, el control es independiente de la carga y no es afectado por corrientes de fase desbalanceadas. Al igual que en la primera arquitectura, hay una etapa lineal con la misma función, conectada en serie con el convertidor reductor multifase. Dado que tanto el régimen permanente como el estado de transición del convertidor no están fuertemente relacionados con la frecuencia de conmutación, la frecuencia de conmutación puede ser reducida para el alto ancho de banda de la evolvente, la cual es la principal consideración de esta arquitectura. La optimización de la segunda arquitectura para más alto anchos de banda de la evolvente es presentada incluyendo el diseño del filtro de salida, la frecuencia de conmutación y el número de fases. El área de diseño del filtro está restringido por la transición rápida y el mínimo pulso del hardware. La rápida transición necesita un filtro pequeño pero la limitación del pulso mínimo del hardware lleva el diseño en el sentido contrario. La frecuencia de conmutación del convertidor afecta principalmente a la limitación del mínimo pulso y a las pérdidas de potencia. Con una menor frecuencia de conmutación, el ancho de pulso en la transición es más pequeño. El número de fases relativo a la aplicación específica puede ser optimizado en términos de la eficiencia global. Otro aspecto de la optimización es mejorar la estrategia de control. La transición permite seguir algunas partes de la evolvente que son más rápidas de lo que el hardware puede soportar al precio de complejidad. El nuevo método de sincronización de la transición incrementa la frecuencia de la transición, permitiendo que la tensión multinivel esté más cerca de la evolvente. Ambas estrategias permiten que el convertidor pueda seguir una evolvente con un ancho de banda más alto que la limitación de la etapa de potencia. El modelo de pérdidas del amplificador de evolvente se ha detallado y validado mediante medidas. El mecanismo de pérdidas de potencia del convertidor reductor tiene que incluir las transiciones en tiempo real, lo cual es diferente del clásico modelos de pérdidas de un convertidor reductor síncrono. Este modelo estima la eficiencia del sistema y juega un papel muy importante en el proceso de optimización. Finalmente, la segunda arquitectura del amplificador de evolvente se integra con el amplificador de clase F. La medida del sistema EER prueba el ahorro de energía con el amplificador de evolvente propuesto sin perjudicar la linealidad del sistema. ABSTRACT The requirement of delivering high data rates in modern wireless communication systems results in complex modulated RF signals with wide bandwidth and high peak-to-average ratio (PAPR). In order to guarantee the linearity performance, the conventional linear power amplifiers typically work at 4 to 10 dB back-off from the maximum output power, leading to low system efficiency. The envelope elimination and restoration (EER) and envelope tracking (ET) are two promising techniques to overcome the efficiency problem. In both EER and ET, it is challenging to design efficient envelope amplifier for wide bandwidth and high PAPR RF signals. An usual approach for envelope amplifier includes a high-efficiency switching power converter operating at a frequency higher than the RF signal's bandwidth. In this case, the power loss of converter caused by high switching operation becomes unbearable for system efficiency when signal bandwidth is very wide. The solution of this problem is the focus of this dissertation that presents two architectures of envelope amplifier: a hybrid series converter with slow-envelope technique and a multilevel converter based on a multiphase buck converter with the minimum time control. In the first architecture, a hybrid topology is composed of a switched buck converter and a linear regulator in series that work together to adjust the output voltage to track the envelope with accuracy. A slow envelope generation algorithm yields a waveform with limited slew rate that is lower than the maximum slew rate of the original envelope. The buck converter's output follows this waveform instead of the original envelope using lower switching frequency, because the waveform has not only reduced slew rate but also reduced bandwidth. In this way, the linear regulator used to filter the waveform has additional power loss. Depending on how much reduction of the slew rate of envelope in order to obtain that waveform, there is a trade-off between the power loss of buck converter related to the switching frequency and the power loss of linear regulator. The optimal point referring to the lowest total power loss of this envelope amplifier is identified with the help of a precise power loss model that is a combination of behavioral and analytic loss model. In addition, the output filter's effect on the response is analyzed. An extra parallel damping filter is needed to eliminate the resonant oscillation of output filter L and C, because the buck converter operates in open loop. The second architecture is a multilevel voltage tracking envelope amplifier. Unlike the converters using multi-sources, a multiphase buck converter is employed to generate the multilevel voltage. In the steady state, the buck converter operates at complete ripple cancellation points of duty cycle. The number of the voltage levels is equal to the number of phases according the characteristics of interleaved buck converter. In the transition, a minimum time control (MTC) for multiphase converter is originally proposed and developed for changing the output voltage of buck converter between different levels. As opposed to conventional minimum time control for multiphase converter with equivalent inductance, the proposed MTC considers the current ripple of each phase based on the fixed phase shift resulting in different control schemes among the phases. The advantage of this control is that all the phase current return to the steady state after the transition so that the next transition can be triggered very soon, which is very favorable for the application of multilevel voltage tracking. Besides, the control is independent on the load condition and not affected by the unbalance of phase current. Like the first architecture, there is also a linear stage with the same function, connected in series with the multiphase buck converter. Since both steady state and transition state of the converter are not strongly related to the switching frequency, it can be reduced for wide bandwidth envelope which is the main consideration of this architecture. The optimization of the second architecture for wider bandwidth envelope is presented including the output filter design, switching frequency and the number of phases. The filter design area is restrained by fast transition and the minimum pulse of hardware. The fast transition needs small filter but the minimum pulse of hardware limitation pushes the filter in opposite way. The converter switching frequency mainly affects the minimum pulse limitation and the power loss. With lower switching frequency, the pulse width in the transition is smaller. The number of phases related to specific application can be optimized in terms of overall efficiency. Another aspect of optimization is improving control strategy. Transition shift allows tracking some parts of envelope that are faster than the hardware can support at the price of complexity. The new transition synchronization method increases the frequency of transition, allowing the multilevel voltage to be closer to the envelope. Both control strategies push the converter to track wider bandwidth envelope than the limitation of power stage. The power loss model of envelope amplifier is detailed and validated by measurements. The power loss mechanism of buck converter has to include the transitions in real time operation, which is different from classical power loss model of synchronous buck converter. This model estimates the system efficiency and play a very important role in optimization process. Finally, the second envelope amplifier architecture is integrated with a Class F amplifier. EER system measurement proves the power saving with the proposed envelope amplifier without disrupting the linearity performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy en día, los sistemas middleware de publicar-suscribir con la filtración de mensajes basado en contenido tiende a ser popularizado, y un sistema como este requiere codificar su mensaje a la combinación de varios elementos que se encuentran en los conjuntos no-interseccionados. Varios predicados posibles en los dominios de esos conjuntos forman un filtro, y el núcleo de algoritmo filtrado es seleccionar filtros adaptados tan pronto como sea posible. Sin embargo, el conjunto, que está formado por los filtros, contiene la extremadamente fuerte indeterminación y distensibilidad, lo que restringe el algoritmo filtrado. Por la resolución de la distensibilidad, se estudió la característica del conjunto de filtros en álgebra, y sabía que es un retículo específico. Por lo tanto, se intenta usar el carácter, el cual los retículos forman un conjunto parcialmente ordenado (o poset, del inglés partially ordered set) con límites, para reducir el tamaño de conjunto de filtros (compresión equivalente). Por estas razones, es necesario implementar un contenedor abstracto de retículo, y evaluar su desempeño tanto en la teoría, como en la práctica, para la solución de la distensibilidad del conjunto de filtros. Retículo (Lattice) es una estructura importante de Álgebra Abstracta, comúnmente se utiliza para resolver el problema teórico, y apenas de ser un contenedor abstracto en la ciencia de software, como resultado de su implementación compleja que proviene de su trivialidad en álgebra. Y por eso se hace difícil mi trabajo. Con el fin de evitar la teoría compleja del sistema práctico, simplemente introduce su núcleo algoritmo, el algoritmo de conteo, y esto llevó a cabo con el problema - la distensibilidad del conjunto de filtros. A continuación, se investigó la solución posible con retículos en la teoría, y se obtuvo el diseño de la implementación, normas para las pruebas xUnit y par´ametros para la evaluación. Por último, señalamos el entorno, el resultado, el análisis y la conclusión de la prueba de rendimiento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Acercarse a las obras de José M. García de Paredes, y mirarlas como un conjunto de ideas que nos indican una manera de pensar y de hacer arquitectura, nos explica un ideario que persiste en el tiempo. Tomando prestado el término “explicar” en el sentido que Stravinski le da en su Poética musical1: desplegar, desarrollar, describir una cosa, descubrir y aclarar su génesis, se comprueban las relaciones que cosas aparentemente dispersas tienen entre si, cómo se originan las obras para saber cómo determinan la arquitectura, una vez que ésta tiene vida propia y uso, pasado el tiempo. El motivo de esta tesis se encuentra en el orden, análisis y estudio de su archivo, realizado a partir del año 1990. García de Paredes, titulado en Madrid, fue arquitecto entre 1950 y 1990 y se inició en la arquitectura en un tiempo tan complejo como el actual. No fue un teórico de la arquitectura, si bien conoció en profundidad su teoría y dejó escritos y reflexiones sobre la manera de abordar el proyecto. Quizás no fue un arquitecto radicalmente innovador y sus obras son silenciosas, aunque muchas encierran planteamientos rotundos que permanecen voluntariamente en penumbra. Sin embargo sus obras son nítidas, tienen el valor de la coherencia y son valiosas por el conocimiento y por los valores que transmiten. Han cumplido su objetivo y ahora son parte de los lugares para los que se construyeron y parte de la vida de las personas para las que se proyectaron. En gran medida, poseen ya la pátina del tiempo. Su obra, no muy extensa, aúna ideas necesarias para abordar la práctica del proyecto y para llegar a ese voluntario resultado final en el que la arquitectura sea, además de una expresión personal, una actividad social capaz de hacer mejor la vida de las personas. Mirar la arquitectura de García de Paredes a través del estudio de todas las cuestiones que intervienen en ella y convertir su conocimiento en un instrumento útil de trabajo en el proyecto, es el objetivo de esta tesis. Así se analizan determinadas obras para exponer temas de antes y de ahora, ideas que son a la vez antiguas y contemporáneas. Este ideario sobre la arquitectura de García de Paredes no pertenece sólo a un tiempo, pues la bella utilidad social de la arquitectura y cómo llegar a ella a través del conocimiento y de la economía intelectual, sigue vigente. Y este objetivo tiene claramente una segunda lectura, pues al poner en valor el ideario de su obra, la presente tesis constituye tanto un homenaje como un agradecimiento al arquitecto. Sintetizar este ideario ha necesitado tanto del tiempo para organizar un archivo como de la práctica de la arquitectura para constatarlo. Durante una década, entre 1981 y 1990, trabajé en el estudio de José M. García de Paredes, con la mirada enfocada hacia los proyectos que entonces se desarrollaban en su estudio. En esos años, la música y las secciones de las salas de concierto llenaban las mesas de dibujo. En 1990, tras su inesperada marcha, me encontré con un legado de documentos que constituyen un fragmento de la arquitectura contemporánea española, que encierran la explicación de proyectos y planteamientos que son respuesta clara a la realidad de su momento. La preparación entonces de la documentación para las tres monografías sobre su obra me llevó a ordenar, clasificar y a documentar los fondos del estudio de manera sistemática y cronológicamente. Los documentos, conservados en archivadores y tubos sin numerar, desvelaban una obra en un momento en el cual el escenario de fondo del debate sobre arquitectura era ético. De manera casi artesanal y próximo de un grupo coherente de arquitectos, algunos vinculados también a las artes plásticas, García de Paredes utiliza los medios materiales a su alcance, interpretando la realidad de una forma personal, alejada de la frialdad del movimiento moderno estricto, con una voluntad de mejorarla y de prescindir de todo aquello que no fuera necesario. Las obras dan respuesta a esa realidad de tal manera que la transforman, como si de un “mágico realismo” se tratara. Estos documentos con olor a antiguo, más que narrar una historia, explican la manera en que se ha hecho esa historia, cómo las biografías y los acontecimientos se entrelazan para llegar al conocido resultado final. Y de un primer análisis, disponiéndolos a la vista de un mismo tiempo, va surgiendo otro interés que no es el de explicar su obra sino el de observar el proceso de trabajo de un arquitecto para desvelar un método de proyecto. Sobre el método de trabajo de un músico, Azorín se pregunta en su artículo “Vida imaginaria de Falla”: “Es fácil ver trabajar a un pintor, no es tan fácil ver enfrascado en su labor a un literato, aunque en las redacciones solamos ver cómo escribe un poeta que hace artículos para un periódico. ¿Pero cómo imaginamos a un músico en su tarea?. ¿Cómo escribe un músico?. ¿Es que siente de pronto un arrebato lírico y un poco desmelenado, los músicos deben llevar el pelo largo, se sienta al piano y comienza a tañer como una inspirada pitonisa?. ¿es que se levanta a media noche y, arrebatado por la inspiración y a la luz de la luna, si la hay, escribe febrilmente esas garrapatitas que vemos en los hilos telegráficos de la música?" Manuel de Falla en una carta le responde: “Nada de eso, mi querido amigo, mi trabajo de compositor no es tan misterioso como usted imagina: podría compararse al de un escritor que fuera a la vez arquitecto”. ¿Y cómo trabaja un arquitecto?. La complejidad del proceso arquitectónico nos presenta sin embargo resultados finales que sólo a través de una observación minuciosa permiten entrever el recorrido desde el pensamiento hasta la obra acabada. El escritor narra lo que ve o imagina y el arquitecto construye y da forma a esa realidad o a esos deseos y para ello debe mirar, escuchar y debe saber hacer. Analizar este proceso nos lleva inexorablemente a desvelar las claves que hacen valiosas determinadas arquitecturas. En junio de 1986 García de Paredes escribe el texto “Tres paisajes con arquitecturas”4. El texto describe tres paisajes culturales diferentes en distintos tiempos. El primero que describe es el Madrid neoclásico y el significado que tiene en este paisaje el Museo del Prado. El segundo paisaje se denomina “Alhambra versus Carlos V” y en él relata un delicado escenario donde se entrelazan distintas cuestiones relativas a la intervención en lugares históricos. En el tercer paisaje “Paisaje con Ruinas” tras describir las hermosas ruinas físicas del pasado concluye con una reflexión: “Hay ruinas y ruinas… Pero quizá no sean estas las verdaderas ruinas de nuestro tiempo. Qué clase de ruina producirá nuestra modesta arquitectura del siglo XX?. Nuestro legado no debería leerse en clave de piedras como las de otras épocas que no disponían de otro lenguaje que el de construir para los tiempos. Sin embargo es posible que surjan otras claves, quizá aún no bien conocidas, que sean para las generaciones futuras de tan clara lectura como la de este tercer Paisaje”. Encontrar esas claves contemporáneas, es el objeto de este paseo por las obras y escritos de García de Paredes. Mirar, suprimido el tiempo, los planos, dibujos, escritos, libros y fotografías del archivo del arquitecto, ordenando y comprendiendo los motivos que propiciaron cada obra, nos lleva a pensar que la arquitectura de cada momento es sólo un desplazamiento de los anteriores. Nada ahora es completamente distinto de lo que era entonces y la arquitectura de antes puede ser interpretada, más allá de aspectos formales, por otras generaciones, desdibujándose el tiempo donde pretendemos ordenarla. Este legado de claves conceptuales nos es útil ahora para conocer lo que permanece en la arquitectura pensando en cuestiones actuales a través de papeles antiguos. El legado de esa “modesta arquitectura” no se debe leer pues en clave de “piedras”, como expresaba García de Paredes. Gran parte de sus obras se construyen con materiales sencillos y la lectura de su valor no es directa. Sin embargo explican en qué momento la arquitectura pasa a ser un hecho capaz de transmitir intenciones ocultas y convertirse en una actividad social en sintonía con la realidad. Desvelar esta colección de ideas para enfocar cuestiones de arquitectura, en el convencimiento de que este ideario es tan válido hoy como entonces, nos acerca a ese utópico método de trabajo del arquitecto. En este ciclo abierto se han seleccionado determinadas obras que permiten plantear mejor las cuestiones que ilustran su razón de ser y así pues se suceden lugares y personas, números y geometrías, música, artes plásticas y arquitecturas. ABSTRACT Looking at the work of José M. García de Paredes as a set of ideas that outline a way of imagining and producing architecture, explains a vision that has persisted in time. Employing the word “explain” in the same sense as Stravinsky in his Poetics of Music: deploying, developing and describing something, discovering and clarifying its origins as a way of observing the relationships between things and the way designs originate in order to understand how they determine the architecture, once it has a life and use of its own after time has passed. This thesis is based on an analysis of the archives of José M. Garcia de Paredes, which began in 1990. After graduating from the Madrid School in 1950 —an equally complex time as today— he continued to practise architecture until 1990. He was not an architectural theorist but he had a deep understanding of theory and left essays and ideas on the way to tackle projects. Although he may not have been a radically innovative architect and his work may seem subdued, much of it embodies categorical approaches, which are deliberately overshadowed. Nevertheless, his work is sharp, consistent and is valuable for the knowledge and values it transmits. It has served its purpose, it now forms part of the places for which it was built and has become part of the lives of the people it was designed for. To a large extent, his buildings already show the patina of time. While not large in number, they bring together the ideas needed to put a project into practice and arrive at an end result in which the architecture is also a personal expression, a social activity that makes life better for people. The discourse takes a new look at the architecture of Garcia de Paredes through an analysis of all the issues involved in order to turn the resulting knowledge into a useful tool for project work. It therefore now, ideas that are old but at the same time contemporary. This vision time. The beautiful social utility of his architecture and the way he arrived at it through knowledge and intellectual economy still remain valid. The synthesis of this vision has required much time to organize the archive and also a professional architectural practice to put it into perspective. The preserved documents reveal a body of work that was designed at a time when ethics shaped the underlying scenario of the Relación de architectural debate. The architect used the material resources at his disposal in an almost craftsman-like way, in the company of a congruent group of architects. He interpreted reality in a personal way, removed from the coldness of the strict Modern Movement, striving to improve it and strip off anything that was unnecessary. His buildings responded to their context in such a way that transformed it, as if they were “magical realism”. Another line of analysis emerged from an initial analysis, with all the documents in view at the same time: not to explain his work but rather to study the design process of an architect in order to discover a method. In 1986, García de Paredes wrote “Three landscapes with architectures”, which describes three cultural landscapes in different times. After describing the beauty of the physical ruins of the past, the third landscape, “Landscape with Ruins”, concludes with this observation: “There are ruins and ruins ... But these might not be the real ruins of our time. What kind of ruin will be produced by our modest 20th century architecture? Our legacy should not be interpreted in the key of mere stones, like those of past eras which had access to no other language than construction for all times. Other keys, perhaps not yet familiar, may well emerge and be as legible for future generations as this third Landscape”. This tour of the work and writings of Garcia de Paredes is aimed at discovering these contemporary keys. The legacy of such keys can now help us to know what endures in architecture; thinking about current issues through the perspective of old papers. Having set aside the time factor, looking at the drawings, essays, books and photographs from the architect’s archives, organising and understanding the reasons that gave rise to each work, I now believe that the architecture of each moment is only previous work that has been shifted. Nothing is completely different now from what it was back then. The architecture of the past can be interpreted by other generations, looking beyond the aspects of form, blurring the time factor when we want to order it. For this purpose I have selected particular works that permit a better enunciation of the issues that illustrate their rationale, hence the succession of places and people, numbers and geometries, music, art and architectures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las funciones principales de los envases son la contención del alimento y su protección y preservación de la contaminación externa, contribuyendo también a la comodidad, el marketing y la comunicación con el consumidor. La alta penetración de tecnologías que posibilitan el acceso a la información en todos los ámbitos y en tiempo real, junto con el abaratamiento de las tecnologías que permiten la actuación y monitorización sobre los envases individuales, son las razones tecnológicas que se combinan con otras razones legislativas y sociológicas, como las demandas y las exigencias de unos consumidores formados y una normativa cada vez más restrictiva, para hacer suponer que los envases activos e inteligentes serán muy pronto realidades frecuentes en nuestras estanterías. En este trabajo se presentan algunas de las soluciones que ya existen en el mercado y otras que estarán disponibles en un futuro muy próximo para incorporar/integrar en los envases tradicionalmente empleados en productos líquidos como zumos y batidos de frutas y hortalizas frescos, elementos activos e inteligentes que jugarán un papel importante en la diferenciación de estos productos en los mercados de los países europeos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el día a día y mantenimiento de una empresa o negocio, pronto surge la necesidad de gestionar y almacenar la información, y según va creciendo la cantidad de información relativa al negocio, es más importante o primordial la adopción de soluciones y/o aplicaciones informáticas que nos faciliten dichas labores. Años atrás, antes de que las aplicaciones informáticas estuvieran al alcance de todo tipo de negocios, no quedaba otra solución que almacenar grandes cantidades de información impresa, lo cual implica un gran esfuerzo y trabajo, disponer del espacio necesario y correr ciertos riesgos ante posibles errores o fallos en su gestión. Actualmente las aplicaciones informáticas están prácticamente al alcance de cualquier pequeña y mediana empresa. Con dichas aplicaciones conseguimos un gran almacenamiento, control y gestión de la información, y además se disminuye el esfuerzo humano, la necesidad de amplios almacenes, y probabilidad de errores en la gestión de dicha información. Pero no todo serán ventajas. Dependiendo del tipo y complejidad de la aplicación, se necesitará un personal más o menos especializado informáticamente, o bien la aplicación de una formación informática específica a aquel personal que la necesitase para poder manejar la aplicación correctamente. Por otro lado habría que invertir en la maquinaria adecuada para poder ejecutar la aplicación sin problemas, lo cual conlleva un coste y un futuro mantenimiento. Y además hay que ser conscientes que a partir del momento en que se informatiza un negocio, la empresa y el funcionamiento de la misma pasan a depender en mayor medida del correcto funcionamiento de una “máquina”, pero para ello existen sistemas y copias de seguridad que mitigan dichos riesgos. Es obvio que existen grandes ventajas y también ciertos riesgos, pero parece claro que una vez que se informatiza un negocio, el almacenamiento y gestión de la información es mucho más sencillo y ágil. Una vez decidida la informatización del negocio, hay que decidir si se acude a algunas de las soluciones informáticas que ya existen implementadas en el mercado, o bien se elige la solución de implementar una aplicación a medida según las necesidades y características del negocio. En función del tipo de negocio y los gustos del empresario, se adoptará por una solución u otra, siendo cualquiera de ellas totalmente válida. En el caso que nos aborda, acometeremos la informatización de un gimnasio que además ofertará como opción un servicio de guardería para los bebés de los clientes, para que de esta manera los clientes puedan realizar sus ejercicios físicos con total tranquilidad y despreocupación respecto a sus bebés. Los objetivos que se persiguen al informatizar el negocio son: -Agilizar, simplificar y potenciar la gestión de la empresa. -Reducir la cantidad de información impresa que se maneja actualmente. -Tener mayor control global del negocio. -Ofrecer mayor transparencia y velocidad de respuesta en la información proporcionada a los clientes. -Facilitar las posibles futuras ampliaciones del negocio. Para cumplir dichos objetivos se implementará una aplicación estructurada en los diferentes módulos que componen nuestro negocio, y a la vez tendrá un aspecto y funcionamiento muy homogéneo para facilitar su utilización y explotación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La HfG abrió sus puertas en 1953 con el objetivo de regenerar a través del diseño una sociedad devastada tras la guerra. Abordó, fusionando formación académica y politécnica, el diseño de todo tipo de objetos bajo una perspectiva racional. Sin embargo, pronto surgió la controversia dentro de su claustro. Esta investigación pretende revisar no solo los motivos del arquitecto Max Bill en su defensa del Curso Preliminar de adiestramiento estético, sino también por qué surgieron como reacción las tesis antiestéticas del teórico Tomás Maldonado y del diseñador Otl Aicher, que antepusieron sucesivamente, frente a la pedagogía idealista de Max Bill, la metodología científica y la praxis proyectual. HfG was founded in 1953 with the aim of transforming, through design, a devastated postwar society. By combining academic and polytechnic training, it endeavored to design all kinds of objects through a rational perspective. However, controversy soon emerged amongst the faculty. This research seeks to review not only the motivation of the architect Max Bill in defending the Preliminary Course of esthetical training, but also to explain the reasons that led to the unaesthetic reactions of the theorist Tomas Maldonado and the designer Otl Aicher, who successively prioritised scientific methodology and project praxis as alternatives to Max Bill's idealist pedagogy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aunque se han logrado importantes avances en estudios de laboratorio con diseños experimentales poco representativos (e.g., Farrow y Reid, 2012; Nieminen, Piirainen, Salmi, y Linnamo, 2013), a día de hoy, todavía se desconoce a cabalidad cómo los jugadores de tenis de diferente nivel de pericia calibran o ajustan sus movimientos a las demandas espacio-temporales presentes en la tarea de resto de un primer servicio. ! Escasos trabajos se han llevado a cabo in situ y a la mayoría se les puede cuestionar algún aspecto de la metodología empleada. Así pues, en varios estudios la frecuencia de grabación ha sido limitada (e.g., a 50 Hz en Jackson y Gudgeon, 2004; Triolet, Benguigui, Le Runigo y Williams, 2013), o la velocidad del saque ha sido visiblemente inferior a la habitual (cf. Carboch, Süss y Kocib, 2014; Williams, Singer y Weigelt, 1998). También, en algunos estudios los participantes experimentados no han sido jugadores de nivel internacional (e.g., Avilés, Ruiz, Sanz y Navia, 2014), y el tamaño muestral ha sido muy pequeño (e.g., Gillet, Leroy, Thouvarecq, Mégrot y Stein, 2010). ! Además, en los diferentes trabajos se han utilizado una diversidad de métodos e instrumentos de medida y los criterios de codificación del inicio de los movimientos y de las respuestas han diferido; como consecuencia el lapso visomotor de respuesta (LVMr) ha sido muy dispar variando considerablemente de 198 a 410 ms. Considerando los inconvenientes señalados anteriormente, el presente estudio tuvo como objetivo determinar un modelo técnico de regulación temporal de los movimientos y de la respuesta del restador, tomando en cuenta el flujo continuo de información proporcionado por el sacador. Para ello, se realizó un análisis cronométrico de los restos de doce jugadores de diferente nivel deportivo (seis internacionales y seis nacionales) que respondieron de forma natural enviando sus devoluciones hacia las dianas. Se grabaron las acciones de los restadores y sacadores con una cámara Casio Exilim Pro Ex-F1 de alta velocidad (300 Hz) y luego se realizó un análisis imagen por imagen cada 3.33 ms. Una vez obtenidos los datos de los vídeos se realizaron análisis con las pruebas de ANOVA de un factor, ANCOVA con la velocidad del saque como covariable, U de Mann-Whitney y Chi-cuadrado de Pearson. En cuanto a la regulación del movimiento hasta el momento del despegue, los jugadores internacionales iniciaron sus acciones antes que los jugadores nacionales lo que podría indicar una mejor preparación al ejecutar los movimientos como reflejo del nivel de pericia. Los jugadores internacionales iniciaron la elevación del pie posterior a -293 ms y los jugadores nacionales a -202 ms. Todas estas acciones se fueron enlazando unas con otras y fue en el momento del impacto del sacador donde los restadores demostraron una remarcable coordinación perceptivo-motriz. Por consiguiente, los jugadores internacionales despegaron e iniciaron el vuelo a tan solo -6.5 ms del impacto y los jugadores nacionales lo hicieron más tarde a +19.5 ms. A lo largo de la secuencia temporal, todo parece indicar que las informaciones que utilizan los restadores interactúan entre sí; información más temprana y menos fiable para anticipar o moverse antes e información más tardía y más fiable para regular la temporalización de las acciones. Los restadores de nivel internacional y nacional anticiparon a nivel espacial en un bajo porcentaje (7.7% vs. 13.6%) y en tiempos similares (-127 vs. -118 ms) sugiriendo que la utilización de variables ópticas tempranas y menos fiables solo se produce en contadas ocasiones. Por otra parte, estos datos se relacionan con una gran precisión en la respuesta ya que tanto los jugadores internacionales como los nacionales demostraron un alto porcentaje de acierto al responder (95.4% vs. 96.7%). Se había señalado que los jugadores internacionales y nacionales se diferenciarían en el tiempo de caída (i.e., aterrizaje) del primer pie del salto preparatorio, sin embargo ese efecto no fue encontrado (128 vs. 135 ms). Tampoco se hallaron diferencias en el porcentaje de caída con el pie contrario a la dirección de la pelota (58% vs. 62%). Donde sí ambos grupos se diferenciaron fue en el tiempo de caída del segundo pie (147 vs. 168 ms). Esta diferencia de 21 ms fue crucial y fue una prueba de la mayor rapidez de los jugadores internacionales; sugiriendo que ésta acción se podría relacionar con el momento del inicio de la respuesta. Aunque los jugadores internacionales hayan demostrado ser más rápidos en relación con sus capacidades funcionales, ambos grupos no se diferenciaron en todas las variables relacionadas con el LVMr. Ellos no utilizaron esos valiosos milisegundos ganados en el instante de la caída del segundo pie para responder más pronto, ya que el LVMr del miembro superior fue el mismo para ambos grupos (179 vs. 174 ms). Es como si hubiesen tenido todo el tiempo del mundo para seguir ajustando sus acciones hasta el propio golpeo. Además, estos tiempos largos sugieren que en la gran mayoría de los restos la información clave que determinó la respuesta fue detectada (extraída) en momentos cercanos al golpeo del sacador y en la primera parte del vuelo de la pelota. Asimismo, se constató que en general el LVMr se ve influenciado por el tipo de información utilizada. De esta manera, cuando se tomaron en cuenta los ensayos en los que hubo anticipación espacial reflejados en el LVMr del cuerpo entero los tiempos disminuyeron (152 vs. 136 ms). Por otra parte, existieron ocasiones (13%) en los que tanto los jugadores internacionales como los nacionales respondieron tarde recibiendo saques directos (208 vs. 195 ms). Es muy posible que en estos casos los jugadores hayan tenido problemas para detectar la información respondiendo fuera de los márgenes temporales de acción lo que mermó su rendimiento. Lo mismo pudo haber ocurrido cuando ambos grupos de jugadores corrigieron el movimiento del miembro superior tras el impacto (17% vs. 10%) lo que aumentó el tiempo en responder al redirigir la respuesta hacia el lado correcto (208 vs. 205 ms). Además, los jugadores internacionales obtuvieron tiempos de movimiento menores que el de los jugadores nacionales (509 vs. 531 ms) lo que se reflejó en un tiempo total de actuación menor (683 vs. 703 ms). Por último, en cuanto al rendimiento del resto, los jugadores internacionales obtuvieron valores superiores a los jugadores nacionales (1.3 vs. 0.9). ABSTRACT Although there have been significant advances in laboratory studies with unrepresentative experimental designs (e.g., Farrow y Reid, 2012; Nieminen, Piirainen, Salmi, y Linnamo, 2013), today it is still unknown to full extent how tennis players of different levels of expertise calibrate or adjust their movements to the spatial-temporal demands present in the return of a first serve. Few studies have been carried out in situ and some aspects of the methodology most of them used can be questioned. Thus, in several studies the recording frequency has been limited (e.g., a 50 Hz en Jackson y Gudgeon, 2004; Triolet, Benguigui, Le Runigo y Williams, 2013), or serve speed was visibly lower than the usual one (cf. Carboch, Süss y Kocib, 2014; Williams, Singer y Weigelt, 1998). Also, in some studies, experienced participants have not played at international level (e.g., Avilés, Ruiz, Sanz y Navia, 2014), and the sample size has been very small (e.g., Gillet, Leroy, Thouvarecq, Mégrot y Stein, 2010). Furthermore, different works have used a variety of methods and measurement instruments and coding criteria of the onset of movements and responses have differed; due to this, visuomotor response delay (LVMr) has been very uneven, varying considerably from 198-410 ms. Considering the drawbacks mentioned above, this study aimed to determine a technical model of temporal regulation of movements and returner’s response, taking into account the continuous flow of information provided by the server. For this, a chronometric analysis of the returns of twelve players (six international and six national) of different sports level, that naturally responded by hitting their returns towards the targets, was performed. Actions of servers and returners were recorded with a Casio Exilim Pro Ex-F1 high speed camera (300 Hz) and then every 3.33 ms analysis was made frame by frame. Once the data of the videos were obtained, analyses were performed using one factor ANOVA test, ANCOVA with the speed of the serve as a covariate, U of Mann- Whitney and Pearson’s Chi-square test. As for the regulation of movement until the moment of serve, international players began their actions before national players, which could indicate that they were better prepared to execute movements reflecting the level of their expertise. International players began raising the rear foot at -293 ms and national players at -202 ms. All these actions were being linked to each other and it was at the moment of impact of the server when the receivers demonstrated a remarkable perceptual-motor coordination. Therefore, international players took off and started their flight just -6.5 ms before the serve and national players did the same somewhat later: +19.5 ms after the serve. Along the timeline, everything seems to indicate that the information used by returners interact with each other; early information which is less reliable to anticipate or move before, and later information more reliable appears to regulate the timing of actions. Returners of international and national levels anticipated at spatial level in a low percentage (7.7% vs. 13.6%) and in similar times (-127 vs. -118 ms) suggesting that the use of early and less reliable optical variables is only produced on rare occasions. Moreover, these data relate to a precise response as both international and national players showed a high percentage of success in responding (95.4% vs. 96.7%). It had been noted that international and national players would differ in the time the fall (i.e., landing) of the first foot of the split-step, however, this effect was not found (128 vs. 135 ms). No differences in the percentage of fall with the opposite foot to the direction of the ball (58% vs. 62%) were found. Where the two groups differed was in the time of the fall of the second foot (147 vs. 168 ms). This difference of 21 ms was crucial and it was a proof of mayor speed of international players; suggesting that this action could be related to the onset time of response. Although international players have proven to be faster in relation to their functional capabilities, both groups did not differ in all variables related to LVMr. They did not use those precious milliseconds earned at the time of the fall of the second foot to respond as soon, since the LVMr of the upper limb was the same for both groups (179 vs. 174 ms). It is as if they had all the time in the world to continue to adjust their actions until the return itself. Furthermore, these long times suggest that in the vast majority of the returns, key information that determined the response was detected (pick-up) in moments close to the hit of the server and in the first part of the ball flight. It was also found that in general the LVMr is influenced by the type of information used. Thus, when taking into account the trials during which there was spatial anticipation, reflected in LVMr of the whole body, the times decreased (152 vs. 136 ms). On the other hand, there were occasions (13%) where both international and national players responded late, thus receiving aces (208 vs. 195 ms). It is quite possible that in these cases the players have had trouble to pick-up information, responding out of temporary margins of action, which affected their performance. The same could have occurred when both groups of players corrected upper limb movement after impact (17% vs. 10%), which increased the time to respond and to redirect the return towards the right side (208 vs. 205 ms). Moreover, international players scored lower movement times than the national players (509 vs. 531 ms), which was reflected in a shorter total response time (683 vs. 703 ms). Finally, as far as the performance of return is concerned, international players scored above the national players values (1.3 vs. 0.9).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se describen someramente las características de diversos programas de intercambio de estudiantes universitarios, en particular del ERASMUS, el cual pronto va a ser sustituido por otro más amplio denominado SÓCRATES. También se van a comentar algunas posibles dificultades que pueden aparecer en el desarrollo de los mismos y finalmente se expondrán las conclusiones que de forma provisional ha extraído el autor a partir de su experiencia como actor en alguno de ellos, primeramente en la Universidad de Cantabria y más tarde en la Universidad Politécnica de Madrid. La información obtenida del Vicerrectorado de la UPM se reconoce con especial agradecimiento

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Leyendo distintos artículos en la Revista de Obras Públicas (Jiménez Salas, 1945) uno recuerda a las grandes figuras como Coulomb (1773), Poncelet (1840), Rankine (1856), Culmann (1866), Mohr (1871), Boussinesq (1876) y otros muchos, que construyeron la base de un conocimiento que poco a poco irían facilitando la complicada tarea que suponía la construcción. Pero sus avances eran aproximaciones que presentaban notables diferencias frente al comportamiento de la naturaleza. Esas discrepancias con la naturaleza llegó un momento que se hicieron demasiado patentes. Importantes asientos en la construcción de los modernos edificios, rotura de presas de materiales sueltos y grandes corrimientos de tierras, por ejemplo durante la construcción del canal de Panamá, llevaron a la Sociedad Americana de Ingenieros Civiles (ASCE) a crear un comité que analizase las prácticas de la construcción de la época. Hechos similares se producían en Europa, por ejemplo en desmontes para ferrocarriles, que en el caso de Suecia supusieron unas cuantiosas perdidas materiales y humanas. El ingeniero austriaco-americano Karl Terzaghi (1883) había podido comprobar, en su práctica profesional, la carencia de conocimientos para afrontar muchos de los retos que la naturaleza ofrecía. Inicialmente buscó la respuesta en la geología pero encontró que ésta carecía de la definición necesaria para la práctica de la ingeniería, por lo que se lanzó a una denodada tarea investigadora basada en el método experimental. Comenzó en 1917 con escasos medios, pero pronto llegó a desarrollar algunos ensayos que le permitieron establecer los primeros conceptos de una nueva ciencia, la Mecánica de Suelos. Ciencia que ve la luz en 1925 con la publicación de su libro Erdbaumechanik auf bodenphysikalischer Grundlage. Rápidamente otras figuras empezaron a hacer sus contribuciones científicas y de divulgación, como es el caso del ingeniero austriaco-americano Arthur Casagrande (1902), cuya iniciativa de organizar el primer Congreso Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones proporcionó el altavoz que necesitaba esa nueva ciencia para su difusión. Al mismo tiempo, más figuras internacionales se fueron uniendo a este período de grandes avances e innovadores puntos de vista. Figuras como Alec Skempton (1914) en el Reino Unido, Ralph Peck (1912) en los Estados Unidos o Laurits Bjerrum (1918) en Noruega sobresalieron entre los grandes de la época. Esta tesis investiga las vidas de estos geotécnicos, artífices de múltiples avances científicos de la nueva ciencia denominada Mecánica de Suelos. Todas estas grandes figuras de la geotecnia fueron presidentes, en distintos periodos, de la Sociedad Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones. Se deja constancia de ello en las biografías que han sido elaboradas a partir de fuentes de variada procedencia y de los datos cruzados encontrados sobre estos extraordinarios geotécnicos. Así, las biografías de Terzaghi, Casagrande, Skempton, Peck y Bjerrum contribuyen no solo a su conocimiento individual sino que constituyen conjuntamente un punto de vista privilegiado para la comprensión de los acontecimientos vividos por la Mecánica de Suelos en el segundo tercio del siglo XX, extendiéndose en algunos casos hasta los albores del siglo XXI. Las aportaciones científicas de estos geotécnicos encuentran también su lugar en la parte técnica de esta tesis, en la que sus contribuciones individuales iniciales que configuran los distintos capítulos conservan sus puntos de vista originales, lo que permite tener una visión de los principios de la Mecánica de Suelos desde su mismo origen. On reading several articles in the journal, Revista de Obras Públicas (Jiménez Salas, 1945), one recalls such leading figures as Coulomb (1773), Poncelet (1840), Rankine (1856), Culmann (1866), Mohr (1871) and Boussinesq (1876) among many others, who created the basis of scientific knowledge that would make the complicated task of construction progressively easier. However, their advances were approximations which suffered considerable discrepancies when faced with the behaviour of the forces of nature. There came a time when such discrepancies became all too evident. Substantial soil settlements when constructing modern buildings, embankment dam failures and grave landslides, during the construction of the Panama Canal for example, led the American Society of Civil Engineers (ASCE) to form a committee in order to analyse construction practices of the time. Similar incidents had taken place in Europe, for example with railway slides, which in the case of Sweden, had resulted in heavy losses in both materials and human lives. During the practice of his career, the Austrian-American engineer Karl Terzaghi (1883) had encountered the many challenges posed by the forces of nature and the lack of knowledge at his disposal with which to overcome them. Terzaghi first sought a solution in geology only to discover that this lacked the necessary accuracy for the practice of engineering. He therefore threw himself into tireless research based on the experimental method. He began in 1917 on limited means but soon managed to develop several tests, which would allow him to establish the basic fundamentals of a new science; Soil Mechanics, a science which first saw the light of day on the publication of Terzaghi’s book, Erdbaumechanik auf bodenphysikalischer Grundlage. Other figures were quick to make their own scientific contributions. Such was the case of Austrian-American engineer, Arthur Casagrande (1902), whose initiative to organize the first International Congress of Soil Mechanics and Foundation Engineering provided the springboard that this science needed. At the same time, other international figures were becoming involved in this period of great advances and innovative concepts. Figures including the likes of Alec Skempton (1914) in the United Kingdom, Ralph Peck (1912) in the United States, and Laurits Bjerrum (1918) in Norway stood out amongst the greatest of their time. This thesis investigates the lives of these geotechnical engineers to whom we are indebted for a great many scientific advances in this new science known as Soil Mechanics. Moreover, each of these eminent figures held the presidency of the International Society of Soil Mechanics and Foundation Engineering, record of which can be found in their biographies, drawn from diverse sources, and by crosschecking and referencing all the available information on these extraordinary geotechnical engineers. Thus, the biographies of Terzaghi, Casagrande, Skempton, Peck and Bjerrum not only serve to provide knowledge on the individual, but moreover, as a collective, they present us with an exceptional insight into the important developments which took place in Soil Mechanics in the second third of the 20th century, and indeed, in some cases, up to the dawn of the 21st. The scientific contributions of these geotechnical engineers also find their place in the technical part of this thesis in which the initial individual contributions which make up several chapters retain their original approaches allowing us a view of the principles of Soil Mechanics from its very beginnings.