1000 resultados para Consecuencia lógica y análisis dimensional


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo se realiza una aproximación al proceso de conformación de los consejos comunales en el contexto político venezolano, intentando dar cuenta en su descripción y análisis, en primer lugar, si es posible identificar elementos de poder popular y qué características asumen, y, en segundo lugar cómo son las relaciones que se establecen con las instituciones estatales. El análisis aborda el proceso que comprende la creación de los consejos comunales en el año 2006, hasta el año 2010, año en que es impulsado desde el Estado la conformación de las comunas, el paso que le sigue a los consejos comunales en el proyecto del Socialismo del Siglo XXI, cuya ley 'Ley Orgánica de las Comunas- los enmarca en un proceso diferente, al proponer avanzar en la unificación de diferentes consejos comunales para dar lugar a nuevas estructuras organizativas, las 'comunas'. Así, se analiza la conformación de los consejos comunales y sus objetivos en el contexto histórico de la denominada 'Revolución Bolivariana', proceso iniciado en el año 1998 con el triunfo del presidente Hugo Chávez, que, a partir del 2005 será llamado 'Socialismo del Siglo XXI'. Se analizan también las formas en que los consejos comunales son concebidos por el marco normativo en la Ley de los Consejos Comunales dictada en el 2006, luego Ley Orgánica de los Consejos Comunales en el 2009. Abordamos entonces, cómo son creados los consejos comunales en el proceso político en curso en Venezuela, experiencias de organización y participación que indican tanto por la situación histórica como por lo que el posibilita el marco normativo, que podrían desarrollarse elementos de poder popular en su interior, y, a la vez, abordamos los tipos de relaciones que se construyen con las instituciones estatales

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artículo se propone abordar la circulación del poder entre los miembros de la comunidad universitaria de la UNSL y aportar algunas categorías conceptuales para su análisis. El trabajo indaga sobre tres dimensiones del poder en la cotidianeidad de la UNSL: una vinculada con algunos aspectos de la lógica y los actores del poder, otra orientada al tipo de agrupamiento predominante; y la última centrada en el tipo de capital dominante que orienta las motivaciones

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es tema de este trabajo la gestión; más precisamente, el modo en que la Educación Física piensa la gestión. Desde nuestra perspectiva de análisis, prácticamente este tema no ha sido estudiado. La hegemonía de los estudios se posiciona en proponer un modo prescriptivo de gestionar la Educación Física, o en cómo lograr la mayor eficiencia y efectividad de esa prescripción. Por lo tanto, no resulta extraño que no haya estudios críticos sobre el tema (señalamos como excepción el trabajo de Giles). No abundan los estudios y análisis críticos, sino que hay muchas propuestas prescriptivas y recetarias que se aplican en lo que se ha dado a llamar diferentes espacios de gestión. Estos estudios no enseñan a pensar la gestión ni sus técnicas, sino que enseñan el mejor modo de aplicar técnicas que sean eficientes y eficaces a la hora de lograr los objetivos. En virtud de cómo se presenta el campo de la gestión en Educación Física, nuestra perspectiva de análisis tiene por objeto conceptualizarla y problematizar las ideas centrales que actualmente se presentan como modelo para luego, interpretarlas y tensionarlas en una argumentación lógica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los argumentos autorefutatorios han sido estudiados desde la Antigüedad clásica y su análisis con los instrumentos que proporcionan la lógica y la teoría de la argumentación contemporáneas ha adquirido cierta intensidad en las últimas décadas. Este trabajo estará dedicado al estudio de la manera en la que algunas falacias -formales o informales- se pueden refutar a sí mismas mediante los llamados argumentos saccherianos. Un argumento de este tipo tiene premisas que formulan afirmaciones metalógicas verdaderas y una conclusión que afirma la invalidez de la forma argumental que ese argumento ejemplifica. Con la ayuda de la regla de la consequentia mirabilis es posible concluir que la forma argumental en cuestión es inválida. Si bien en un artículo reciente Michael Veber propone aplicar la técnica autorefutatoria saccheriana a falacias informales tales como la falacia ad hominem, manifiesta ciertas prevenciones respecto de la extensión del campo de aplicación de esa técnica a las falacias informales. Se argumentará en este trabajo que esas prevenciones no están injustificadas ya que la construcción de los argumentos saccherianos adecuados para mostrar la invalidez de las falacias informales puede resultar más trabajoso y, además, no está garantizada la existencia de tales argumentos en el caso de este tipo de falacias

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta ponencia se elabora en el marco del proyecto de investigación denominado "Educación Física y escuela: el deporte como contenido y su enseñanza", dirigido por el profesor Osvaldo Ron, y tiene como objeto presentar algunas categorías conceptuales que permitan analizar nuestro trabajo de campo. El mismo consiste en observaciones de clases de Educación Física en escuelas secundarias de la Ciudad de La Plata con modalidad no participante y registro etnográfico, entrevistas a profesores de Educación Física, a funcionarios de la Dirección de Educación Física de la Provincia de Buenos Aires, y organización de grupos de discusión, con registro y análisis de lo debatido. Para confrontar los datos provenientes de las diferentes fuentes se utilizó la técnica de triangulación

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo es una contribución al estudio de la composición y dinámica de los grupos de investigación en el ámbito universitario. El enfoque novedoso que plantea es una estrategia de demarcación y análisis de grupos en perspectiva comparada entre los proyectos (inputs) y las coautorías (outputs). Combina técnicas bibliométricas y de análisis de redes sociales aplicadas a un estudio de caso: el Departamento de Bibliotecología de la Universidad Nacional de La Plata, Argentina, en el periodo 2000-2009

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si el posmodernismo se define por la falta de posibilidad de una representación completa, verdadera y lógica, y un diálogo irónico con el pasado (Linda Hutcheon entre otros), Gonzalo Navaja identifica otra tendencia artística más reciénte, el neomodernismo, que se ve en la valorización de la experiencia personal, la reconstitución del ser, el erotismo, las prácticas del cine y ficción detectivesca y los elementos clásicos de la narración, como la trama y la descripción. Tomando en cuenta el análisis de Kathleen M. Glenn de La única verdad de Marina Mayoral (Lugo, 1942), y aplicando esta teoría a otras obras de Mayoral como Al otro lado (1980), muestro algunos elementos que corresponden a estas tendencias, pero también-para evitar categorizar esta autora sin iluminar su originalidad-otros aspectos y combinaciones que son únicos y que la destacan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El impacto del turismo de sol y playa en el litoral marítimo de la Provincia de Buenos Aires; Argentina, necesita una caracterización y análisis en relación con la construcción del territorio y las transformaciones en el paisaje y en el ambiente ocurridas en sus costas. El objetivo principal de este trabajo será establecer una aproximación teórica y epistemológica para el estudio de la evolución histórica, el estado de sus playas, el riesgo de erosión marina, el avance del medio construido en el frente costero y las políticas de gestión territorial para el ambiente costero. Así se permitirá denotar la articulación entre la actividad turística con la gobernabilidad ambiental y las capacidades de generar herramientas participativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo se enmarca en el proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: colegir (erraten), interpretar, construir'. En esta oportunidad nos interesa delimitar la categoría de enunciación, en la dirección de establecer algunas de las particularidades que presenta en el campo de la lingüística y el campo del psicoanálisis. Por su parte, esto nos permitirá pensar si la articulación entre enunciación e interpretación presenta diferencias entre los dos campos mencionados Comenzamos entonces situando la categoría de enunciación en psicoanálisis a partir de la reformulación hecha por J. Lacan a la categoría de signo lingüístico presentado por Saussure, en cuanto a sus componentes y a su modo de operación. Ya que es a partir de estas reformulaciones que es posible pensar la articulación entre la significación y el sentido. Luego haremos un breve rastreo, vale decir, no exhaustivo de la noción de sentido o enunciación en Lingüística, intentando establecer sus particularidades en el terreno de este campo de la ciencia. Inevitablemente haremos una, también breve, mención a algunos de los problemas que en la lingüística surgen al intentar delimitarla dicha noción. A través de diferentes referencias bibliográficas se trabajaran las propuestas que al respecto presentan O. Ducrot, E. Benveniste, C. Kebrat Orechioni, G. Reyes y A. Bertorello. Se recortan así los problemas de 'intención enunciativa' y 'subjetividad' en la Lingüística. Estos serán contrastados y/o comparados con la noción de sujeto que se desprende de la enseñanza de Lacan, al menos en un período de la misma. Esta noción, entendida como sujeto intervalar se anuda a la re conceptualización mencionada en primer lugar del signo lingüístico y su operatoria. Nos referimos a la elaboración realizada por J. Lacan en su Seminario 11 'Los Cuatro Conceptos Fundamentales' respecto a lo que allí denomina las operaciones de 'Alienación' y 'Separación'. Es en torno a estas operaciones que puede pensarse al sujeto como el efecto del intervalo entre dos significantes. La operación de 'Separación' permitirá una dimensión de rescate de la dimensión 'no yo' de la 'Alienación' primera. Allí se juega para el sujeto la posibilidad de incluirse y hacerse representar en el lenguaje, mostrando al mismo tiempo los límites del campo de lo simbólico para otorgar identidad. Es en esta dirección que se piensa también la eficacia de la interpretación en Psicoanálisis. De este modo, llegamos al último tramo de nuestro recorrido donde intentaremos precisar a partir de estos desarrollos cuál es la articulación entre interpretación y enunciación en Psicoanálisis lo que nos llevará al problema de la convicción en un análisis o al problema de la producción de 'Efectos de verdad'. Tomando como herramienta la noción de verdad que allí se pone en juego, la diferenciaremos de otros modos de entender esta categoría. Para esto la referencia bibliográfica a la que hemos recurrido es el Seminario 17 'El revés del Psicoanálisis' de J. Lacan. Será entonces el lugar de la verdad en la articulación entre interpretación y enunciación, lo que nos permitirá delimitar la especificidad de estas categorías en el campo del Psicoanálisis. El presente trabajo se enmarca en el proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: colegir (erraten), interpretar, construir' En esta oportunidad nos interesa delimitar la categoría de enunciación, en la dirección de establecer algunas de las particularidades que presenta en el campo de la lingüística y el campo del psicoanálisis. Por otro lado, la categoría de enunciación convoca a la de interpretación. Es por esto, que nuestra exploración sobre la primera nos ha llevado a preguntarnos por las diferencias en la articulación entre enunciación e interpretación entre los campos lingüístico y psicoanalítico. Estos entrecruzamientos delimitarán problemas para ambos campos que nos permitirán definir especificidades. Por un lado, nos saldrá al cruce desde la lingüística la noción de intención enunciativa y de subjetividad, las que diferentes autores recorren en términos de lo incognosible, o como disfuncionamiento lingüístico o como el 'aparato formal de la enunciación en el enunciado'. Por otro lado, desde el psicoanálisis, la noción de sujeto como sujeto intervalar, nos llevará a pensar la articulación clínica de la enunciación y la interpretación. Será entonces luego de pensar la noción de sujeto que cada campo articula con las categorías de enunciación e interpretación que les compete, que podremos avanzar en algunas delimitaciones especificas

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El propósito de la presente investigación es determinar si, a través del estudio y análisis de los estudios de tráfico en autopistas de peaje, se pueden determinar las razones de los incumplimientos en las previsiones de estos estudios. La metodología se basa en un análisis empírico ex- post facto de los estudios de tráfico contenidos en los anteproyectos de las autopistas Radial 3 y Radial 5 y los datos realmente verificados. Tras una introducción para presentar las principales características de las autopistas de peaje, se realiza una revisión de la bibliografía sobre el cumplimiento de las previsiones de tráfico. Lo anterior permite establecer una serie de aspectos que pueden contribuir a estos incumplimientos, así como una serie de medidas encontradas para mejorar las futuras previsiones. Ya en el núcleo fundamental de la investigación, esta se centra en el análisis del cumplimiento de las previsiones de tráfico contenidas en los anteproyectos de la Radial 3 y Radial 5. Se realiza un análisis crítico de la metodología adoptada, así como de las variables e hipótesis realizadas. Tras este primer análisis, se profundiza en la fase de asignación de los estudios. Siempre con base a los tráficos reales y para el año 2006, se cuantifica el efecto en los incumplimientos, por un lado de las variables utilizadas, y por otro, del propio método ó curva de asignación. Finalmente, y con base en los hallazgos anteriores, se determinan una serie de limitaciones en el método de asignación de tráficos entre recorridos alternativos para el caso de entornos urbanos usado. El planteamiento con base a las teorías del agente racional y maximización de la utilidad esperada es criticado desde la perspectiva de la teoría de decisión bajo condiciones de riesgo planteada por Kahneman y Tversky. Para superar las limitaciones anteriores, se propone una nueva curva de asignación semi empírica que relaciona la proporción del tráfico que circula por la autopista de peaje con la velocidad media en la autovía libre alternativa. ABSTRACT The aim of this research is to confirm whether the forensic analysis of the traffic forecast studies for tolled highways may bring to light the reasons behind the lack of accuracy. The methodology used on this research is empirical and is based on the ex –post facto analysis of the real traffic numbers compared to the forecasted for the tolled highways Radial 3 and Radial 5. Firstly the main features of tolled highways are presented as an introductory chapter. Secondly a broad bibliographic search is presented, this is done from a global perspective and from the Spanish perspective too. From this review, a list of the main causes behind the systematic inaccuracy together with measures to improve future traffic forecast exercises are shown. In what we could consider as the core of the research, it focuses on the ratios of actual / forecast traffic for the tolled highways Radial 3 y Radial 5 in Madrid outskirts. From a critical perspective, the methodology and inputs used in the traffic studies are analysed. In a further step, the trip assignment stage is scrutinised to quantify the influence of the inputs and the assignment model itself in the accuracy of the traffic studies. This exercise is bases on the year 2006. Finally, the assignment model used is criticised for its application in tolled urban highways. The assumptions behind the model, rational agent and expected utility maximization theories, are questioned under the theories presented by Kahneman and Tversky (Prospect Theory). To overcome these assignment model limitations, the author presents a semi empiric new diversion curve. This curve links the traffic proportion using the tolled highway and the average speed in the toll free alternative highway.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presentan los estudios teóricos y empíricos sobre el peso propio de las estructuras realizados a lo largo de la Historia, en cuatro etapas: de la antigüedad de Galileo, de Galileo a la segunda mitad del S.XIX, hasta la actualidad. Se rehusan las reglas empíricas en diseño de puentes, cubiertas, edificios en altura; Tras la revisión de los estudios teóricos precedentes, con el auxilio del análisis dimensional y análisis clásicos derivados de los escritos de Maxwell, se esclarecen las variables que rigen el problema y sus relaciones; alcance del material, forma (esquema, condiciones de contorno, proporción), grueso o dimensionado, tamaño y acciones (leyes y magnitud). Se demuestran varios teoremas sobre mínimos en consumo de estructuras, y se analizan de forma general tipos de problemas estructurales de comportamiento proporcional y no proporcional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Colegio de Nuestra Señora de la Antigua de Monforte de Lemos (1593-1619) constituye el principal ejemplo del clasicismo herreriano de Galicia. Esta tesis analiza los aspectos técnicos de la construcción de sus bóvedas de cantería, en el marco disciplinar de la Historia de la Construcción. El Colegio contiene varios tipos de bóvedas entre las que destacan su cúpula trasdosada y su escalera monumental. Además, se conservan los documentos notariales históricos que describen las obras y una de las monteas más importantes de Galicia. Las bóvedas han sufrido movimientos y algunas presentan importantes deformaciones, que han suscitado preocupación sobre su estabilidad. El estudio se organiza en tres epígrafes: geometría, construcción y mecánica, tres aspectos estrechamente interrelacionados en este tipo de estructuras. La parte de estudio geométrico parte de un levantamiento en el que se emplea una estación total sin reflectante, una técnica que permite una medición muy precisa de la forma real de las bóvedas. Como complemento se ha recurrido a técnicas de escáner fotográfico. Con los datos de las mediciones se han elaborado los dibujos de las bóvedas, y analizado sus medidas e irregularidades. Se ha incluido un análisis metrológico por métodos inductivos, que ha puesto de manifiesto la unidad utilizada en la construcción. El estudio se completa con la recopilación de las reglas de dimensionamiento que figuran en los tratados, que se comparan con las dimensiones de las bóvedas analizadas. En el estudio constructivo se registran los despieces y la configuración constructiva y se contrastan, por un lado, con las soluciones que aparecen en los principales tratados de los siglos XVI, XVII y XVIII, y por otro, con las descripciones que se encuentran en los documentos históricos del Colegio. Se ha prestado especial atención al estudio de estos documentos, que han permitido conocer algunos aspectos originales del proceso de construcción de estas bóvedas. En una de las paredes del claustro se ha identificado una montea inédita cuyo levantamiento y análisis se incorpora en esta parte. En el estudio mecánico se analiza la estabilidad dentro del marco teórico del Moderno Análisis Límite de Estructuras de Fábricas. La comprensión del comportamiento estructural, unida a la precisión de los levantamientos, ha permitido explicar los movimientos de las fábricas e inferir la geometría original de algunas de las bóvedas, no siempre evidente en los casos de fuertes deformaciones. Los estudios realizados hasta ahora en bóvedas de los siglos XVI y XVII permiten vislumbrar un panorama de soluciones constructivas más rico que el que recogen los tratados históricos. Las nuevas técnicas de medición sin contacto abren nuevas posibilidades para analizar estas estructuras. Los casos estudiados todavía son escasos y se necesita un conjunto más amplio para poder realizar un análisis general. Esta tesis aporta el estudio de uno de esos casos con el fin de contribuir al mejor conocimiento de la construcción en España en los siglos XVI y XVII. ABSTRACT The Colegio de Nuestra Señora de la Antigua (1593-1619), in Monforte de Lemos, Spain, is the best example in Galicia of the classicism influenced by the Monastery of El Escorial and his architect, Juan de Herrera. This thesis analyzes the technical aspects of the construction of its masonry vaults within the discipline of Construction History. The Colegio exhibits various types of vaults, among which the extradosed ashlar dome and the grand staircase are particularly worth mentioning. In addition, the legal documents containing thorough specifications of the work, as well as one of the construction drawings at actual size —one of the best examples in Galicia—, have both been preserved to this date. Some of the vaults have undergone important deformations that have raised concerns about their stability. The study is organized in three sections: geometry, construction, and mechanics, the three clearly interrelated in this type of structures. The geometrical study starts out with a metric survey using a reflectorless total station, a technique that allows a very precise measurement of the actual shape of the vault. This technique was complemented with the use of a photo-based 3D scanner. The resulting measurements were used to draw the vaults, and analyze their dimensions and irregularities. An inductive metrological analysis, which was able to reveal the exact metric unit utilized during the construction, is included in this section. The section is completed with the gathering of the dimensional rules appearing in the various historical treatises, which are compared with the dimensions of the actual vaults. The construction study deals with the quartering of the structure, whose results are compared, on the one hand, with the approaches appearing in the main treatises of the 16th- 18th centuries, and on the other, with the descriptions in the historical documents of the Colegio itself. Special attention has been paid to the study of these documents, which have revealed some original aspects in the construction process of the vaults. In one of the cloister’s walls, a hitherto unheard-of construction drawing at actual size was found. Its survey and analysis is included in this section. The mechanical study analyzes the Colegio's vaults stability within the theoretical frame of the Modern Limit Analysis of Masonry Structures. The interpretation of the structural behavior, coupled with the precision of the surveys, has allowed a deep understanding of the masonry’s movements and the original geometry of some of the vaults —not always evident in the case of strong deformations— has been inferred. The studies dealing with XVI and XVII century vaults conducted up to this date show a landscape of constructive solutions far richer than the one suggested in the historical treatises. The new contactless measuring techniques offer exciting possibilities for the analysis of these structures. The cases studied are still few and more would be needed before a general analysis can be attempted. This thesis constitutes one such additional case and its goal is to improve our understanding of Spanish construction in the 16th-17th centuries.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En numerosas ocasiones a lo largo de la historia la imaginación de los creadores ha ido por delante de las posibilidades técnicas de cada momento. Así, muchas de estas nuevas ideas han requerido largos periodos de tiempo para materializarse como realidad construida, hasta que el desarrollo tecnológico e industrial hubo alcanzado un grado de madurez suficiente. En el campo de la arquitectura, estas limitaciones técnicas se han ido acotando paulatinamente hasta desembocar en la situación actual en la que cualquier planteamiento formal puede ser representado gráficamente y analizado desde un punto de vista estructural, superádose de este modo la barrera existente históricamente en el tratamiento de las formas. A lo largo del presente tesis doctoral se analiza cómo la formulación del Método de los Elementos Finitos en la década de los cincuenta y las curvas de Bézier en la década de los sesenta del siglo pasado y la posterior generalización de los ordenadores personales y de los programas informáticos asociados (C.A.D. y F.E.M. principalmente) en los estudios de arquitectura e ingeniería a partir de la década de los noventa, posibilitó el desarrollo de cualquier propuesta arquitectónica, por compleja que ésta fuese, provocando una verdadera revolución a nivel formal en el mundo de la arquitectura, especialmente en el campo de la edificación singular o icónica. Se estudia este proceso a través de ocho edificios; cuatro anteriores y otros tantos posteriores a la desaparición de la barrera anteriormente referida, establecida de forma simbólica en la década de los años ochenta del siglo XX: Frontón de Recoletos en Madrid, Edificio Seagram en Nueva York, Habitat ’67 en Montreal, Ópera de Sídney, museo Guggenheim de Bilbao, ampliación del Victoria & Albert Museum en Londres, tanatorio “Meiso no Mori” en Gifu y nueva sede de la CCTV en Pekín. De entre ellos, la Ópera de Sídney, obra del arquitecto danés Jørn Utzon, condensa gran parte de los aspectos relevantes investigados en relación a la influencia que los métodos de representación y análisis estructural ejercen en la concepción y construcción de las obras de arquitectura. Por este motivo y por considerarse un hito de la arquitectura a nivel global se toma como caso de estudio. La idea general del edificio, que data de 1956, se enmarca en una época inmediatamente anterior a la del desarrollo científico y tecnológico anteriormente referido. Esta ausencia de herramientas de diseño disponibles acordes a la complejidad formal de la propuesta planteada condicionó enormente la marcha del proyecto, dilatándose dramáticamente en el tiempo y disparándose su coste hasta el punto de que el propio arquitecto danés fue separado de las obras antes de su conclusión. Además, la solución estructural finalmente construida de las cubiertas dista mucho de la prevista por Utzon inicialmente. Donde él había imaginado unas finas láminas de hormigón flotando sobre el paisaje se materializó una estructura más pesada, formada por costillas pretensadas de hormigón con unas secciones notablemente mayores. La forma también debió ser modificada de modo ostensible respecto a la propuesta inicial. Si este edificio se pretendiese construir en la actualidad, con toda seguridad el curso de los acontecimientos se desarrollaría por senderos muy diferentes. Ante este supuesto, se plantean las siguientes cuestiones: ¿sería posible realizar un análisis estructural de la cubierta laminar planteada por Utzon inicialmente en el concurso con las herramientas disponibles en la actualidad?; ¿sería dicha propuesta viable estructuralmente?. A lo largo de las siguientes páginas se pretende dar respuesta a estas cuestiones, poniendo de relieve el impacto que los ordenadores personales y los programas informáticos asociados han tenido en la manera de concebir y construir edificios. También se han analizado variantes a la solución laminar planteada en la fase de concurso, a través de las cuales, tratando en la medida de lo posible de ajustarse a las sugerencias que Ove Arup y su equipo realizaron a Jørn Utzon a lo largo del dilatado proceso de proyecto, mejorar el comportamiento general de la estructura del edificio. Por último, se ha pretendido partir de cero y plantear, desde una perspectiva contemporánea, posibles enfoques metodológicos aplicables a la búsqueda de soluciones estructurales compatibles con la forma propuesta originalmente por Utzon para las cubiertas de la Ópera de Sídney y que nunca llegó a ser construida (ni analizada), considerando para ello los medios tecnológicos, científicos e industriales disponibles en la actualidad. Abstract On numerous occasions throughout history the imagination of creators has gone well beyond of the technical possibilities of their time. Many new ideas have required a long period to materialize, until the technological and industrial development had time to catch up. In the architecture field, these technical limitations have gradually tightened leading to the current situation in which any formal approach can be represented and analyzed from a structural point of view, thus concluding that the structural analysis and the graphical representation’s barrier in the development of architectural projects has dissappeared. Throughout the following pages it is examined how the development of the Finite Element Method in the fifties and the Bezier curves in the sixties of the last century and the subsequent spread of personal computers and specialized software in the architectural and engineering offices from the nineties, enabled the development of any architectural proposal independently of its complexity. This has caused a revolution at a formal level in architecture, especially in the field of iconic building. This process is analyzed through eight buildings, four of them before and another four after the disappearance of the above mentioned barrier, roughly established in the eighties of the last century: Fronton Recoletos in Madrid, Seagram Building in New York Habitat '67 in Montreal, Sydney Opera House, Guggenheim Museum Bilbao, Victoria & Albert Museum extension in London, Crematorium “Meiso no Mori” in Gifu and the new CCTV headquarters in Beijing. Among them, the Sydney Opera House, designed by Danish architect Jørn Utzon, condenses many of the main aspects previously investigated regarding the impact of representation methods and structural analysis on the design and construction of architectural projects. For this reason and also because it is considered a global architecture milestone, it is selected as a case study. The building’s general idea, which dates from 1956, is framed at a time immediately preceding the above mentioned scientific and technological development. This lack of available design tools in accordance with the proposal’s formal complexity conditioned enormously the project’s progress, leading to a dramatic delay and multiplying the final budget disproportionately to the point that the Danish architect himself was separated from the works before completion. Furthermore, the built structure differs dramatically from the architect’s initial vision. Where Utzon saw a thin concrete shell floating over the landscape a heavier structure was built, consisting of prestressed concrete ribs with a significantly greater size. The geometry also had to be modified. If this building were to built today, the course of events surely would walk very different paths. Given this assumption, a number of questions could then be formulated: Would it be possible to perform a structural analysis of Utzon’s initially proposed competition-free-ways roof’s geometry with the tools available nowadays?; Would this proposal be structurally feasable?. Throughout the following pages it is intended to clarify this issues, highlighting personal computers and associated software’s impact in building design and construction procedures, especially in the field of iconic building. Variants have also been analyzed for the laminar solution proposed in the competition phase, through which, trying as far as possible to comply with the suggestions that Ove Arup and his team did to Jørn Utzon along the lengthy process project, improving the overall performance of the building structure. Finally, we have started from scratch and analyzed, from a contemporary perspective, possible structural solutions compatible with Utzon’s Opera House’s original geometry and vision –proposal that was never built (nor even analyzed)-, taking into consideration the technological, scientific and industrial means currently available.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La microestructura (en el rango 0.1?100 ?m) tiene un importante impacto en el procesado y propiedades físico-químicas y organolépticas de los alimentos, tal y como se refleja en la propuesta del proyecto europeo INSIDEFOOD (Integrated sensing and imaging devices for designing, monitoring and controlling microstructure of foods) que utiliza matrices alimentarias artificiales a base de geles y espumas como modelos estandarizados para el estudio de la microestructura. Concretamente se ha trabajado con espumas y geles azucarados (a base de fructosa), espumas no azucaradas (0% fructosa, a base de agarosa), como símiles de alimentos de elevada porosidad y geles de gelatina comúnmente utilizados como símiles de productos cárnicos. El objetivo de este trabajo es el estudio no invasivo de la microestructura de estos geles y espumas mediante Resonancia Magnética Nuclear (NMR): tanto tomografía (MRI), como relaxometría 2D, así como la implementación de herramientas de análisis de imagen, empleando el entorno de Matlab®: segmentación, filtros morfológicos y análisis de textura. Este procedimiento permite evaluar la distribución y disponibilidad del agua, así como distribución y tamaño de poros, entre otros parámetros de interés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMEN Las enfermedades cardiovasculares constituyen en la actualidad la principal causa de mortalidad en el mundo y se prevé que sigan siéndolo en un futuro, generando además elevados costes para los sistemas de salud. Los dispositivos cardiacos implantables constituyen una de las opciones para el diagnóstico y el tratamiento de las alteraciones del ritmo cardiaco. La investigación clínica con estos dispositivos alcanza gran relevancia para combatir estas enfermedades que tanto afectan a nuestra sociedad. Tanto la industria farmacéutica y de tecnología médica, como los propios investigadores, cada día se ven involucrados en un mayor número de proyectos de investigación clínica. No sólo el incremento en su volumen, sino el aumento de la complejidad, están generando mayores gastos en las actividades asociadas a la investigación médica. Esto está conduciendo a las compañías del sector sanitario a estudiar nuevas soluciones que les permitan reducir los costes de los estudios clínicos. Las Tecnologías de la Información y las Comunicaciones han facilitado la investigación clínica, especialmente en la última década. Los sistemas y aplicaciones electrónicos han proporcionado nuevas posibilidades en la adquisición, procesamiento y análisis de los datos. Por otro lado, la tecnología web propició la aparición de los primeros sistemas electrónicos de adquisición de datos, que han ido evolucionando a lo largo de los últimos años. Sin embargo, la mejora y perfeccionamiento de estos sistemas sigue siendo crucial para el progreso de la investigación clínica. En otro orden de cosas, la forma tradicional de realizar los estudios clínicos con dispositivos cardiacos implantables precisaba mejorar el tratamiento de los datos almacenados por estos dispositivos, así como para su fusión con los datos clínicos recopilados por investigadores y pacientes. La justificación de este trabajo de investigación se basa en la necesidad de mejorar la eficiencia en la investigación clínica con dispositivos cardiacos implantables, mediante la reducción de costes y tiempos de desarrollo de los proyectos, y el incremento de la calidad de los datos recopilados y el diseño de soluciones que permitan obtener un mayor rendimiento de los datos mediante la fusión de datos de distintas fuentes o estudios. Con este fin se proponen como objetivos específicos de este proyecto de investigación dos nuevos modelos: - Un modelo de recuperación y procesamiento de datos para los estudios clínicos con dispositivos cardiacos implantables, que permita estructurar y estandarizar estos procedimientos, con el fin de reducir tiempos de desarrollo Modelos de Métrica para Sistemas Electrónicos de Adquisición de Datos y de Procesamiento para Investigación Clínica con Dispositivos Cardiacos Implantables de estas tareas, mejorar la calidad del resultado obtenido, disminuyendo en consecuencia los costes. - Un modelo de métrica integrado en un Sistema Electrónico de Adquisición de Datos (EDC) que permita analizar los resultados del proyecto de investigación y, particularmente del rendimiento obtenido del EDC, con el fin de perfeccionar estos sistemas y reducir tiempos y costes de desarrollo del proyecto y mejorar la calidad de los datos clínicos recopilados. Como resultado de esta investigación, el modelo de procesamiento propuesto ha permitido reducir el tiempo medio de procesamiento de los datos en más de un 90%, los costes derivados del mismo en más de un 85% y todo ello, gracias a la automatización de la extracción y almacenamiento de los datos, consiguiendo una mejora de la calidad de los mismos. Por otro lado, el modelo de métrica posibilita el análisis descriptivo detallado de distintos indicadores que caracterizan el rendimiento del proyecto de investigación clínica, haciendo factible además la comparación entre distintos estudios. La conclusión de esta tesis doctoral es que los resultados obtenidos han demostrado que la utilización en estudios clínicos reales de los dos modelos desarrollados ha conducido a una mejora en la eficiencia de los proyectos, reduciendo los costes globales de los mismos, disminuyendo los tiempos de ejecución, e incrementando la calidad de los datos recopilados. Las principales aportaciones de este trabajo de investigación al conocimiento científico son la implementación de un sistema de procesamiento inteligente de los datos almacenados por los dispositivos cardiacos implantables, la integración en el mismo de una base de datos global y optimizada para todos los modelos de dispositivos, la generación automatizada de un repositorio unificado de datos clínicos y datos de dispositivos cardiacos implantables, y el diseño de una métrica aplicada e integrable en los sistemas electrónicos de adquisición de datos para el análisis de resultados de rendimiento de los proyectos de investigación clínica. ABSTRACT Cardiovascular diseases are the main cause of death worldwide and it is expected to continue in the future, generating high costs for health care systems. Implantable cardiac devices have become one of the options for diagnosis and treatment of cardiac rhythm disorders. Clinical research with these devices has acquired great importance to fight against these diseases that affect so many people in our society. Both pharmaceutical and medical technology companies, and also investigators, are involved in an increasingly number of clinical research projects. The growth in volume and the increase in medical research complexity are contributing to raise the expenditure level associated with clinical investigation. This situation is driving health care sector companies to explore new solutions to reduce clinical trial costs. Information and Communication Technologies have facilitated clinical research, mainly in the last decade. Electronic systems and software applications have provided new possibilities in the acquisition, processing and analysis of clinical studies data. On the other hand, web technology contributed to the appearance of the first electronic data capture systems that have evolved during the last years. Nevertheless, improvement of these systems is still a key aspect for the progress of clinical research. On a different matter, the traditional way to develop clinical studies with implantable cardiac devices needed an improvement in the processing of the data stored by these devices, and also in the merging of these data with the data collected by investigators and patients. The rationale of this research is based on the need to improve the efficiency in clinical investigation with implantable cardiac devices, by means of reduction in costs and time of projects development, as well as improvement in the quality of information obtained from the studies and to obtain better performance of data through the merging of data from different sources or trials. The objective of this research project is to develop the next two models: • A model for the retrieval and processing of data for clinical studies with implantable cardiac devices, enabling structure and standardization of these procedures, in order to reduce the time of development of these tasks, to improve the quality of the results, diminish therefore costs. • A model of metric integrated in an Electronic Data Capture system (EDC) that allow to analyze the results of the research project, and particularly the EDC performance, in order to improve those systems and to reduce time and costs of the project, and to get a better quality of the collected clinical data. As a result of this work, the proposed processing model has led to a reduction of the average time for data processing by more than 90 per cent, of related costs by more than 85 per cent, and all of this, through automatic data retrieval and storage, achieving an improvement of quality of data. On the other hand, the model of metrics makes possible a detailed descriptive analysis of a set of indicators that characterize the performance of each research project, allowing inter‐studies comparison. This doctoral thesis results have demonstrated that the application of the two developed models in real clinical trials has led to an improvement in projects efficiency, reducing global costs, diminishing time in execution, and increasing quality of data collected. The main contributions to scientific knowledge of this research work are the implementation of an intelligent processing system for data stored by implantable cardiac devices, the integration in this system of a global and optimized database for all models of devices, the automatic creation of an unified repository of clinical data and data stored by medical devices, and the design of a metric to be applied and integrated in electronic data capture systems to analyze the performance results of clinical research projects.