472 resultados para Infidelidad fiel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo que aquí se propone el autor será un armado, un recorrido, una puesta en relación del marco teórico del Dispositivo del Pase, con lo que le debemos a la experiencia psicoanalítica y el material testimonial de Pasadores, nominados con el título de Analistas de Escuela y Carteles, con el objetivo de establecer una correlación posible entre este dispositivo y el proceso analítico, destacando en ese cruce la importancia de la voz como objeto a. En el Dispositivo del Pase se trataría de cernir un saber correlativo a un cambio de posición del candidato en relación al saber, cierta certeza del encuentro con ese saber, junto a la caída del sujeto supuesto alsaber, lo que determina el ingreso a la operación del Pase. Por otra parte, el Pasador, encarna cierta nesciencia, cierta ignorancia, desde el mismo momento que desconoce su designación. Para cumplir esta función, la relativa inocencia permite asegurar la transmisión del testimonio. El Pasador es así ciegamente fiel a lo que informa y al mismo tiempo puede ser la placa sensible portadora de la huella del encuentro con un sujeto para quien el saber no es ya lo mismo. Ahora bien, ¿de que se sostiene el pasador en esa experiencia? De una posición de destitución subjetiva a la vez que se presta a 'encarnar', a dar voz (una vía) cierto trayecto pulsional, preservándose de los efectos excesivos de goce que ello podría inducir. Lacan en la primera versión de la Proposición (1967) sitúa al Pasador, en el lugar de la pulsión. El Pasador se presta en efecto a ese trayecto de la pulsión invocante: oír (su pasividad), ser oído (sus preguntas activas alpasante) y hacerse oír (por el Cartel). Según consta en aquellos materiales hay 'algo que pasa' en el momento del Dispositivo del Pase, 'algo' que se transmite desde el pasante al pasador, y que es verificado en algunos casos por los Carteles, con el consiguiente nombramiento. Partiendo ahora de lo que se le debe al psicoanálisis, en el trabajo analítico, no es otra cosa que la pulsión la que contesta por el sujeto del significante, cuando se le pide al analizante que hable. Así descifrar la metonimia pulsional en la palabra del analizante orienta nuestra interpretación hacia el goce buscado, o al conseguido que no es lo mismo. Si entonces el ser habla con su cuerpo y lo que responde por el sujeto del significante es la pulsión, rodeada, alcanzada, y descifrada a través de su dimensión metonímica en la palabra, el autor se pregunta sobre las vicisitudes de la pulsión al 'pasar el Pase', Pasadores y Cartel mediante. Dada la importancia localizada en aquello que 'contesta' o 'responde' por el ser, y/o por el sujeto del significante, se podría formular la articulación de homologar este proceso a esta otra práctica de lengua, que es el dispositivo del Pase, en cuanto que es guiado por la voz, único medio y único lazo entre los participantes. La voz por un lado y la función del pasador por otro 'encarnan', son una 'huella' o 'dan vida' a un cierto trayecto libidinal. Sería entonces, la voz, pero en su dimensión de voz como objeto a, lo que intervendría, en el paralelo aquí establecido entre el dispositivo del Pase como prácticas de lenguas y práctica de análisis

Relevância:

10.00% 10.00%

Publicador:

Resumo:

¿Qué ontología es más conveniente al psicoanálisis lacaniano? La razón de mi pregunta tiene que ver con un diagnóstico compartido entre varios colegas sobre la situación actual del psicoanálisis lacaniano. Para decirlo sencillamente, ese diagnóstico establece que los desarrollos formales de Lacan en torno al concepto de sujeto se han ido perdiendo en el lacanismo a consecuencia de haberse plegado a los términos clásicos de la metafísica. O, para decirlo aún más sencillamente, el concepto de sujeto de Lacan terminó por confundirse con la idea de individuo. ¿Por qué sucede esta cesura si, precisamente, Lacan se ocupó todo el tiempo de diferenciarlos? Conforme con ciertos desarrollos de la ciencia contemporánea, diremos que existe en Occidente una orientación hacia la substancialización de toda idea o concepto, a suponer para todo ente la presencia de una substancia material que da cuenta de su existencia en el mundo. La hipótesis que sostendré, entonces, y que intentará explicar dicha orientación reza de la siguiente manera: la ontología clásica (desde Aristóteles hasta avanzado el siglo XX) ha sidopensada y conceptualizada de tal forma que, en general, la ciencia devino con una fuerte orientación hacia el pensamiento substancial. ¿Por qué plantear el problema de la ontología? Porque considero que el psicoanálisis lacaniano, si pretende ser fiel a la novedad fundada por Lacan en torno al concepto de sujeto, hoy más que nunca debe repensar la ontología sobre la cual funcionan sus conceptos fundamentales. Por ejemplo, toda la potencialidad de lasubversión llevada a cabo por Lacan en torno al concepto de sujeto se vería reducida si su formalización se efectuara a partir de la ontología clásica. Porque la ontología clásica supone, entre otras consecuencias formales, las ideas de identidad y de profundidad (tridimensionalidad). Una orientación de pensamiento contraria a la que Lacan propuso para pensar su concepto de sujeto. Koyré sostuvo que nuestro sentido común es medieval, yo agregaría que nuestro sentido común supone formalmente una ontología clásica, es decir, euclidiana, aristotélica y substancialista. En lo relativo a la configuración de esta ontología clásica, euclidiana, que hace sentido común, no sólo juega un papel la consolidación del verbo ser como cópula en la estructura de las lenguas indoeuropeas sino que también incide el sistema nominativo acusativo. La estructura gramatical de las lenguas indoeuropeas establece a través de los universales cierta relación, quizá de semejanza, entre los verbos ser y estar. Serna Arango (2007) dice que este paso también es clave en la consolidación de la ontología euclidiana, y que podríamos remontar ese paso a través del estudio de tres maniobras acontecidas en la historia de Occidente. La primera fue a través del enunciado atributivo que tuvo lugar con la función sintáctica del verbo ser como cópula. La segunda, cuando Aristóteles postuló la relación del ser con la substancia, cuando en su metafísica preguntaba qué era el ente. Y esa pregunta equivalía a qué es la substancia. No ha sido una casualidad que el concepto de ousía derivara hacia el concepto de ser hasta homologarse. Benveniste, en Categorías del pensamiento y categorías de la lengua (1999), hace mención a que, sin duda, fue desde una reflexión filosófica sobre el ser de donde surgió el sustantivo abstracto derivado del ser. Ello es lo que hemos visto crearse en el curso de la historia, sostiene Benveniste, primero en el pitagorismo dorio y en Platón y después con Aristóteles. La tercera maniobra también alude a Aristóteles, a cuando este definió ousía como hipokeimenon, es decir, ousía como sujeto, como substrato último de toda cualidad y como género. En la Metafísica, Aristóteles expone que la 'substancia se dice en dos sentidos: el sujeto último, que ya no se predica de otro y lo que, siendo algo determinado, también es separable' (Aristóteles, 2007:248)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo tiene como objetivo describir las concepciones sobre evaluación de docentes universitarios de ciencias, desde el enfoque de las teorías implícitas, a través de la realización de dos estudios. En el primero se realizó un cuestionario de dilemas, previamente validado, en 28 docentes de ciencias pertenecientes a la facultad de Ciencias Exactas y Naturales de la Universidad Nacional de Mar del Plata. En el segundo estudio se seleccionaron doce docentes de la muestra original y se realizaron entrevistas semiestructuradas. Los resultados del primer estudio muestran un predominio de la teoría interpretativa, en la cual se acepta distintos resultados de aprendizaje, aunque sólo uno es el óptimo, el que se corresponde con la realidad. Sin embargo, el análisis global de las entrevistas permite sugerir que, si bien existen matices entre los docentes entrevistados, las concepciones que predominan sobre la evaluación se acercan a la Teoría Directa, en la cual se supone que existe una correspondencia directa entre las condiciones del aprendizaje y los resultados obtenidos; el aprendizaje es una copia fiel del objeto. Estos resultados muestran la complejidad del problema y la necesidad de hacer converger distintas metodologías en el estudio de las concepciones sobre la enseñanza y el aprendizaje

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Als im Frühsommer 1949 die ersten Pferdeschädel und Hundeknochen als Streufunde aus dem Barsbeker Moor bekannt wurden, war es wünschenswert, mit Hilfe der Pollenanalyse eine zeitliche Zuordnung zu versuchen. Auf diese Weise konnte unter Umständen wieder ein prähistorischer Horizont pollenanalytisch fixiert werden, da u.a. auch datierbare Keramikreste aus der römischen Kaiserzeit gefunden wurden. Die Analyse des aus der Stirnhöhle zweier Pferdeschädel entnommenen Materials ergab die beiden obersten in der Tabelle verzeichneten Pollenspektren. Bei der Untersuchung fiel auf, daß das Einschlußmaterial der Funde stark feinsandig und etwas tonig war. Auch der Finder gab an, daß die Knochen dem Sand, bis zu dem der Torfabbau niedergetrieben wurde, unmittelbar auflagen. Eine Bohrung, die am Westende des Torfstiches niedergebracht wurde, zeigte ebenfalls diese Zwischenschicht als deutliche Sandeinschwemmung. Diese wird noch einmal von grobdetritischen Flachwasser-Ablagerungen unterlagert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuestro trabajo lleva por título el "epígrafe" que Arturo Ripstein eligió para su película Las razones del corazón, a partir del cual nos acercaremos a ella. La obra más reciente de este director mexicano puede interpretarse como una adaptación de los últimos días de Emma Bovary, uno de los personajes más conocidos y a la vez desconocidos de la literatura occidental. El guión fue escrito por Paz Alicia Garcíadiego a partir de lo que recordaba de su lectura durante su juventud de la novela de Gustave Flaubert. ¿Cómo se reinterpreta esta historia en blanco y negro que narra la tristeza y angustia permanentes en la que está sumida Em(ili)a, su insatisfacción perpetua, su fracaso como esposa y madre ejemplar, su sentirse desdichada cuando aparentemente no hay motivo para ello, todo eso que la lleva al adulterio y que la conduce inexorablemente al suicidio cuando la vida ya carece de sentido para ella? ¿Cómo se (re)construye en este melodrama el peso de la culpa en relación con los valores de una sociedad en la que la infidelidad ha dejado de tener el peso moral que conservaba en la Francia del Siglo XIX?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El espacio ficticio creado por Valle-Inclán en Tirano Banderas puede identificarse con cualquier ex colonia española en América Latina a fines del S. XIX o principios del S. XX, mientras que el personaje de Santos Banderas, como declara su propio autor, reúne en su figura rasgos de diferentes caudillos de dichos países. Por otra parte, la lengua en la que la novela está redactada es, verdaderamente, una lengua ficcional, construida con vocablos provenientes de distintos idiolectos de países de habla hispana, incluida España. De esta manera la novela se construye bajo los parámetros que surgen del "espacio de experiencia" del autor, con una intervención precisa respecto del "horizonte de espera" palpable en el final de la obra. Por ello en este trabajo nos proponemos analizar a través de qué procedimientos la novela interviene en la dialéctica de la "conciencia histórica" (Ricoeur. 1998), rearticulando elementos del "espacio de experiencia", rearmando el "horizonte de espera" y, finalmente, problematizando la concepción de Paul Ricoeur acerca de memoria y ficción como operaciones que es necesario separar ya que atribuye a la primera una especificidad temporal de la que la ficción, por definición, carece, y asume la labor de ser fiel y exacta, mientras la ficción se sitúa cómodamente en el plano de la imaginación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la panorámica actual de la Lírica Femenina de Andalucía Encarna León se perfila como una de las poetas más interesantes y sensitivas. Nacida en Granada y radicada en Melilla, su poesía se inicia tempranamente pero es hacia 1980, al ganar su primer premio literario con el poemario "Brotes y pensamientos", cuando se siente ya segura como poeta e inicia una decidida andadura lírica... Se suceden así sus libros "Este caudal de mis palabras mudas" (1984), "La sentida armonía" (1986), "El vuelo de una sed" (1988), "Helena" (1990), "Sobre cristal desnudo" (1994), "Artificios de otoño" (1995), "Caudales de alborozo" (1996), "ÔǪY te vas al Padre" (1998) y "Donde navega el sueño" (2000), entre otros. Asimismo, es autora de impecables relatos. Por la temática de sus poemarios, amplia, variada y conectada profundamente con la vida, por la permanente búsqueda de una expresión ┤propia' que la refleje fiel a sí misma, y por su permanente compromiso social y literario que evidencia su accionar en apertura desde Melilla, se ha convertido en un referente importante en el ámbito de la cultura y las Letras no sólo de Andalucía sino de España toda, hecho corroborado por su inclusión en importantes antologías de lírica y narrativa nacionales y extranjeras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fiel a los temas recurrentes en sus hondos versos elegíacos, en su último libro Miradas al último espejo, Fernando Ortiz recuerda las personas y los lugares de su existencia, canta los efectos del paso del tiempo y la precariedad de la vida, reflexiona sobre la poesía haciendo hincapié en el papel fundamental de la tradición. Lo que pertenece al pasado sobrevive aquí en unas palabras llenas de belleza y emoción, que pretenden abatir la barrera entre el hoy y el ayer: las distintas épocas se mezclan en el sentir de Ortiz y concurren juntas a guiarlo hasta el punto final. El poder lenitivo de los versos, el sarcasmo y la ironía alivian la resignación ante el fluir temporal y le ayudan a aceptar el disgregarse del ser humano en su rápido recorrido por la vida. La única certeza del peregrino es su viaje, razón por la que tiene que aprovecharlo, mostrando gratitud y gozando de los placeres de este mundo entre los que prima indudablemente el amor. Concibiendo la ardua tarea del poeta como una búsqueda de la verdad para transmitirla en sus versos, en Miradas al último espejo Ortiz avisa a sus lectores del destino que todos compartimos, aconseja sobre cómo actuar a lo largo del camino, ofrece el alivio de su poesía y se despide 'con cervantino agradecimiento de la vida'

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo se propone revisar algunas vías de recepción de la obra piagetiana en Argentina, principalmente a partir de la figura de un actor clave y representativo de una generación de nuestro país: Aníbal Norberto Ponce. Partimos de la hipótesis que afirma que en Argentina, la obra de la Escuela de Ginebra ha sido recepcionada principalmente con un doble interés convalidante. Por una parte, el de la fundamentación teórica que las hipótesis piagetianas aportaron a la pedagogía nueva; por otra, la referida al rol central e ineludible que las lecturas de la obra adquirieron, a mediados de siglo XX, para pensar una Psicología evolutiva orientada a la infancia. La matriz que definió el experimentalismo positivista a comienzos de siglo XX no fue reemplazada por otra de nuevo cuño, sino que fue la que albergó demanera ecléctica la recepción de las investigaciones psicológicas que contenían la crítica al paradigma de la ?física social. En el cruce entre las concepciones naturalistas de la psicología y la emergencia de paradigmas orientados por el 'sentido' (Foucault, 1957) es donde debemos situar las lecturas tempranas de la obra piagetiana. Las primeras lecturas de Piaget durante la primera mitad del siglo XX muestran una apropiación estructuralista, siendo comprendido, fundamentalmente, desde la dimensión evolutiva de la llamada 'teoría de los estadios'. La figura de Aníbal Ponce (1898-1938), difusor de las ideas de Marx y de Engels en nuestro país y pensador interesado en los problemas de la psicología de su época - psicología sobre la que enseñó y escribió en las décadas de 1920 y 1930-, es un caso paradigmático de los usos que se hacen, en este periodo, de la Escuela de Ginebra. Ponce efectúa una precoz lectura, análisis y transmisión de las tesis de la Psicología Genética a través de sus textos, y difunde este pensamiento en los cursos dictados a docentes en el Instituto Nacional del Profesorado y a un público más amplio en el Colegio Libre de Estudios Superiores. El hecho de que Ponce utilice a Piaget como referencia central para delinear sus cursos para docentes, es elocuente respecto del grupo de problemas al cual se vinculan sus investigaciones. Fiel a la perspectiva de la época, no concibe una práctica de la enseñanza que no se encuentre sustentada en el conocimiento científico de las características del pensamiento infantil, y allí sitúa el interés delas investigaciones ginebrinas. En los trabajos poncianos pueden reconocerse algunas de las interpretaciones más recurrentes de las ideas piagetianas: la de una especie de recapitulación de la filogeniaen la ontogenia -muy a pesar de su explícita oposición al recapitulacionismo-, y la de la caracterización de 'etapas' que describen las habilidades o características infantiles generales, en función de una edad. Esta perspectiva se convertirá, con los años, en un clisé de lectura que tomará las investigaciones piagetianas como una fuente de descripciones generales acerca de lo que puede esperarse o no, en la conducta de un niño de determinada edad. La predominancia de la dimensión estructural de este enfoque, queda evidenciada en el hecho de tomar al estadio como descriptor asociado a una edad, y explicativo por sí mismo, para cualquier tipo de operaciones intelectuales implicadas. En estas breves notas sobre la obra ponciana se encuentran algunas de las líneas de pensamiento predominantes en Argentina y Latinoamérica (Van der Veer, 1997). Partiendo de un modelo que recorre el trayecto que va del egocentrismo a la descentración, se trazan las líneas de una 'psicología de las edades', que presenta a Piaget como el referente de ese pasaje que garantiza todo intercambio social. La lectura estructural y evolutiva sitúa a Piaget entre las figuras de la psicología infantil, leída en clave teleológica, que pretende dar cuenta del pasaje de la irracionalidad primitiva a la racionalidad moderna y adulta. A pesar de los escasos estudios referidos a la psicología ponciana, creemos que es innegable la importancia de este autor para comprender la recepción y transmisión de la obra de Piaget, como antecedente de la Psicología del Desarrollo en Argentina

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio de la actuación del sector inmobiliario en el área metropolitana de Madrid desde los últimos años de la década de los cincuenta hasta finales de los sesenta, periodo donde se produjo un crecimiento del parque residencial madrileño sin precedentes que todavía hoy tiene una importante presencia en el conjunto de la edificación madrileña, y el análisis de su relación con el actual mapa de distribución de rentas, indica que la primera tuvo una influencia decisiva en la formación y consolidación del segundo, si bien esta influencia es mucho más clara en la periferia que en las áreas centrales de la ciudad. Por otro lado, se comprueba cómo, utilizando el conjunto de ingredientes formado por la valoración de los tejidos históricos, la ubicación de la vivienda social, el papel del planeamiento, el valor asociado a la centralidad, las estrategias comerciales del sector y los límites físicos, se puede construir de forma bastante fiel la imagen del espacio social del área metropolitana de Madrid que tenía el sector inmobiliario en los años sesenta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La propulsión eléctrica constituye hoy una tecnología muy competitiva y de gran proyección de futuro. Dentro de los diversos motores de plasma existentes, el motor de efecto Hall ha adquirido una gran madurez y constituye un medio de propulsión idóneo para un rango amplio de misiones. En la presente Tesis se estudian los motores Hall con geometría convencional y paredes dieléctricas. La compleja interacción entre los múltiples fenómenos físicos presentes hace que sea difícil la simulación del plasma en estos motores. Los modelos híbridos son los que representan un mejor compromiso entre precisión y tiempo de cálculo. Se basan en utilizar un modelo fluido para los electrones y algoritmos de dinámica de partículas PIC (Particle-In- Cell) para los iones y los neutros. Permiten hacer uso de la hipótesis de cuasineutralidad del plasma, a cambio de resolver separadamente las capas límite (o vainas) que se forman en torno a las paredes de la cámara. Partiendo de un código híbrido existente, llamado HPHall-2, el objetivo de la Tesis doctoral ha sido el desarrollo de un código híbrido avanzado que mejorara la simulación de la descarga de plasma en un motor de efecto Hall. Las actualizaciones y mejoras realizadas en las diferentes partes que componen el código comprenden tanto aspectos teóricos como numéricos. Fruto de la extensa revisión de la algoritmia del código HPHall-2 se han conseguido reducir los errores de precisión un orden de magnitud, y se ha incrementado notablemente su consistencia y robustez, permitiendo la simulación del motor en un amplio rango de condiciones. Algunos aspectos relevantes a destacar en el subcódigo de partículas son: la implementación de un nuevo algoritmo de pesado que permite determinar de forma más precisa el flujo de las magnitudes del plasma; la implementación de un nuevo algoritmo de control de población, que permite tener suficiente número de partículas cerca de las paredes de la cámara, donde los gradientes son mayores y las condiciones de cálculo son más críticas; las mejoras en los balances de masa y energía; y un mejor cálculo del campo eléctrico en una malla no uniforme. Merece especial atención el cumplimiento de la condición de Bohm en el borde de vaina, que en los códigos híbridos representa una condición de contorno necesaria para obtener una solución consistente con el modelo de interacción plasma-pared, y que en HPHall-2 aún no se había resuelto satisfactoriamente. En esta Tesis se ha implementado el criterio cinético de Bohm para una población de iones con diferentes cargas eléctricas y una gran dispersión de velocidades. En el código, el cumplimiento de la condición cinética de Bohm se consigue por medio de un algoritmo que introduce una fina capa de aceleración nocolisional adyacente a la vaina y mide adecuadamente el flujo de partículas en el espacio y en el tiempo. Las mejoras realizadas en el subcódigo de electrones incrementan la capacidad de simulación del código, especialmente en la región aguas abajo del motor, donde se simula la neutralización del chorro del plasma por medio de un modelo de cátodo volumétrico. Sin abordar el estudio detallado de la turbulencia del plasma, se implementan modelos sencillos de ajuste de la difusión anómala de Bohm, que permiten reproducir los valores experimentales del potencial y la temperatura del plasma, así como la corriente de descarga del motor. En cuanto a los aspectos teóricos, se hace especial énfasis en la interacción plasma-pared y en la dinámica de los electrones secundarios libres en el interior del plasma, cuestiones que representan hoy en día problemas abiertos en la simulación de los motores Hall. Los nuevos modelos desarrollados buscan una imagen más fiel a la realidad. Así, se implementa el modelo de vaina de termalización parcial, que considera una función de distribución no-Maxwelliana para los electrones primarios y contabiliza unas pérdidas energéticas más cercanas a la realidad. Respecto a los electrones secundarios, se realiza un estudio cinético simplificado para evaluar su grado de confinamiento en el plasma, y mediante un modelo fluido en el límite no-colisional, se determinan las densidades y energías de los electrones secundarios libres, así como su posible efecto en la ionización. El resultado obtenido muestra que los electrones secundarios se pierden en las paredes rápidamente, por lo que su efecto en el plasma es despreciable, no así en las vainas, donde determinan el salto de potencial. Por último, el trabajo teórico y de simulación numérica se complementa con el trabajo experimental realizado en el Pnnceton Plasma Physics Laboratory, en el que se analiza el interesante transitorio inicial que experimenta el motor en el proceso de arranque. Del estudio se extrae que la presencia de gases residuales adheridos a las paredes juegan un papel relevante, y se recomienda, en general, la purga completa del motor antes del modo normal de operación. El resultado final de la investigación muestra que el código híbrido desarrollado representa una buena herramienta de simulación de un motor Hall. Reproduce adecuadamente la física del motor, proporcionando resultados similares a los experimentales, y demuestra ser un buen laboratorio numérico para estudiar el plasma en el interior del motor. Abstract Electric propulsion is today a very competitive technology and has a great projection into the future. Among the various existing plasma thrusters, the Hall effect thruster has acquired a considerable maturity and constitutes an ideal means of propulsion for a wide range of missions. In the present Thesis only Hall thrusters with conventional geometry and dielectric walls are studied. The complex interaction between multiple physical phenomena makes difficult the plasma simulation in these engines. Hybrid models are those representing a better compromise between precision and computational cost. They use a fluid model for electrons and Particle-In-Cell (PIC) algorithms for ions and neutrals. The hypothesis of plasma quasineutrality is invoked, which requires to solve separately the sheaths formed around the chamber walls. On the basis of an existing hybrid code, called HPHall-2, the aim of this doctoral Thesis is to develop an advanced hybrid code that better simulates the plasma discharge in a Hall effect thruster. Updates and improvements of the code include both theoretical and numerical issues. The extensive revision of the algorithms has succeeded in reducing the accuracy errors in one order of magnitude, and the consistency and robustness of the code have been notably increased, allowing the simulation of the thruster in a wide range of conditions. The most relevant achievements related to the particle subcode are: the implementation of a new weighing algorithm that determines more accurately the plasma flux magnitudes; the implementation of a new algorithm to control the particle population, assuring enough number of particles near the chamber walls, where there are strong gradients and the conditions to perform good computations are more critical; improvements in the mass and energy balances; and a new algorithm to compute the electric field in a non-uniform mesh. It deserves special attention the fulfilment of the Bohm condition at the edge of the sheath, which represents a boundary condition necessary to match consistently the hybrid code solution with the plasma-wall interaction, and remained as a question unsatisfactory solved in the HPHall-2 code. In this Thesis, the kinetic Bohm criterion has been implemented for an ion particle population with different electric charges and a large dispersion in their velocities. In the code, the fulfilment of the kinetic Bohm condition is accomplished by an algorithm that introduces a thin non-collisional layer next to the sheaths, producing the ion acceleration, and measures properly the flux of particles in time and space. The improvements made in the electron subcode increase the code simulation capabilities, specially in the region downstream of the thruster, where the neutralization of the plasma jet is simulated using a volumetric cathode model. Without addressing the detailed study of the plasma turbulence, simple models for a parametric adjustment of the anomalous Bohm difussion are implemented in the code. They allow to reproduce the experimental values of the plasma potential and the electron temperature, as well as the discharge current of the thruster. Regarding the theoretical issues, special emphasis has been made in the plasma-wall interaction of the thruster and in the dynamics of free secondary electrons within the plasma, questions that still remain unsolved in the simulation of Hall thrusters. The new developed models look for results closer to reality, such as the partial thermalization sheath model, that assumes a non-Maxwellian distribution functions for primary electrons, and better computes the energy losses at the walls. The evaluation of secondary electrons confinement within the chamber is addressed by a simplified kinetic study; and using a collisionless fluid model, the densities and energies of free secondary electrons are computed, as well as their effect on the plasma ionization. Simulations show that secondary electrons are quickly lost at walls, with a negligible effect in the bulk of the plasma, but they determine the potential fall at sheaths. Finally, numerical simulation and theoretical work is complemented by the experimental work carried out at the Princeton Plasma Physics Laboratory, devoted to analyze the interesting transitional regime experienced by the thruster in the startup process. It is concluded that the gas impurities adhered to the thruster walls play a relevant role in the transitional regime and, as a general recomendation, a complete purge of the thruster before starting its normal mode of operation it is suggested. The final result of the research conducted in this Thesis shows that the developed code represents a good tool for the simulation of Hall thrusters. The code reproduces properly the physics of the thruster, with results similar to the experimental ones, and represents a good numerical laboratory to study the plasma inside the thruster.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trigo blando (Triticum aestivum ssp vulgare L., AABBDD, 2n=6x=42) presenta propiedades viscoélasticas únicas debidas a la presencia en la harina de las prolaminas: gluteninas y gliadinas. Ambos tipos de proteínas forman parte de la red de gluten. Basándose en la movilidad en SDS-PAGE, las gluteninas se clasifican en dos grupos: gluteninas de alto peso molecular (HMW-GS) y gluteninas de bajo peso molecular (LMW-GS). Los genes que codifican para las HMW-GS se encuentran en tres loci del grupo 1 de cromosomas: Glu-A1, Glu-B1 y Glu-D1. Cada locus codifica para uno o dos polipéptidos o subunidades. La variación alélica de las HMW-GS es el principal determinante de de la calidad harino-panadera y ha sido ampliamente estudiado tanto a nivel de proteína como de ADN. El conocimiento de estas proteínas ha contribuido sustancialmente al progreso de los programas de mejora para la calidad del trigo. Comparadas con las HMW-GS, las LMW-GS forman una familia proteica mucho más compleja. La mayoría de los genes LMW se localizan en el grupo 1 de cromosomas en tres loci: Glu-A3, Glu-B3 y Glu-D3 que se encuentran estrechamente ligados a los loci que codifican para gliadinas. El número de copias de estos genes ha sido estimado entre 10-40 en trigo hexaploide, pero el número exacto aún se desconoce debido a la ausencia de un método eficiente para diferenciar los miembros de esta familia multigénica. La nomenclatura de los alelos LMW-GS por electroforesis convencional es complicada, y diferentes autores asignan distintos alelos a la misma variedad lo que dificulta aún más el estudio de esta compleja familia. El uso de marcadores moleculares para la discriminación de genes LMW, aunque es una tarea dificil, puede ser muy útil para los programas de mejora. El objetivo de este trabajo ha sido profundizar en la relación entre las gluteninas y la calidad panadera y desarrollar marcadores moleculares que permitan ayudar en la correcta clasificación de HMW-GS y LMW-GS. Se han obtenido dos poblaciones de líneas avanzadas F4:6 a partir de los cruzamientos entre las variedades ‘Tigre’ x ‘Gazul’ y ‘Fiel’ x ‘Taber’, seleccionándose para los análisis de calidad las líneas homogéneas para HMW-GS, LMW-GS y gliadinas. La determinación alélica de HMW-GS se llevó a cabo por SDS-PAGE, y se complementó con análisis moleculares, desarrollándose un nuevo marcador de PCR para diferenciar entre las subunidades Bx7 y Bx7*del locus Glu-B1. Resumen 2 La determinación alélica para LMW-GS se llevó a cabo mediante SDS-PAGE siguiendo distintas nomenclaturas y utilizando variedades testigo para cada alelo. El resultado no fue concluyente para el locus Glu-B3, así que se recurrió a marcadores moleculares. El ADN de los parentales y de los testigos se amplificó usando cebadores diseñados en regiones conservadas de los genes LMW y fue posteriormente analizado mediante electroforesis capilar. Los patrones de amplificación obtenidos fueron comparados entre las distintas muestras y permitieron establecer una relación con los alelos de LMW-GS. Con este método se pudo aclarar la determinación alélica de este locus para los cuatro parentales La calidad de la harina fue testada mediante porcentaje de contenido en proteína, prueba de sedimentación (SDSS) y alveógrafo de Chopin (parámetros P, L, P/L y W). Los valores fueron analizados en relación a la composición en gluteninas. Las líneas del cruzamiento ‘Fiel’ x ‘Taber’ mostraron una clara influencia del locus Glu-A3 en la variación de los valores de SDSS. Las líneas que llevaban el nuevo alelo Glu-A3b’ presentaron valores significativamente mayores que los de las líneas con el alelo Glu-A3f. En las líneas procedentes del cruzamiento ‘Tigre ’x ‘Gazul’, los loci Glu-B1 y Glu-B3 loci mostraron ambos influencia en los parámetros de calidad. Los resultados indicaron que: para los valores de SDSS y P, las líneas con las HMW-GS Bx7OE+By8 fueron significativamente mejores que las líneas con Bx17+By18; y las líneas que llevaban el alelo Glu-B3ac presentaban valores de P significativamente superiores que las líneas con el alelo Glu-B3ad y significativamente menores para los valores de L . El análisis de los valores de calidad en relación a los fragmentos LMW amplificados, reveló un efecto significativo entre dos fragmentos (2-616 y 2-636) con los valores de P. La presencia del fragmento 2-636 estaba asociada a valores de P mayores. Estos fragmentos fueron clonados y secuenciados, confirmándose que correspondían a genes del locus Glu-B3. El estudio de la secuencia reveló que la diferencia entre ambos se hallaba en algunos SNPs y en una deleción de 21 nucleótidos que en la proteína correspondería a un InDel de un heptapéptido en la región repetida de la proteína. En este trabajo, la utilización de líneas que difieren en el locus Glu-B3 ha permitido el análisis de la influencia de este locus (el peor caracterizado hasta la fecha) en la calidad panadera. Además, se ha validado el uso de marcadores moleculares en la determinación alélica de las LMW-GS y su relación con la calidad panadera. Summary 3 Bread wheat (Triticum aestivum ssp vulgare L., AABBDD, 2n=6x=42) flour has unique dough viscoelastic properties conferred by prolamins: glutenins and gliadins. Both types of proteins are cross-linked to form gluten polymers. On the basis of their mobility in SDS-PAGE, glutenins can be classified in two groups: high molecular weight glutenins (HMW-GS) and low molecular weight glutenins (LMW-GS). Genes encoding HMW-GS are located on group 1 chromosomes in three loci: Glu-A1, Glu-B1 and Glu-D1, each one encoding two polypeptides, named subunits. Allelic variation of HMW-GS is the most important determinant for bread making quality, and has been exhaustively studied at protein and DNA level. The knowledge of these proteins has substantially contributed to genetic improvement of bread quality in breeding programs. Compared to HMW-GS, LMW-GS are a much more complex family. Most genes encoded LMW-GS are located on group 1 chromosomes. Glu-A3, Glu-B3 and Glu-D3 loci are closely linked to the gliadin loci. The total gene copy number has been estimated to vary from 10–40 in hexaploid wheat. However, the exact copy number of LMW-GS genes is still unknown, mostly due to lack of efficient methods to distinguish members of this multigene family. Nomenclature of LMW-GS alleles is also unclear, and different authors can assign different alleles to the same variety increasing confusion in the study of this complex family. The use of molecular markers for the discrimination of LMW-GS genes might be very useful in breeding programs, but their wide application is not easy. The objective of this work is to gain insight into the relationship between glutenins and bread quality, and the developing of molecular markers that help in the allele classification of HMW-GS and LMW-GS. Two populations of advanced lines F4:6 were obtained from the cross ‘Tigre’ x ‘Gazul’ and ‘Fiel’ x ‘Taber’. Lines homogeneous for HMW-GS, LMW-GS and gliadins pattern were selected for quality analysis. The allele classification of HMW-GS was performed by SDS-PAGE, and then complemented by PCR analysis. A new PCR marker was developed to undoubtedly differentiate between two similar subunits from Glu-B1 locus, Bx7 and Bx7*. The allele classification of LMW-GS was initially performed by SDS-PAGE following different established nomenclatures and using standard varieties. The results were not completely concluding for Glu-B3 locus, so a molecular marker system was applied. DNA from parental lines and standard varieties was amplified using primers designed in conserved domains of LMW genes and analyzed by capillary electrophoresis. The pattern of amplification products obtained was compared among samples and related to the protein allele classification. It was possible to establish a correspondence between specific amplification products and almost all LMW alleles analyzed. With this method, the allele classification of the four parental lines was clarified. Flour quality of F4:6 advanced lines were tested by protein content, sedimentation test (SDSS) and alveograph (P, L, P/L and W). The values were analyzed in relation to the lines prolamin composition. In the ‘Fiel’ x ‘Taber’ population, Glu-A3 locus showed an influence in SDSS values. Lines carrying new allele Glu-A3b’, presented a significantly higher SDSS value than lines with Glu-A3f allele. In the ‘Tigre ’x ‘Gazul’ population, the Glu-B1 and Glu-B3 loci also showed an effect in quality parameters, in SDSS, and P and L values. Results indicated that: for SDSS and P, lines with Bx7OE+By8 were significantly better than lines with Bx17+By18; lines carrying Glu-B3ac allele had a significantly higher P values than Glu-B3ad allele values. lines with and lower L The analysis of quality parameters and amplified LMW fragments revealed a significant influence of two peaks (2-616 y 2-636) in P values. The presence of 2-636 peak gave higher P values than 2-616. These fragments had been cloned and sequenced and identified as Glu-B3 genes. The sequence analysis revealed that the molecular difference between them was some SNPs and a small deletion of 21 nucleotides that in the protein would produce an InDel of a heptapeptide in the repetitive region. In this work, the analysis of two crosses with differences in Glu-3 composition has made possible to study the influence of LMG-GS in quality parameters. Specifically, the influence of Glu-B3, the most interesting and less studied loci has been possible. The results have shown that Glu-B3 allele composition influences the alveograph parameter P (tenacity). The existence of different molecular variants of Glu-B3 alleles have been assessed by using a molecular marker method. This work supports the use of molecular approaches in the study of the very complex LMW-GS family, and validates their application in the analysis of advanced recombinant lines for quality studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la presente tesis se propone un estudio del Pantheon, y en general de las cúpulas clásicas romanas, partiendo de la relación entre la bibliografía y documentación histórica, y el análisis geométrico y constructivo de algunos de los edificios considerados. La variedad de dimensiones, geometrías y sistemas constructivos aplicados en lugares y condiciones diferentes es muy grande. La información conservadas en los restos de estas arquitecturas suponen todavía una fuente por descubrir y explorar. Entre los múltiples aspectos que surgen al ocuparse del Pantheon y en general de cúpulas clásicas romanas, en este trabajo de tesis doctoral se elige enfocar principalmente el estudio en la geometría del intradós de las cúpulas. La potencialidad del hormigón romano se expresa con especial evidencia en el diseñ o y construcción de las superficies internas de las bóvedas, donde se persigue la experimentación de geometrías distintas. La comprensión de las técnicas constructivas empleadas para generar estas formas e incrementar sus dimensiones es sin duda una parte fundamental de la investigación, y se configura como un marco de conocimientos necesarios para el análisis de las cúpulas. El trabajo se desarrolla gracias a la aplicación de métodos de levantamiento indirecto actuales, que permiten la restitución métrica de objetos complejos con agilidad y precisión. Mediante el uso correcto de los instrumentos se consigue estudiar estructuras inaccesibles sin la necesidad de establecer un contacto directo con las superficies a medir. El uso del método de la fotogrametría digital de imágenes cruzadas y del escáner láser impulsan un continuo estudio crítico de los sistemas y una comparación directa entre ellos, generando paralelamente la información necesaria para poder aportar algunas consideraciones sobre la conformación de los objetos estudiados. La investigación se desarrolla, por tanto, entre el estudio comparado de las herramientas y de los sistemas de medición y el análisis geométrico-constructivo propio de las arquitecturas seleccionadas. La tesis abarca el estudio de las cúpulas clásicas romanas seleccionando una serie de edificios desde los primeros ejemplos del siglo II a.C. hasta las ultimas construcciones del siglo IV d.C.. Basándose en las características del conjunto de los edificios tratados, se estudia el desarrollo de esas formas constructivas en el tiempo y se reconoce en ellos la presencia de algunos elementos recurrentes. Además, la posibilidad de observar los restos antiguos conservados parcialmente o totalmente permite avanzar una hipotética clasificación de las geometrías de los intradoses de las cúpulas, poniéndola en relación con su propio desarrollo histórico. La cúpula del Pantheon precisa de un análisis particular y detallado. El estudio intenso de ese objeto arquitectónico tan sorprendente se perpetua desde hace numerosos siglos y el monumento todavía ofrece interrogantes abiertos. Un levantamiento arquitectónico actual del intradós de la cúpula puede generar material útil para realizar estudios sobre su conformación. Debido a la notoriedad del monumento, sus increíbles características y su perfecto estado de conservación, el Pantheon ha sido representado gráficamente desde hace siglos. Desde las primeras representaciones bidimensionales en planta, alzado y sección de época renacentista hasta las más modernas restituciones mediante escáner láser tridimensional, el Pantheon queda documentado por numerosos autores, que operan en épocas y con herramientas distintas. La posibilidad de confrontar las restituciones gráficas del mismo objeto a lo largo de un periodo de tiempo tan extenso, abre la investigación hacia un estudio comparativo de las técnicas de levantamiento de la antigüedad. Entre las bóvedas clásicas romanas, el Pantheon se considera la expresión máxima de las posibilidades de las técnicas y materiales, siendo al mismo tiempo parte de una cadena de evolución continua de la forma en construcción. Episodios de la historia de la arquitectura romana anteriores o posteriores al Pantheon se prestan para un análisis comparado. Como casos de estudio especifico se eligen el llamado Templo de Mercurio en Baia, cerca de Nápoles, la sala circular de las Termas con Heliocaminus en la Villa Adriana y el Mausoleo de Santa Constanza en Roma. Los tres ejemplos comparten el mismo principio constructivo y la forma supuestamente semiesférica del intradós de la cúpula, aun presentando características diferentes que dependen de sus funciones, dimensiones, época y sistemas de construcción. El método empleado en los estudios realizados es la fotogrametría digital de imágenes cruzadas, que precisa de herramientas y programas informáticos de fácil alcance para cualquier operador. La funcionalidad y eficacia de este sistema permite operar en condiciones desfavorables y perseguir la precisión de la medición. Mediante el empleo de la fotogrametría digital de imágenes cruzadas se consigue desarrollar con gran eficacia el trabajo de restitución de los ejemplos analizados. Únicamente en el caso del Pantheon, a la restitución fotogramétrica se suma un levantamiento mediante escáner láser tridimensional. El empleo del escáner láser permite registrar una enorme cantidad de información en tiempos muy reducidos, además de asegurar unos elementos de referencia útiles para la orientación y escala de los modelos fotogramétricos. Considerado el uso actual y eficiente del escáner láser en la documentación del patrimonio arquitectónico y arqueológico, su aplicación contribuye con fuerza al desarrollo de este trabajo de investigación. La descripción de las herramientas y de las técnicas empleadas para realizar las restituciones gráficas se considera parte del levantamiento, como documentación fiel del trabajo realizado y, como consecuencia, de las medidas obtenidas. Por estas razones se dedica un apartado de la tesis a la explicación de las fases de los trabajos de restitución y a la descripción de las características técnicas de las herramientas empleadas para ello. Los programas informáticos integrados posibilitan la comparación entre los resultados para verificar la aproximación y exactitud de las restituciones. Se presta atención a la comparación entre distintos levantamientos de un mismo objeto realizados con un solo sistema, pero en repetidas fases, o con distintos sistemas y herramientas. Es de especial interés la comparación entre los resultados de los levantamientos del intradós de la cúpula del Pantheon realizados mediante fotogrametría digital de imágenes cruzadas y con el escáner láser tridimensional. Una observación crítica de los datos generales asícomo de los detalles de los modelos de restitución ofrece material suficiente para formular alguna consideración acerca de dos métodos de levantamiento muy distintos. Como en todo proceso de levantamiento parte de la exactitud de los resultados depende de la labor critica, interpretativa y manual del operador. El análisis contrastado entre las distintas versiones de restitución de un mismo objeto es útil para una mejor aproximación a las medidas reales. Para poder efectuar los análisis geométricos del intradós de las cúpulas, se introduce una fase de estudio critico de los datos derivados de los levantamientos. La investigación se basa en la búsqueda de un modelo geométrico que se aproxime a los puntos levantados y que se genere a partir de unos rigurosos cálculos de promedios. Del modelo de restitución de puntos, que mantiene las irregularidades propias del objeto construido, se pasa a la creación de un modelo regular definido por claras leyes geométricas. La comparación directa entre las posiciones individuales de los puntos levantados y el modelo geométrico contribuyen a la comprensión del objeto de estudio, detectando irregularidades o deformaciones donde existan, y ofreciendo unos datos objetivos y cuantificables. Los análisis desarrollados evidencian la importancia de integrar la restitución métrica de los edificios con el estudio de su historia, geometría y construcción. El levantamiento como sistema de entendimiento integral de la arquitectura estimula la continua revisión de los resultados y el estudio comparado de la información derivada del análisis directo del edificio, mientras que la documentación conservada enriquece la investigación. Los trabajos de levantamiento y análisis realizados generan documentación nueva, ofreciendo un estudio crítico de la documentación disponible sobre los argumentos tratados y difundiendo el conocimiento de detalles del estado actual de las cúpulas estudiadas. Sin embargo, los interrogantes sobre los sistemas constructivos empleados para la construcción de las cúpulas estudiadas, y en particular del Pantheon, quedan irresolutos. La abundancia de los argumentos tratados permite la posible continuidad del trabajo, según una visión dinámica de la investigación como evolución ininterrumpida. En particular, las observaciones documentadas en este estudio abren el campo hacia un planteamiento transversal y multidisciplinar, que pueda profundizar el conocimiento de los edificios antiguos. El patrimonio de la arquitectura clásica estásujeto al deterioro en el tiempo, por lo que un estudio sobre su estado actual puede contribuir a manifestar necesidades reales, reflejando el vinculo directo existente entre conservación y levantamiento arquitectónico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral está encuadrada dentro del marco general de la ingeniería biomédica aplicada al tratamiento de las enfermedades cardiovasculares, enfermedades que provocan alrededor de 1.9 millones (40%) de muertes al año en la Unión Europea. En este contexto surge el proyecto europeo SCATh-Smart Catheterization, cuyo objetivo principal es mejorar los procedimientos de cateterismo aórtico introduciendo nuevas tecnologías de planificación y navegación quirúrgica y minimizando el uso de fluoroscopía. En particular, esta tesis aborda el modelado y diagnóstico de aneurismas aórticos abdominales (AAA) y del trombo intraluminal (TIL), allí donde esté presente, así como la segmentación de estas estructuras en imágenes preoperatorias de RM. Los modelos físicos específicos del paciente, construidos a partir de imágenes médicas preoperatorias, tienen múltiples usos, que van desde la evaluación preoperatoria de estructuras anatómicas a la planificación quirúrgica para el guiado de catéteres. En el diagnóstico y tratamiento de AAA, los modelos físicos son útiles a la hora de evaluar diversas variables biomecánicas y fisiológicas de las estructuras vasculares. Existen múltiples técnicas que requieren de la generación de modelos físicos que representen la anatomía vascular. Una de las principales aplicaciones de los modelos físicos es el análisis de elementos finitos (FE). Las simulaciones de FE para AAA pueden ser específicas para el paciente y permiten modelar estados de estrés complejos, incluyendo los efectos provocados por el TIL. La aplicación de métodos numéricos de análisis tiene como requisito previo la generación de una malla computacional que representa la geometría de interés mediante un conjunto de elementos poliédricos, siendo los hexaédricos los que presentan mejores resultados. En las estructuras vasculares, generar mallas hexaédricas es un proceso especialmente exigente debido a la compleja anatomía 3D ramificada. La mayoría de los AAA se encuentran situados en la bifurcación de la arteria aorta en las arterias iliacas y es necesario modelar de manera fiel dicha bifurcación. En el caso de que la sangre se estanque en el aneurisma provocando un TIL, éste forma una estructura adyacente a la pared aórtica. De este modo, el contorno externo del TIL es el mismo que el contorno interno de la pared, por lo que las mallas resultantes deben reflejar esta particularidad, lo que se denomina como "mallas conformadas". El fin último de este trabajo es modelar las estructuras vasculares de modo que proporcionen nuevas herramientas para un mejor diagnóstico clínico, facilitando medidas de riesgo de rotura de la arteria, presión sistólica o diastólica, etc. Por tanto, el primer objetivo de esta tesis es diseñar un método novedoso y robusto para generar mallas hexaédricas tanto de la pared aórtica como del trombo. Para la identificación de estas estructuras se utilizan imágenes de resonancia magnética (RM). Deben mantenerse sus propiedades de adyacencia utilizando elementos de alta calidad, prestando especial atención al modelado de la bifurcación y a que sean adecuadas para el análisis de FE. El método tiene en cuenta la evolución de la línea central del vaso en el espacio tridimensional y genera la malla directamente a partir de las imágenes segmentadas, sin necesidad de reconstruir superficies triangulares. Con el fin de reducir la intervención del usuario en el proceso de generación de las mallas, es también objetivo de esta tesis desarrollar un método de segmentación semiautomática de las distintas estructuras de interés. Las principales contribuciones de esta tesis doctoral son: 1. El diseño, implementación y evaluación de un algoritmo de generación de mallas hexaédricas conformadas de la pared y el TIL a partir de los contornos segmentados en imágenes de RM. Se ha llevado a cabo una evaluación de calidad que determine su aplicabilidad a métodos de FE. Los resultados demuestran que el algoritmo desarrollado genera mallas conformadas de alta calidad incluso en la región de la bifurcación, que son adecuadas para su uso en métodos de análisis de FE. 2. El diseño, implementación y evaluación de un método de segmentación automático de las estructuras de interés. La luz arterial se segmenta de manera semiautomática utilizando un software disponible a partir de imágenes de RM con contraste. Los resultados de este proceso sirven de inicialización para la segmentación automática de las caras interna y externa de la pared aórtica utilizando métodos basado en modelos de textura y forma a partir de imágenes de RM sin contraste. Los resultados demuestran que el algoritmo desarrollado proporciona segmentaciones fieles de las distintas estructuras de interés. En conclusión, el trabajo realizado en esta tesis doctoral corrobora las hipótesis de investigación postuladas, y pretende servir como aportación para futuros avances en la generación de modelos físicos de geometrías biológicas. ABSTRACT The frame of this PhD Thesis is the biomedical engineering applied to the treatment of cardiovascular diseases, which cause around 1.9 million deaths per year in the European Union and suppose about 40% of deaths per year. In this context appears the European project SCATh-Smart Catheterization. The main objective of this project is creating a platform which improves the navigation of catheters in aortic catheterization minimizing the use of fluoroscopy. In the framework of this project, the specific field of this PhD Thesis is the diagnosis and modeling of abdominal aortic aneurysm (AAAs) and the intraluminal thrombus (ILT) whenever it is present. Patient-specific physical models built from preoperative imaging are becoming increasingly important in the area of minimally invasive surgery. These models can be employed for different purposes, such as the preoperatory evaluation of anatomic structures or the surgical planning for catheter guidance. In the specific case of AAA diagnosis and treatment, physical models are especially useful for evaluating pressures over vascular structures. There are multiple techniques that require the generation of physical models which represent the target anatomy. Finite element (FE) analysis is one the principal applications for physical models. FE simulations for AAA may be patient-specific and allow modeling biomechanical and physiological variables including those produced by ILT, and also the segmentation of those anatomical structures in preoperative MR images. Applying numeric methods requires the generation of a proper computational mesh. These meshes represent the patient anatomy using a set of polyhedral elements, with hexahedral elements providing better results. In the specific case of vascular structures, generating hexahedral meshes is a challenging task due to the complex 3D branching anatomy. Each patient’s aneurysm is unique, characterized by its location and shape, and must be accurately represented for subsequent analyses to be meaningful. Most AAAs are located in the region where the aorta bifurcates into the iliac arteries and it is necessary to model this bifurcation precisely and reliably. If blood stagnates in the aneurysm and forms an ILT, it exists as a conforming structure with the aortic wall, i.e. the ILT’s outer contour is the same as the wall’s inner contour. Therefore, resulting meshes must also be conforming. The main objective of this PhD Thesis is designing a novel and robust method for generating conforming hexahedral meshes for the aortic wall and the thrombus. These meshes are built using largely high-quality elements, especially at the bifurcation, that are suitable for FE analysis of tissue stresses. The method accounts for the evolution of the vessel’s centerline which may develop outside a single plane, and generates the mesh directly from segmented images without the requirement to reconstruct triangular surfaces. In order to reduce the user intervention in the mesh generation process is also a goal of this PhD. Thesis to develop a semiautomatic segmentation method for the structures of interest. The segmentation is performed from magnetic resonance image (MRI) sequences that have tuned to provide high contrast for the arterial tissue against the surrounding soft tissue, so that we determine the required information reliably. The main contributions of this PhD Thesis are: 1. The design, implementation and evaluation of an algorithm for generating hexahedral conforming meshes of the arterial wall and the ILT from the segmented contours. A quality inspection has been applied to the meshes in order to determine their suitability for FE methods. Results show that the developed algorithm generates high quality conforming hexahedral meshes even at the bifurcation region. Thus, these meshes are suitable for FE analysis. 2. The design, implementation and evaluation of a semiautomatic segmentation method for the structures of interest. The lumen is segmented in a semiautomatic way from contrast filled MRI using an available software. The results obtained from this process are used to initialize the automatic segmentation of the internal and external faces of the aortic wall. These segmentations are performed by methods based on texture and shape models from MRI with no contrast. The results show that the algorithm provides faithful segmentations of the structures of interest requiring minimal user intervention. In conclusion, the work undertaken in this PhD. Thesis verifies the investigation hypotheses. It intends to serve as basis for future physical model generation of proper biological anatomies used by numerical methods.