683 resultados para Receituário pronto


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ilustra un Glosario exhaustivo de todas las palabras del Lazarillo registradas en el devenir de los contextos, realizado de manera distinta de las Concordancias y que pronto se va a colgar en la red. El Glosario permite estudiar datos estadísticos (cifras y porcentajes), clases gramaticales, voces más frecuentes, campos semánticos dominantes, estilemas, sintagmas, topografía de términos y voces exclusivas de un Tratado, etc. La conclusión es que el Lazarillo es obra muy rica en léxico (por tener muchas palabras con una sola mención y a la vez un bajo índice de repetición) y que expolios como éstos son imprescindibles, sea para estudios lingüísticos y estilísticos, sea para una edición crítica por brindar reunido el usus scribendi del autor con el que sopesar variantes adiáforas o dudosas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En torno a 1912-1914, José Ortega y Gasset inicia una serie de reflexiones sobre las obras más recientes de Pío Baroja y Azorín, con el ánimo de llevar a cabo un análisis del proceso de regeneración de España. Las obras de Baroja y Azorín muestran, a los ojos de Ortega, dos modos distintos pero complementarios de entender España, de enfrentarse al problema patriótico y de afrontar el proceso de modernización del país, que, tal como intuye el filósofo madrileño, ha de llevarse a cabo a través de una renovación cultural. Esa perspectiva analítica va a derivar pronto en el pensador madrileño en una reflexión sobre la teoría de la novela como género literario, a partir de los textos de los dos escritores, como modo de enunciar a través de la evolución del género novelesco la evolución y crisis del racionalismo moderno. Así, la reflexión teórica orteguiana sobre la naturaleza de la novela, desde un punto de vista diacrónico en Meditaciones del Quijote (1914) y desde un punto de vista sincrónico en Ideas sobre la novela (1925), apunta a una doble finalidad, a partir de la reflexión estética: a la visión de la crisis de la razón racionalista y el surgimiento de una nueva razón vital; al problema de cómo enfrentar el proceso de modernización de España en los primeros años del siglo XX. En consecuencia, el debate estético que llevarán a cabo Baroja y Azorín a partir de las reflexiones orteguianas, que estallará en el enfrentamiento entre Baroja y Ortega a la altura de 1924-1925, encubre un debate ideológico del que el otro no es mera cobertura, sino elemento sustancial (el hombre es entendido por Ortega como un "ser de cultura", mientras que Baroja lo concibe como "ser de raza"), y que se ubica en la reflexión central de la vanguardia dentro de la modernidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el período de emergencia de la literatura nacional se encuentran ciertos textos, de carácter autobiográfico, que han sido abordados, principalmente, como fuentes historiográficas, y en las que se han relevado las costumbres, sociabilidad, construcción del estado, etc., de ese momento. El hombre común, testigo de grandes transformaciones en su tiempo, se preocupa por registrar los sucesos excepcionales para generaciones posteriores (Prieto 1982; Jitrik 1998; Weintraub 1991). En este sentido, las conocidas ?pero poco estudiadas- Memorias curiosas de Juan Manuel Beruti, -que enumera los hechos principales que van de 1717 a 1855 en la ciudad de Buenos Aires- inician como una sucinta enumeración de los sucesos administrativos y políticos, pero pronto empieza a ganar terreno la figura del nombre propio, del escritor y, principalmente, la ficción a partir de la narración de los sucesos de 1806. En función de este desplazamiento se analizará el relato seleccionado, intentando abordarlo en tanto texto literario y leer en él, a contrapelo, como quería Benjamin, las huellas que manifiestan la configuración de una subjetividad y de los cambios de percepción de su sujeto textual respecto de los acontecimientos políticos y culturales que en su narrativa se registran

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Al aproximarnos a la poesía de Luis García Montero pronto observamos la importancia del hecho urbano y la incesante presencia de la ciudad que se puede rastrear entre sus versos. Sin embargo, la ciudad en Montero es algo más que una sucesión de calles y coyunturas del vivir urbano, la ciudad es, en realidad, una patria interior del ser humano en la que podremos diferenciar distintas subcategorías con sus consiguientes matices. Intentaremos ofrecer en este breve estudio una somera clasificación de las muchas categorías de ciudad presentes en la poesía monteriana. Para ello nos serviremos de su poemario Vista cansada, en el que la reflexión sobre este concepto es quizá aún más plausible que en sus anteriores poemarios, debido, probablemente, a la vista atrás que acompaña a todo hombre en la línea vital de la cincuentena

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Establecida en 1872, la imprenta de Martín Biedma se convirtió pronto en uno de los talleres gráficos porteños más importantes entre el último cuarto del siglo XIX y el Centenario, y logró reputación por la calidad de sus impresiones. Su crecimiento se dio en un momento de auge de la industria del libro en Buenos Aires, en que se implementaron cambios que modernizaron el oficio del tipógrafo y los talleres de impresión. La primera edición de Potpourri (1882), de Eugenio Cambaceres, es evaluada en relación con el desarrollo y las características de la imprenta y el período

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los versos 990-1008 de Suplicantes de Eurípides constituyen un verdadero locus desperatus: allí Evadne se presenta sobre la escena y expresa en versos líricos los sentimientos previos a su suicidio final. Ni la métrica sin responsio del pasaje, ni el texto evidentemente corrupto, ni la gramática inadecuada ayudan a comprender el sentido del pasaje. Tan así es que la mayoría de los editores ha renunciado a tratar de comprender el sentido de sus palabras. Sin embargo, creemos que la adecuada interpretación de la metáfora utilizada por la esposa de Capaneo ayudará a la comprensión del pasaje: se trata de un priamel que se constituye en patético recordatorio del día de la boda por parte de una mujer que está a punto de suicidarse sobre la tumba de su esposo ya muerto. El fuego del rayo que mató a Capaneo, así como el fuego de la pira en donde arde ahora su cadáver (y en la que ella misma se arrojará muy pronto), le suscitan una serie de recuerdos de días mejores, vinculados todos ellos con el fuego y con la luz. La mención del carro del sol y de la luna, que constituye una metáfora casi cristalizada en la literatura griega, permite desarrollar de manera novedosa otra metáfora: las muchachas que, también ellas, cabalgan sobre la oscuridad portando sus antorchas. Evadne destaca la alegría que reinó el día de su boda, para que sea más agudo el contraste con el momento presente

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Debido a la necesidad de gestionar los nuevos modelos de negocios de las clínicas dentales y la demanda de nuevos servicios requeridos por el paciente, el conocimiento sobre la “calidad del servicio” del sector dental necesita ser ampliado. En la evaluación de la calidad del servicio dental y sanitario, al paciente le es difícil valorar los aspectos técnicos (calidad técnica). El paciente (cliente) de estos servicios se diferencia de otros clientes por su renuencia a recibir el servicio (tratamiento). En la investigación sobre calidad del servicio dental, desde la perspectiva del marketing, existe una tendencia a centrarse en la relación entre las expectativas del paciente y la calidad del servicio, así como también, en investigar el servicio al cliente y el pronto servicio (responsiveness), siendo el SERVQUAL el instrumento más utilizado. También, desde la perspectiva del dentista, se ha investigado sobre la satisfacción del cliente, incluso como sinónimo de calidad. En este artículo, proponemos la configuración del sector dental español y la tipología de las clínicas dentales españolas para luego identificar una serie de líneas de investigación relevantes: enseñar al paciente a evaluar la calidad técnica de la clínica dental, enseñar al dentista a demostrar su calidad técnica, determinar diferencias -en la evaluación de la calidad del servicio del paciente- cuando su enfermedad es grave y cuando no lo es, determinar cuánto afecta la renuencia del paciente a la percepción de la calidad del servicio, entre otras

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentro de los paradigmas de programación en el mundo de la informática tenemos la "Programación Lógica'', cuyo principal exponente es el lenguaje Prolog. Los programas Prolog se componen de un conjunto de predicados, cada uno de ellos definido en base a reglas que aportan un elevado nivel de abstracción y declaratividad al programador. Sin embargo, las formulación con reglas implica, frecuentemente, que un predicado se recompute varias veces para la misma consulta y además, Prolog utiliza un orden fijo para evaluar reglas y objetivos (evaluación SLD) que puede entrar en "bucles infinitos'' cuando ejecuta reglas recursivas declarativamente correctas. Estas limitaciones son atacadas de raiz por la tabulación, que se basa en "recordar'' en una tabla las llamadas realizadas y sus soluciones. Así, en caso de repetir una llamada tendríamos ya disponibles sus soluciones y evitamos la recomputación. También evita "bucles infinitos'' ya que las llamadas que los generan son suspendidas, quedando a la espera de que se computen soluciones para las mismas. La implementación de la tabulación no es sencilla. En particular, necesita de tres operaciones que no pueden ser ejecutadas en tiempo constante simultáneamente. Dichas operaciones son: suspensión de llamadas, relanzamiento de llamadas y {acceso a variables. La primera parte de la tesis compara tres implementaciones de tabulación sobre Ciao, cada una de las cuales penaliza una de estas operaciones. Por tanto, cada solución tiene sus ventajas y sus inconvenientes y se comportan mejor o peor dependiendo del programa ejecutado. La segunda parte de la tesis mejora la funcionalidad de la tabulación para combinarla con restricciones y también para evitar computaciones innecesarias. La programación con restricciones permite la resolución de ecuaciones como medio de programar, mecanismo altamente declarativo. Hemos desarrollado un framework para combinar la tabulación con las restricciones, priorizando objetivos como la flexibilidad, la eficiencia y la generalidad de nuestra solución, obteniendo una sinergia entre ambas técnicas que puede ser aplicada en numerosas aplicaciones. Por otra parte, un aspecto fundamental de la tabulación hace referencia al momento en que se retornan las soluciones de una llamada tabulada. Local evaluation devuelve soluciones cuando todas las soluciones de la llamada tabulada han sido computadas. Por contra, batched evaluation devuelve las soluciones una a una conforme van siendo computadas, por lo que se adapta mejor a problemas donde no nos interesa encontrar todas las soluciones. Sin embargo, su consumo de memoria es exponencialmente peor que el de local evaluation. La tesis presenta swapping evaluation, que devuelve soluciones tan pronto como son computadas pero con un consumo de memoria similar a la de local evaluation. Además, se implementan operadores de poda, once/1, para descartar la búsqueda de soluciones alternativas cuando encontramos la solución deseada. Por último, Prolog adopta con relativa facilidad soluciones para paralelismo gracias a su flexibilidad en el control de la ejecución y a que sus asignaciones son lógicas. La tercera parte de la tesis extiende el paralelismo conjuntivo de Ciao para trabajar con programas no deterministas, lo que presenta dos problemas principales: los objetivos atrapados y la recomputación de objetivos. Las soluciones clásicas para los objetivos atrapados rompían muchos invariantes de la ejecución Prolog, siendo soluciones difíciles de mantener y de extender, que la experiencia nos dice que han caído en desuso. Nosotros proponemos una solución modular (basada en la implementación de swapping evaluation), localizada y que no rompe los invariantes de la ejecución Prolog, pero que mantiene un alto rendimiento de la ejecución paralela. En referencia a la recomputación de objetivos paralelos en presencia de no determinismo hemos adaptado ténicas derivadas de la tabulación para memorizar computaciones de estos objetivos y evitar su recomputación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde que el Hombre era morador de las cavernas ha sido manifiesto su deseo innato por grabar y reproducir "instantáneas con las que perpetuarse o sobre las que mirarse ". La aparición y desarrollo de la fotografía como medio para poder captar y fijar "la imagen directa de la realidad circundante " pronto se convierte en un nuevo lenguaje estético y poético que permite al artista la interpretación y reflexión de lo observado. Se imprime a la imagen el carácter de la mirada del fotógrafo, estableciendo un diálogo conceptual con el juego de luces. La presente Tesis plantea la creación de una nueva piel de arquitectura mediante la impresión fotográfica sobre materiales pétreos. La búsqueda de la expresividad de los materiales como soporte de expresión artística implica un cambio de escala al trasladar la instantánea fotográfica a la arquitectura y la aplicación de un nuevo soporte al imprimir la fotografía sobre materiales arquitectónicos. Se justifica la elección del dispositivo láser CO2 como sistema de impresión fotográfica sobre los materiales pétreos arquitectónicos, como la técnica que permite la unión física de la imagen y el proyecto arquitectónico, generando un valor añadido a través del arte de la fotografía. Se justifica la elección de los materiales investigados, Silestone® Blanco Zeus y GRC® con TX Active® Aria, de forma que la investigación de esta nueva piel de arquitectura abarca tanto la envolvente del edificio como su volumen interior, permitiendo cerrar el círculo arquitectónico "in&out" y dota al proyecto arquitectónico de un valor añadido al introducir conceptos sostenibles de carácter estético y medioambiental. Se realiza una consulta a las empresas del sector arquitectónico relacionadas directamente con la producción y distribución de los materiales Silestone® y GRC®, así como a las empresas especializadas en sistemas de impresión fotográfica sobre materiales, acerca del estado del arte. Se recorre la Historia de la fotografía desde sus orígenes hasta el desarrollo de la era digital y se analiza su condición artística. Se recopilan los sistemas de impresión fotográfica que han evolucionado en paralelo con los dispositivos de captura de la instantánea fotográfica y se describe en profundidad el sistema de impresión fotográfica mediante dispositivo láser CO2. Se describen los procesos de fabricación, las características técnicas, cualidades y aplicaciones de los materiales pétreos arquitectónicos Silestone® Blanco Zeus y GRC® con TX Active® Aria. Se explica la técnica utilizada para la captación de la imagen fotográfica, su justificación artística y su proceso de impresión mediante dispositivo láser CO2 bajo diferentes parámetros sobre muestras de los materiales arquitectónicos investigados. Se comprueba la viabilidad de desarrollo de la nueva piel de arquitectura sobre Silestone® Blanco Zeus y GRC® con TX Active® Aria sometiendo a las piezas impresas bajo diferentes parámetros a tres ensayos de laboratorio. En cada uno de ellos se concreta el objetivo y procedimiento del ensayo, la enumeración de las muestras ensayadas y los parámetros bajo los que han sido impresas, el análisis de los resultados del ensayo y las conclusiones del ensayo. Ensayo de amplitud térmica. Se determina el grado de afectación de las imágenes impresas bajo la acción de contrastes térmicos. Series de muestras de Silestone® Blanco Zeus y GRC® con TX Active® Aria impresas con láser CO2 se someten a ciclos de contraste frío-calor de 12 horas de duración para una amplitud térmica total de 102°C. Se realiza una toma sistemática de fotografías microscópicas con lupa de aumento de cada pieza antes y después de los ciclos frío-calor y la observación de las transformaciones que experimentan los materiales bajo la acción del láser CO2. Ensayo de exposición a la acción de la radiación ultravioleta (UV). Se determina el grado de afectación de las imágenes impresas al activar la capacidad autolimpiante de partículas orgánicas. Una serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a ciclos de exposición de radiación ultravioleta de 26 horas de duración. Se somete la serie a un procedimiento de activación del aditivo TX Active®. Se simula la contaminación orgánica mediante la aplicación controlada de Rodamina B, tinte orgánico, y se simula la radiación UV mediante el empleo de una bombilla de emisión de rayos ultravioleta. Se realiza una toma sistemática de fotografías macroscópicas de la serie de muestras ensayadas: antes de aplicación de la Rodamina B, momento 00:00h, momento 04:00h y momento 26:00h del ensayo. Se procede a la descarga y análisis del histograma de las fotografías como registro de la actividad fotocatalítica. Ensayo de la capacidad autodescontaminante del GRC® con TX Active® impreso con láser CO2. Se comprueba si la capacidad autodescontaminante del GRC® con TX Active® se ve alterada como consecuencia de la impresión de la imagen fotográfica impresa con láser CO2. Serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a test de capacidad autodescontaminante: atmósfera controlada y contaminada con óxidos de nitrógeno en los que se coloca cada pieza ensayada bajo la acción de una lámpara de emisión de radiación ultravioleta (UV). Se registra la actividad fotocatalítica en base a la variación de concentración de óxido de nitrógeno. Se recopila el análisis e interpretación de los resultados de los ensayos de laboratorio y se elaboran las conclusiones generales de la investigación. Se sintetizan las futuras líneas de investigación que, a partir de las investigaciones realizadas y de sus conclusiones generales, podrían desarrollarse en el ámbito de la impresión fotográfica sobre materiales arquitectónicos. Se describe el rendimiento tecnológico y artístico generado por las investigaciones previas que han dado origen y desarrollo a la Tesis Doctoral. ABSTRACT Since ancient time, humanity has been driven by an innate wish to reproduce and engrave "snapshots that could help to perpetúate or to look at one self". Photography's birth and its development as a mean to capture and fix "the direct image of the surrounding reality" quickly becomes a new aesthetical and poetical language allowing the artist to interpret and think over what has been observed. The photographer's eye is imprinted onto the image, and so the conceptual dialogue between the artist and the light beams begins. The current thesis suggests the creation of a new architectural skin through photography imprinting over stony materials. The search for material's expressiveness as a medium of artistic expression involves a change of scale as it transfers photographic snapshot into architecture and the use of a new photographic printing support over architectural materials. CO2 laser is the chosen printing system for this technique as it allows the physical union of the image and the architectonic project, generating an added value through the art of photography. The researched materials selected were Silestone®, Blanco Zeus and GRC® with TX Active® Aria. This new architectural skin contains the building surrounding as well as its interior volume, closing the architectonic "in & out" circle and adding a value to the project by introducing aesthetical and environmental sustainable concepts. Architecture companies related to the production and distribution of materials like Silestone® and GRC®, as well as companies specialized in photography printing over materials were consulted to obtain a State of the Art. A thorough analysis of photography's History from its origins to the digital era development was made and its artistic condition was studied in this thesis. In this study the author also makes a compilation of several photographic printing systems that evolved together with photographic snapshot devices. The CO2 laser-based photographic printing system is also described in depth. Regarding stony materials of architecture like Silestone®, Blanco Zeus and GRC® with TX Active® Aria, the present study also describes their manufacture processes as well as technical features, quality and application. There is also an explanation about the technique to capture the photographic image, its artistic justification and its CO2 laser-based printing system over the researched materials under different parameters. We also tested the feasibility of this new architectural skin over Silestone® Blanco Zeus and GRC® with TX Active® Aria. The pieces were tested under different parameters in three laboratory trials. Each trial comprises of an explanation of its objective and its process, the samples were numbered and the printing parameters were specified. Finally, with the analysis of the results some conclusions were drawn. In the thermal amplitude trial we tried to determine how printed images were affected as a result of the action of thermal contrasts. Series of samples of Silestone® Blanco Zeus and GRC® with TX Active® Aria printed with CO2 laser were subjected to several 12h warm-cold cycles for thermal total amplitude of 102oc. Each sample was captured systematically with microscopic enhanced lenses before and after cold-warm cycles. The changes experienced by these materials under the effect of CO2 laser were observed and recorded. Trial regarding the Ultraviolet Radiation (UR) effect on images. We determined to which extent printed images were affected once the self-cleaning organic particles were activated. This time GRC® with TX Active® Aria samples printed with CO2 laser were exposed to a 26h UR cycle. The samples were subjected to the activation of TX Active® additive. Through the controlled application of Rodamine B and organic dye we were able to simulate the organic contamination process. UR was simulated using an ultraviolet beam emission bulb. A systematic capture of macroscopic pictures of the tested sample series was performed at different time points: before Rodamine B application, at moment 00:00h, moment 04:00h and moment 26:00h of the trial. Picture's histogram was downloaded and analyzed as a log of photocatalytic activity. Trial regarding the self-decontaminating ability of GRC® with TX Active® printed with CO2 laser. We tested if this self-decontaminating ability is altered as a result of CO2 laser printed image. GRC® with TX Active® Aria samples printed with CO2 laser, were subject to self-decontaminating ability tests with controlled and nitrogen oxide contaminated atmosphere. Each piece was put under the action of an UR emission lamp. Photocatalytic activity was recorded according to the variation in nitrogen oxide concentration. The results of the trial and their interpretation as well as the general conclusions of the research are also compiled in the present study. Study conclusions enable to draw future research lines of potential applications of photographic printing over architecture materials. Previous research generated an artistic and technological outcome that led to the development of this doctoral thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto, construcción y explotación de los túneles de Calle 30, la vía urbana de circunvalación más importante de la ciudad de Madrid, ha supuesto un importante reto por multitud de factores característicos entre los los que cabe citar las restricciones geométricas, el entorno de la vía y la composición del tráfico. Ésto ha quedado reflejado en el hecho de que, tan pronto como se ha puesto en servicio, la infraestructura se ha convertido en una referencia internacional. En el ámbito de la seguridad, partiendo de un enfoque global que contempla el conjunto de medidas disponibles se han utilizado las más modernas tecnologías disponibles aplicando, a su vez, procedimientos de trabajo y metodologías. En particular, ha sido especialmente destacable la persistencia en mantener, como objetivo principal, la definicición de criterios de proyecto homogéneos y coherentes que permitiesen explotar la compleja red de túneles como una única infraestructura. En el caso del sistema de ventilación, para cumplir estos objetivos se ha realizado un enorme esfuerzo de coordinación y homogeneización de criterios lo que, junto a la utilización de novedosas tecnologías, ha supuesto un apasionante desafío. Como resultado, el presenta artículoo, partiendo de la exposición de los criterios asociados a la solución conceptual, profundiza en aquellos aspectos que, por su novedad, se consideran de interés para el lector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

it's been 50years since the world witnessed the triumph of one of the iast revoiutíons of the twentieth-century starring a group of bearded men who descended from the mountains of Cuba and who wouid end up overthrowing the Batista regime. Ricardo Porro was a Cuban architect exiied for his revoiutionary ideais. Vittorio Garatti and Roberto Gottardi were itaiian immigrant architects. The three coincided in the effervescent city of Caracas in the iate 50's within the circie of friends of Carios Raui de Viiianueva, who had at that tí me, finished one of his most significant works, the City University of Caracas. United by a common circie of friends, they wouid soon receive their dream assignment: an Academy ofArt for the chiidren of workers in the revoiutionary Havana. The idea was directiy based on the triumphant ideoiogist of the revoiutíon: Fidei Castro and Che Guevara. Aii schoois had to represent the image of the new society. They wouid immediateiy depart for Havana. The year was 1961 and they had oniy a few months to pian and carry out the project. The schoois were officiaiiy opened in 1965 without having been compieted. The set was iocated in the Goif Course Country Ciub of Havana. The iands- cape of the goif course and the understanding of the piace, by the three architects, was the origin of the projects. initíaiiy, they worked with some common principies that conditíoned its architecturai answer and gave the group the homogeneity of a singie project: the integratíon with the iandsca- pe, the same constructíon system and a singie materiai. This research anaiyzes the conditíons used by the three architects in order to investígate the responses from the point of view of architecturai design. Han pasado más de 50 años desde que el mundo contempló el triunfo de una de las últimas revoluciones del siglo XX, protagonizada por un grupo de barbudos que descendían de la sierra de Cuba y que acabaría con el derrocamiento del régimen de Batista. Ricardo Porro era un arquitecto cubano exiliado por sus ideales revolucionarios. Vittorio Garatt y Roberto Gottardi eran arquitectos italianos emigrantes. Los tres coincidieron en la efervescente Caracas de Anales de los años 50 en torno a la figura de Carlos Raúl de Villanueva que terminaba en esa época una de sus obras más significativas, la Ciudad Universitaria de Caracas. Unidos por un círculo común de amistades pronto recibirán el encargo soñado: una Academia de las Artes para los hijos de los trabajadores en La Habana revolucionaria. La idea partia directamente de los ideólogos triunfantes de la revolución: Fidel Castro y el Che Guevara. El conjunto de las escuelas tenía que representar la imagen de la nueva sociedad. Inmediatamente partirán rumbo a La Habana. Corría el año 1961 y dispo¬nían de unos pocos meses para proyectar y ejecutar las obras. Las escuelas fueron oficialmente inauguradas en 1965 sin haberse concluido. El conjunto se ubicó en el campo de golf del Country Club de La Habana. El paisaje del campo de golf y el entendimiento del lugar, por parte de los tres arquitectos, fue el origen de los proyectos. Trabajaron inicialmente con unas premisas comunes que condicionaron su respuesta arquitectónica y le dieron al conjunto la homogeneidad de un único proyecto: la integración con el paisaje, un mismo sistema constructivo y un único material. Este trabajo de investigación parte de los condicionantes a los que se enfrentaron los tres arquitectos para así analizar las respuestas dadas desde el punto de vista del proyecto arquitectónico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En las últimas décadas hemos visto como han proliferado en la periferia de nuestras ciudades grandes extensiones de asentamientos residenciales. Este modelo urbanístico se ha demostrado no solo lesivo para el medio ambiente sino además ideológicamente erróneo. Concebido en EE.UU. como respuesta a la demanda de bienestar de una reciente clase media, su tipología fue penetrando paulatinamente en la ciudad europea a través del cine. Basada en premisas poco flexibles, pronto se revelaría como un modelo insatisfactorio para la mujer a la que en teoría iba dirigida. In recent decades we have experienced how large extensions of residential settlements have proliferated in the periphery of our cities. This urban model has been shown not only harmful to the environment but also ideologically wrong. Designed in the USA in response to the demand for welfare of an emerging middle class, their typology was gradually penetrating the European city through cinema. Based on inflexible assumptions, it was soon revealed as an unsatisfactory model for women to whom it was theoretically addressed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos, como las enzimas de restricción o la reacción en cadena de la polimerasa (PCR), contribuyendo de manera determinante a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. El trabajo presentado por Adleman (1994) logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos de fuerza bruta similares al utilizado por Adleman se logró resolver otros problemas NP-completos, como por ejemplo el de Satisfacibilidad de Fórmulas Lógicas / SAT (Lipton, 1995). Pronto se comprendió que la computación biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas con aplicación biomédica (Simmel, 2007), dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la polimerasa (Hagiya et al., 1997), autómatas que funcionan con enzimas de restricción (Benenson et al., 2001) o con deoxiribozimas (Stojanovic et al., 2002), o circuitos de hibridación competitiva (Yurke et al., 2000). Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos capaces de implementar diversas operaciones de computación lógica aprovechando técnicas de computación biomolecular (hibridación competitiva del ADN y reacciones enzimáticas) con aplicaciones en diagnóstico genético. El primer conjunto de modelos, presentados en el Capítulo 5 y publicados en Sainz de Murieta and Rodríguez-Patón (2012b), Rodríguez-Patón et al. (2010a) y Sainz de Murieta and Rodríguez-Patón (2010), define un tipo de biosensor que usa hebras simples de ADN para codificar reglas sencillas, como por ejemplo "SI hebra-ADN-1 Y hebra-ADN-2 presentes, ENTONCES enfermedad-B". Estas reglas interactúan con señales de entrada (ADN o ARN de cualquier tipo) para producir una señal de salida (también en forma de ácido nucleico). Dicha señal de salida representa un diagnóstico, que puede medirse mediante partículas fluorescentes técnicas FRET) o incluso ser un tratamiento administrado en respuesta a un conjunto de síntomas. El modelo presentado en el Capítulo 5, publicado en Rodríguez-Patón et al. (2011), es capaz de ejecutar cadenas de resolución sobre fórmulas lógicas en forma normal conjuntiva. Cada cláusula de una fórmula se codifica en una molécula de ADN. Cada proposición p se codifica asignándole una hebra simple de ADN, y la correspondiente hebra complementaria a la proposición ¬p. Las cláusulas se codifican incluyendo distintas proposiciones en la misma hebra de ADN. El modelo permite ejecutar programas lógicos de cláusulas Horn aplicando múltiples iteraciones de resolución en cascada, con el fin de implementar la función de un nanodispositivo autónomo programable. Esta técnica también puede emplearse para resolver SAP sin ayuda externa. El modelo presentado en el Capítulo 6 se ha publicado en publicado en Sainz de Murieta and Rodríguez-Patón (2012c), y el modelo presentado en el Capítulo 7 se ha publicado en (Sainz de Murieta and Rodríguez-Patón, 2013c). Aunque explotan métodos de computación biomolecular diferentes (hibridación competitiva de ADN en el Capítulo 6 frente a reacciones enzimáticas en el 7), ambos modelos son capaces de realizar inferencia Bayesiana. Funcionan tomando hebras simples de ADN como entrada, representando la presencia o la ausencia de un indicador molecular concreto (una evidencia). La probabilidad a priori de una enfermedad, así como la probabilidad condicionada de una señal (o síntoma) dada la enfermedad representan la base de conocimiento, y se codifican combinando distintas moléculas de ADN y sus concentraciones relativas. Cuando las moléculas de entrada interaccionan con las de la base de conocimiento, se liberan dos clases de hebras de ADN, cuya proporción relativa representa la aplicación del teorema de Bayes: la probabilidad condicionada de la enfermedad dada la señal (o síntoma). Todos estos dispositivos pueden verse como elementos básicos que, combinados modularmente, permiten la implementación de sistemas in vitro a partir de sensores de ADN, capaces de percibir y procesar señales biológicas. Este tipo de autómatas tienen en la actualidad una gran potencial, además de una gran repercusión científica. Un perfecto ejemplo fue la publicación de (Xie et al., 2011) en Science, presentando un autómata biomolecular de diagnóstico capaz de activar selectivamente el proceso de apoptosis en células cancerígenas sin afectar a células sanas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A día de hoy, XML (Extensible Markup Language) es uno de los formatos más utilizados para el intercambio y almacenamiento de información estructurada en la World Wide Web. Es habitual que las aplicaciones que utilizan archivos XML presupongan en ellos una estructura determinada, pudiendo producirse errores si se intentase emplear documentos que no la cumplan. A fin de poder expresar este tipo de limitaciones y poder verificar que un documento las cumple, se definió en el mismo estándar XML el DTD, si bien pronto se mostró bastante limitado en cuanto a su capacidad expresiva. Es por este motivo que se decidió crear el XML Schema, un lenguaje XML para definir qué estructura deben tener otros documentos XML. Contar con un esquema tiene múltiples ventajas, siendo la principal de ellas el poder validar documentos contra él para comprobar si su estructura es correcta u otras como la generación automática de código. Sin embargo, definir una estructura común a varios documentos XML de una manera óptima puede convertirse en una tarea ardua si se hace de manera manual. Este problema puede salvarse contando con una herramienta que automatice el proceso de creación de dichos XSDs. En este proyecto, desarrollaremos una herramienta en Java que, a partir de una serie de documentos XML de entrada, inferirá automáticamente un esquema contra el que validen todos ellos, expresando su estructura de manera completa y concisa. Dicha herramienta permitirá elegir varios parámetros de inferencia, a fin de que el esquema generado se adapte lo más posible a los propósitos del usuario. Esta herramienta generará también una serie de estadísticas adicionales, que permitirán conocer más información sobre los ficheros de entrada.