519 resultados para Receituário pronto


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Debido a la necesidad de gestionar los nuevos modelos de negocios de las clínicas dentales y la demanda de nuevos servicios requeridos por el paciente, el conocimiento sobre la “calidad del servicio” del sector dental necesita ser ampliado. En la evaluación de la calidad del servicio dental y sanitario, al paciente le es difícil valorar los aspectos técnicos (calidad técnica). El paciente (cliente) de estos servicios se diferencia de otros clientes por su renuencia a recibir el servicio (tratamiento). En la investigación sobre calidad del servicio dental, desde la perspectiva del marketing, existe una tendencia a centrarse en la relación entre las expectativas del paciente y la calidad del servicio, así como también, en investigar el servicio al cliente y el pronto servicio (responsiveness), siendo el SERVQUAL el instrumento más utilizado. También, desde la perspectiva del dentista, se ha investigado sobre la satisfacción del cliente, incluso como sinónimo de calidad. En este artículo, proponemos la configuración del sector dental español y la tipología de las clínicas dentales españolas para luego identificar una serie de líneas de investigación relevantes: enseñar al paciente a evaluar la calidad técnica de la clínica dental, enseñar al dentista a demostrar su calidad técnica, determinar diferencias -en la evaluación de la calidad del servicio del paciente- cuando su enfermedad es grave y cuando no lo es, determinar cuánto afecta la renuencia del paciente a la percepción de la calidad del servicio, entre otras

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentro de los paradigmas de programación en el mundo de la informática tenemos la "Programación Lógica'', cuyo principal exponente es el lenguaje Prolog. Los programas Prolog se componen de un conjunto de predicados, cada uno de ellos definido en base a reglas que aportan un elevado nivel de abstracción y declaratividad al programador. Sin embargo, las formulación con reglas implica, frecuentemente, que un predicado se recompute varias veces para la misma consulta y además, Prolog utiliza un orden fijo para evaluar reglas y objetivos (evaluación SLD) que puede entrar en "bucles infinitos'' cuando ejecuta reglas recursivas declarativamente correctas. Estas limitaciones son atacadas de raiz por la tabulación, que se basa en "recordar'' en una tabla las llamadas realizadas y sus soluciones. Así, en caso de repetir una llamada tendríamos ya disponibles sus soluciones y evitamos la recomputación. También evita "bucles infinitos'' ya que las llamadas que los generan son suspendidas, quedando a la espera de que se computen soluciones para las mismas. La implementación de la tabulación no es sencilla. En particular, necesita de tres operaciones que no pueden ser ejecutadas en tiempo constante simultáneamente. Dichas operaciones son: suspensión de llamadas, relanzamiento de llamadas y {acceso a variables. La primera parte de la tesis compara tres implementaciones de tabulación sobre Ciao, cada una de las cuales penaliza una de estas operaciones. Por tanto, cada solución tiene sus ventajas y sus inconvenientes y se comportan mejor o peor dependiendo del programa ejecutado. La segunda parte de la tesis mejora la funcionalidad de la tabulación para combinarla con restricciones y también para evitar computaciones innecesarias. La programación con restricciones permite la resolución de ecuaciones como medio de programar, mecanismo altamente declarativo. Hemos desarrollado un framework para combinar la tabulación con las restricciones, priorizando objetivos como la flexibilidad, la eficiencia y la generalidad de nuestra solución, obteniendo una sinergia entre ambas técnicas que puede ser aplicada en numerosas aplicaciones. Por otra parte, un aspecto fundamental de la tabulación hace referencia al momento en que se retornan las soluciones de una llamada tabulada. Local evaluation devuelve soluciones cuando todas las soluciones de la llamada tabulada han sido computadas. Por contra, batched evaluation devuelve las soluciones una a una conforme van siendo computadas, por lo que se adapta mejor a problemas donde no nos interesa encontrar todas las soluciones. Sin embargo, su consumo de memoria es exponencialmente peor que el de local evaluation. La tesis presenta swapping evaluation, que devuelve soluciones tan pronto como son computadas pero con un consumo de memoria similar a la de local evaluation. Además, se implementan operadores de poda, once/1, para descartar la búsqueda de soluciones alternativas cuando encontramos la solución deseada. Por último, Prolog adopta con relativa facilidad soluciones para paralelismo gracias a su flexibilidad en el control de la ejecución y a que sus asignaciones son lógicas. La tercera parte de la tesis extiende el paralelismo conjuntivo de Ciao para trabajar con programas no deterministas, lo que presenta dos problemas principales: los objetivos atrapados y la recomputación de objetivos. Las soluciones clásicas para los objetivos atrapados rompían muchos invariantes de la ejecución Prolog, siendo soluciones difíciles de mantener y de extender, que la experiencia nos dice que han caído en desuso. Nosotros proponemos una solución modular (basada en la implementación de swapping evaluation), localizada y que no rompe los invariantes de la ejecución Prolog, pero que mantiene un alto rendimiento de la ejecución paralela. En referencia a la recomputación de objetivos paralelos en presencia de no determinismo hemos adaptado ténicas derivadas de la tabulación para memorizar computaciones de estos objetivos y evitar su recomputación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde que el Hombre era morador de las cavernas ha sido manifiesto su deseo innato por grabar y reproducir "instantáneas con las que perpetuarse o sobre las que mirarse ". La aparición y desarrollo de la fotografía como medio para poder captar y fijar "la imagen directa de la realidad circundante " pronto se convierte en un nuevo lenguaje estético y poético que permite al artista la interpretación y reflexión de lo observado. Se imprime a la imagen el carácter de la mirada del fotógrafo, estableciendo un diálogo conceptual con el juego de luces. La presente Tesis plantea la creación de una nueva piel de arquitectura mediante la impresión fotográfica sobre materiales pétreos. La búsqueda de la expresividad de los materiales como soporte de expresión artística implica un cambio de escala al trasladar la instantánea fotográfica a la arquitectura y la aplicación de un nuevo soporte al imprimir la fotografía sobre materiales arquitectónicos. Se justifica la elección del dispositivo láser CO2 como sistema de impresión fotográfica sobre los materiales pétreos arquitectónicos, como la técnica que permite la unión física de la imagen y el proyecto arquitectónico, generando un valor añadido a través del arte de la fotografía. Se justifica la elección de los materiales investigados, Silestone® Blanco Zeus y GRC® con TX Active® Aria, de forma que la investigación de esta nueva piel de arquitectura abarca tanto la envolvente del edificio como su volumen interior, permitiendo cerrar el círculo arquitectónico "in&out" y dota al proyecto arquitectónico de un valor añadido al introducir conceptos sostenibles de carácter estético y medioambiental. Se realiza una consulta a las empresas del sector arquitectónico relacionadas directamente con la producción y distribución de los materiales Silestone® y GRC®, así como a las empresas especializadas en sistemas de impresión fotográfica sobre materiales, acerca del estado del arte. Se recorre la Historia de la fotografía desde sus orígenes hasta el desarrollo de la era digital y se analiza su condición artística. Se recopilan los sistemas de impresión fotográfica que han evolucionado en paralelo con los dispositivos de captura de la instantánea fotográfica y se describe en profundidad el sistema de impresión fotográfica mediante dispositivo láser CO2. Se describen los procesos de fabricación, las características técnicas, cualidades y aplicaciones de los materiales pétreos arquitectónicos Silestone® Blanco Zeus y GRC® con TX Active® Aria. Se explica la técnica utilizada para la captación de la imagen fotográfica, su justificación artística y su proceso de impresión mediante dispositivo láser CO2 bajo diferentes parámetros sobre muestras de los materiales arquitectónicos investigados. Se comprueba la viabilidad de desarrollo de la nueva piel de arquitectura sobre Silestone® Blanco Zeus y GRC® con TX Active® Aria sometiendo a las piezas impresas bajo diferentes parámetros a tres ensayos de laboratorio. En cada uno de ellos se concreta el objetivo y procedimiento del ensayo, la enumeración de las muestras ensayadas y los parámetros bajo los que han sido impresas, el análisis de los resultados del ensayo y las conclusiones del ensayo. Ensayo de amplitud térmica. Se determina el grado de afectación de las imágenes impresas bajo la acción de contrastes térmicos. Series de muestras de Silestone® Blanco Zeus y GRC® con TX Active® Aria impresas con láser CO2 se someten a ciclos de contraste frío-calor de 12 horas de duración para una amplitud térmica total de 102°C. Se realiza una toma sistemática de fotografías microscópicas con lupa de aumento de cada pieza antes y después de los ciclos frío-calor y la observación de las transformaciones que experimentan los materiales bajo la acción del láser CO2. Ensayo de exposición a la acción de la radiación ultravioleta (UV). Se determina el grado de afectación de las imágenes impresas al activar la capacidad autolimpiante de partículas orgánicas. Una serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a ciclos de exposición de radiación ultravioleta de 26 horas de duración. Se somete la serie a un procedimiento de activación del aditivo TX Active®. Se simula la contaminación orgánica mediante la aplicación controlada de Rodamina B, tinte orgánico, y se simula la radiación UV mediante el empleo de una bombilla de emisión de rayos ultravioleta. Se realiza una toma sistemática de fotografías macroscópicas de la serie de muestras ensayadas: antes de aplicación de la Rodamina B, momento 00:00h, momento 04:00h y momento 26:00h del ensayo. Se procede a la descarga y análisis del histograma de las fotografías como registro de la actividad fotocatalítica. Ensayo de la capacidad autodescontaminante del GRC® con TX Active® impreso con láser CO2. Se comprueba si la capacidad autodescontaminante del GRC® con TX Active® se ve alterada como consecuencia de la impresión de la imagen fotográfica impresa con láser CO2. Serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a test de capacidad autodescontaminante: atmósfera controlada y contaminada con óxidos de nitrógeno en los que se coloca cada pieza ensayada bajo la acción de una lámpara de emisión de radiación ultravioleta (UV). Se registra la actividad fotocatalítica en base a la variación de concentración de óxido de nitrógeno. Se recopila el análisis e interpretación de los resultados de los ensayos de laboratorio y se elaboran las conclusiones generales de la investigación. Se sintetizan las futuras líneas de investigación que, a partir de las investigaciones realizadas y de sus conclusiones generales, podrían desarrollarse en el ámbito de la impresión fotográfica sobre materiales arquitectónicos. Se describe el rendimiento tecnológico y artístico generado por las investigaciones previas que han dado origen y desarrollo a la Tesis Doctoral. ABSTRACT Since ancient time, humanity has been driven by an innate wish to reproduce and engrave "snapshots that could help to perpetúate or to look at one self". Photography's birth and its development as a mean to capture and fix "the direct image of the surrounding reality" quickly becomes a new aesthetical and poetical language allowing the artist to interpret and think over what has been observed. The photographer's eye is imprinted onto the image, and so the conceptual dialogue between the artist and the light beams begins. The current thesis suggests the creation of a new architectural skin through photography imprinting over stony materials. The search for material's expressiveness as a medium of artistic expression involves a change of scale as it transfers photographic snapshot into architecture and the use of a new photographic printing support over architectural materials. CO2 laser is the chosen printing system for this technique as it allows the physical union of the image and the architectonic project, generating an added value through the art of photography. The researched materials selected were Silestone®, Blanco Zeus and GRC® with TX Active® Aria. This new architectural skin contains the building surrounding as well as its interior volume, closing the architectonic "in & out" circle and adding a value to the project by introducing aesthetical and environmental sustainable concepts. Architecture companies related to the production and distribution of materials like Silestone® and GRC®, as well as companies specialized in photography printing over materials were consulted to obtain a State of the Art. A thorough analysis of photography's History from its origins to the digital era development was made and its artistic condition was studied in this thesis. In this study the author also makes a compilation of several photographic printing systems that evolved together with photographic snapshot devices. The CO2 laser-based photographic printing system is also described in depth. Regarding stony materials of architecture like Silestone®, Blanco Zeus and GRC® with TX Active® Aria, the present study also describes their manufacture processes as well as technical features, quality and application. There is also an explanation about the technique to capture the photographic image, its artistic justification and its CO2 laser-based printing system over the researched materials under different parameters. We also tested the feasibility of this new architectural skin over Silestone® Blanco Zeus and GRC® with TX Active® Aria. The pieces were tested under different parameters in three laboratory trials. Each trial comprises of an explanation of its objective and its process, the samples were numbered and the printing parameters were specified. Finally, with the analysis of the results some conclusions were drawn. In the thermal amplitude trial we tried to determine how printed images were affected as a result of the action of thermal contrasts. Series of samples of Silestone® Blanco Zeus and GRC® with TX Active® Aria printed with CO2 laser were subjected to several 12h warm-cold cycles for thermal total amplitude of 102oc. Each sample was captured systematically with microscopic enhanced lenses before and after cold-warm cycles. The changes experienced by these materials under the effect of CO2 laser were observed and recorded. Trial regarding the Ultraviolet Radiation (UR) effect on images. We determined to which extent printed images were affected once the self-cleaning organic particles were activated. This time GRC® with TX Active® Aria samples printed with CO2 laser were exposed to a 26h UR cycle. The samples were subjected to the activation of TX Active® additive. Through the controlled application of Rodamine B and organic dye we were able to simulate the organic contamination process. UR was simulated using an ultraviolet beam emission bulb. A systematic capture of macroscopic pictures of the tested sample series was performed at different time points: before Rodamine B application, at moment 00:00h, moment 04:00h and moment 26:00h of the trial. Picture's histogram was downloaded and analyzed as a log of photocatalytic activity. Trial regarding the self-decontaminating ability of GRC® with TX Active® printed with CO2 laser. We tested if this self-decontaminating ability is altered as a result of CO2 laser printed image. GRC® with TX Active® Aria samples printed with CO2 laser, were subject to self-decontaminating ability tests with controlled and nitrogen oxide contaminated atmosphere. Each piece was put under the action of an UR emission lamp. Photocatalytic activity was recorded according to the variation in nitrogen oxide concentration. The results of the trial and their interpretation as well as the general conclusions of the research are also compiled in the present study. Study conclusions enable to draw future research lines of potential applications of photographic printing over architecture materials. Previous research generated an artistic and technological outcome that led to the development of this doctoral thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto, construcción y explotación de los túneles de Calle 30, la vía urbana de circunvalación más importante de la ciudad de Madrid, ha supuesto un importante reto por multitud de factores característicos entre los los que cabe citar las restricciones geométricas, el entorno de la vía y la composición del tráfico. Ésto ha quedado reflejado en el hecho de que, tan pronto como se ha puesto en servicio, la infraestructura se ha convertido en una referencia internacional. En el ámbito de la seguridad, partiendo de un enfoque global que contempla el conjunto de medidas disponibles se han utilizado las más modernas tecnologías disponibles aplicando, a su vez, procedimientos de trabajo y metodologías. En particular, ha sido especialmente destacable la persistencia en mantener, como objetivo principal, la definicición de criterios de proyecto homogéneos y coherentes que permitiesen explotar la compleja red de túneles como una única infraestructura. En el caso del sistema de ventilación, para cumplir estos objetivos se ha realizado un enorme esfuerzo de coordinación y homogeneización de criterios lo que, junto a la utilización de novedosas tecnologías, ha supuesto un apasionante desafío. Como resultado, el presenta artículoo, partiendo de la exposición de los criterios asociados a la solución conceptual, profundiza en aquellos aspectos que, por su novedad, se consideran de interés para el lector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

it's been 50years since the world witnessed the triumph of one of the iast revoiutíons of the twentieth-century starring a group of bearded men who descended from the mountains of Cuba and who wouid end up overthrowing the Batista regime. Ricardo Porro was a Cuban architect exiied for his revoiutionary ideais. Vittorio Garatti and Roberto Gottardi were itaiian immigrant architects. The three coincided in the effervescent city of Caracas in the iate 50's within the circie of friends of Carios Raui de Viiianueva, who had at that tí me, finished one of his most significant works, the City University of Caracas. United by a common circie of friends, they wouid soon receive their dream assignment: an Academy ofArt for the chiidren of workers in the revoiutionary Havana. The idea was directiy based on the triumphant ideoiogist of the revoiutíon: Fidei Castro and Che Guevara. Aii schoois had to represent the image of the new society. They wouid immediateiy depart for Havana. The year was 1961 and they had oniy a few months to pian and carry out the project. The schoois were officiaiiy opened in 1965 without having been compieted. The set was iocated in the Goif Course Country Ciub of Havana. The iands- cape of the goif course and the understanding of the piace, by the three architects, was the origin of the projects. initíaiiy, they worked with some common principies that conditíoned its architecturai answer and gave the group the homogeneity of a singie project: the integratíon with the iandsca- pe, the same constructíon system and a singie materiai. This research anaiyzes the conditíons used by the three architects in order to investígate the responses from the point of view of architecturai design. Han pasado más de 50 años desde que el mundo contempló el triunfo de una de las últimas revoluciones del siglo XX, protagonizada por un grupo de barbudos que descendían de la sierra de Cuba y que acabaría con el derrocamiento del régimen de Batista. Ricardo Porro era un arquitecto cubano exiliado por sus ideales revolucionarios. Vittorio Garatt y Roberto Gottardi eran arquitectos italianos emigrantes. Los tres coincidieron en la efervescente Caracas de Anales de los años 50 en torno a la figura de Carlos Raúl de Villanueva que terminaba en esa época una de sus obras más significativas, la Ciudad Universitaria de Caracas. Unidos por un círculo común de amistades pronto recibirán el encargo soñado: una Academia de las Artes para los hijos de los trabajadores en La Habana revolucionaria. La idea partia directamente de los ideólogos triunfantes de la revolución: Fidel Castro y el Che Guevara. El conjunto de las escuelas tenía que representar la imagen de la nueva sociedad. Inmediatamente partirán rumbo a La Habana. Corría el año 1961 y dispo¬nían de unos pocos meses para proyectar y ejecutar las obras. Las escuelas fueron oficialmente inauguradas en 1965 sin haberse concluido. El conjunto se ubicó en el campo de golf del Country Club de La Habana. El paisaje del campo de golf y el entendimiento del lugar, por parte de los tres arquitectos, fue el origen de los proyectos. Trabajaron inicialmente con unas premisas comunes que condicionaron su respuesta arquitectónica y le dieron al conjunto la homogeneidad de un único proyecto: la integración con el paisaje, un mismo sistema constructivo y un único material. Este trabajo de investigación parte de los condicionantes a los que se enfrentaron los tres arquitectos para así analizar las respuestas dadas desde el punto de vista del proyecto arquitectónico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En las últimas décadas hemos visto como han proliferado en la periferia de nuestras ciudades grandes extensiones de asentamientos residenciales. Este modelo urbanístico se ha demostrado no solo lesivo para el medio ambiente sino además ideológicamente erróneo. Concebido en EE.UU. como respuesta a la demanda de bienestar de una reciente clase media, su tipología fue penetrando paulatinamente en la ciudad europea a través del cine. Basada en premisas poco flexibles, pronto se revelaría como un modelo insatisfactorio para la mujer a la que en teoría iba dirigida. In recent decades we have experienced how large extensions of residential settlements have proliferated in the periphery of our cities. This urban model has been shown not only harmful to the environment but also ideologically wrong. Designed in the USA in response to the demand for welfare of an emerging middle class, their typology was gradually penetrating the European city through cinema. Based on inflexible assumptions, it was soon revealed as an unsatisfactory model for women to whom it was theoretically addressed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos, como las enzimas de restricción o la reacción en cadena de la polimerasa (PCR), contribuyendo de manera determinante a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. El trabajo presentado por Adleman (1994) logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos de fuerza bruta similares al utilizado por Adleman se logró resolver otros problemas NP-completos, como por ejemplo el de Satisfacibilidad de Fórmulas Lógicas / SAT (Lipton, 1995). Pronto se comprendió que la computación biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas con aplicación biomédica (Simmel, 2007), dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la polimerasa (Hagiya et al., 1997), autómatas que funcionan con enzimas de restricción (Benenson et al., 2001) o con deoxiribozimas (Stojanovic et al., 2002), o circuitos de hibridación competitiva (Yurke et al., 2000). Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos capaces de implementar diversas operaciones de computación lógica aprovechando técnicas de computación biomolecular (hibridación competitiva del ADN y reacciones enzimáticas) con aplicaciones en diagnóstico genético. El primer conjunto de modelos, presentados en el Capítulo 5 y publicados en Sainz de Murieta and Rodríguez-Patón (2012b), Rodríguez-Patón et al. (2010a) y Sainz de Murieta and Rodríguez-Patón (2010), define un tipo de biosensor que usa hebras simples de ADN para codificar reglas sencillas, como por ejemplo "SI hebra-ADN-1 Y hebra-ADN-2 presentes, ENTONCES enfermedad-B". Estas reglas interactúan con señales de entrada (ADN o ARN de cualquier tipo) para producir una señal de salida (también en forma de ácido nucleico). Dicha señal de salida representa un diagnóstico, que puede medirse mediante partículas fluorescentes técnicas FRET) o incluso ser un tratamiento administrado en respuesta a un conjunto de síntomas. El modelo presentado en el Capítulo 5, publicado en Rodríguez-Patón et al. (2011), es capaz de ejecutar cadenas de resolución sobre fórmulas lógicas en forma normal conjuntiva. Cada cláusula de una fórmula se codifica en una molécula de ADN. Cada proposición p se codifica asignándole una hebra simple de ADN, y la correspondiente hebra complementaria a la proposición ¬p. Las cláusulas se codifican incluyendo distintas proposiciones en la misma hebra de ADN. El modelo permite ejecutar programas lógicos de cláusulas Horn aplicando múltiples iteraciones de resolución en cascada, con el fin de implementar la función de un nanodispositivo autónomo programable. Esta técnica también puede emplearse para resolver SAP sin ayuda externa. El modelo presentado en el Capítulo 6 se ha publicado en publicado en Sainz de Murieta and Rodríguez-Patón (2012c), y el modelo presentado en el Capítulo 7 se ha publicado en (Sainz de Murieta and Rodríguez-Patón, 2013c). Aunque explotan métodos de computación biomolecular diferentes (hibridación competitiva de ADN en el Capítulo 6 frente a reacciones enzimáticas en el 7), ambos modelos son capaces de realizar inferencia Bayesiana. Funcionan tomando hebras simples de ADN como entrada, representando la presencia o la ausencia de un indicador molecular concreto (una evidencia). La probabilidad a priori de una enfermedad, así como la probabilidad condicionada de una señal (o síntoma) dada la enfermedad representan la base de conocimiento, y se codifican combinando distintas moléculas de ADN y sus concentraciones relativas. Cuando las moléculas de entrada interaccionan con las de la base de conocimiento, se liberan dos clases de hebras de ADN, cuya proporción relativa representa la aplicación del teorema de Bayes: la probabilidad condicionada de la enfermedad dada la señal (o síntoma). Todos estos dispositivos pueden verse como elementos básicos que, combinados modularmente, permiten la implementación de sistemas in vitro a partir de sensores de ADN, capaces de percibir y procesar señales biológicas. Este tipo de autómatas tienen en la actualidad una gran potencial, además de una gran repercusión científica. Un perfecto ejemplo fue la publicación de (Xie et al., 2011) en Science, presentando un autómata biomolecular de diagnóstico capaz de activar selectivamente el proceso de apoptosis en células cancerígenas sin afectar a células sanas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A día de hoy, XML (Extensible Markup Language) es uno de los formatos más utilizados para el intercambio y almacenamiento de información estructurada en la World Wide Web. Es habitual que las aplicaciones que utilizan archivos XML presupongan en ellos una estructura determinada, pudiendo producirse errores si se intentase emplear documentos que no la cumplan. A fin de poder expresar este tipo de limitaciones y poder verificar que un documento las cumple, se definió en el mismo estándar XML el DTD, si bien pronto se mostró bastante limitado en cuanto a su capacidad expresiva. Es por este motivo que se decidió crear el XML Schema, un lenguaje XML para definir qué estructura deben tener otros documentos XML. Contar con un esquema tiene múltiples ventajas, siendo la principal de ellas el poder validar documentos contra él para comprobar si su estructura es correcta u otras como la generación automática de código. Sin embargo, definir una estructura común a varios documentos XML de una manera óptima puede convertirse en una tarea ardua si se hace de manera manual. Este problema puede salvarse contando con una herramienta que automatice el proceso de creación de dichos XSDs. En este proyecto, desarrollaremos una herramienta en Java que, a partir de una serie de documentos XML de entrada, inferirá automáticamente un esquema contra el que validen todos ellos, expresando su estructura de manera completa y concisa. Dicha herramienta permitirá elegir varios parámetros de inferencia, a fin de que el esquema generado se adapte lo más posible a los propósitos del usuario. Esta herramienta generará también una serie de estadísticas adicionales, que permitirán conocer más información sobre los ficheros de entrada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Reducir el impacto ambiental que genera el sector de la edificación necesita de la participación y colaboración de los distintos agentes del sector: arquitectos, urbanistas, promotores, ingenieros, constructores, administraciones, investigadores, etc. En este sentido, las redes sociales son extremadamente útiles para compartir, informar, debatir y,en definitiva, intercambiar experiencias y conocimientos sobre aquello que realmente funciona. Bajo esta idea y con el apoyo del programa Intelligent Energy Europe de la UE, se ha lanzado la plataforma web Construction21 en España, Francia, Alemania, Italia, Rumania y Lituania y con el objetivo de que pronto se extienda al resto de países de la UE-27. La plataforma contiene información detallada sobre edificios reales construidos bajo criterios ambientales, demostrando que otra manera de construir es posible. También facilita ejemplos de productos y soluciones constructivas innovadoras y ya testadas en casos reales. Las comunidades temáticas relativas a distintos temas clave de la construcción sostenible (como la eficiencia energética, la certificación ambiental, el análisis de ciclo de vida, la rehabilitación energética, etc.) constituyen otro de los contenidos principales de esta plataforma. En Construction21 son los propios usuarios los encargados de publicar los contenidos, fomentando así procesos de inteligencia compartida, tanto a nivel de las plataformas nacionales como a nivel europeo. Esta comunicación pretende explicar los alcances conseguidos hasta la fecha, así como los resultados esperados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto del pequeño nuevo pueblo de Vegaviana en la provincia de Cáceres se inscribió dentro de la amplia labor desarrollada por el Instituto Nacional de Colonización (INC) como materialización de la utopía agraria del franquismo. No obstante, planteado dentro de una nueva sensibilidad arquitectónica y urbanística por su principal autor, José Luis Fernández del Amo, supuso un importante punto de ruptura con la concepción tradicionalista entonces imperante. Ello hizo que recibiera un pronto reconocimiento nada más terminarse a finales de los años 50 en diversos certámenes nacionales e internacionales. En 1967 recibiría además el Premio Nacional de Arquitectura, habiendo siendo recientemente reconocido como Bien de Interés Cultural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resulta imposible disociar la evolución de la arquitectura de Enric Miralles de lo que fue el desarrollo de un sistema de representación propio. Partiendo de una posición heredada de su formación en la Escuela de Arquitectura de Barcelona y de su práctica en el estudio Viaplana-Piñón, donde adquiere el gusto por la precisión en el dibujo técnico, la delineación sobre papel vegetal o el grafismo constituido exclusivamente a base de líneas del mismo grosor, Miralles pronto evoluciona hacia un método caracterizado por un personal uso del sistema diédrico, vinculado a una concepción fragmentaria de la planta de arquitectura y del espacio mismo. Miralles proyectará por fragmentos de planta, asignándoles una geometría característica para diferenciarlos entre sí y desarrollar su espacialidad y sección con cierta autonomía, a través de planos y maquetas independientes. Gran parte de la arquitectura que elabora con Carme Pinós, en solitario o con Benedetta Tagliabue, estará compuesta por colecciones de piezas heterogéneas herederas de los fragmentos de la planta original, que encajan entre sí no en base a esquemas clásicos de integración subordinada o jerárquica, sino a través de posiciones relativas de yuxtaposición o superposición, caracterizadas por una ausencia de compacidad en la solución de conjunto. Este sistema de representación se apoya por tanto en la geometría como mecanismo de diferenciación por piezas, se basa en la fragmentación del diédrico desde la fragmentación de la planta, y en la falta de compacidad como soporte de pensamiento separativo. Un sistema que se define como “planta Miralles”, término que incluye todas las técnicas de representación empleadas por el arquitecto, desde planos a maquetas, pero que enfatiza la importancia estratégica de la planta como origen y guía del proyecto de arquitectura. La tesis se estructura en los tres primeros capítulos como un corolario de las categorías enunciadas, explicando, en orden cronológico a través de los proyectos, la evolución de la geometría, la utilización del diédrico, y el impacto de la falta de compacidad en la obra construida. Mientras que estos capítulos son globales, se refieren a la trayectoria de este método en su totalidad, el cuarto y último es un estudio de detalle de su aplicación en un proyecto particular, el Ayuntamiento de Utrecht, a través de los dibujos originales de Miralles. Tanto en la explicación global como en el estudio de detalle de este sistema de representación, la tesis pone de manifiesto su instrumentalidad en el pensamiento de esta arquitectura, argumentando que ésta no podría haber sido desarrollada sin la existencia del mismo. La relación entre representación y pensamiento es por tanto un tema capital para explicar esta obra. No obstante, hasta la fecha, las referencias al mismo en la bibliografía disponible no han pasado de ser una colección de opiniones dispersas, incapaces de construir por sí mismas un cuerpo estructurado y coherente de conocimiento. Se ha insistido sobremanera en el análisis y contextualización de los proyectos individuales, y poco en el estudio de la técnica proyectual utilizada para pensarlos y llevarlos a cabo. En definitiva, se han priorizado los resultados frente a los procesos creativos, existiendo por tanto un inexplicable vacío teórico respecto a un tema de gran importancia. Este vacío es el marco donde se inserta la necesidad de esta tesis doctoral. La investigación que aquí se presenta explica el origen y evolución del sistema de representación de Enric Miralles, desde su etapa como estudiante en la Escuela de Arquitectura de Barcelona hasta los últimos proyectos que elabora con Benedetta Tagliabue, así como el estudio de sus consecuencias en la obra construida. Termina concluyendo que su desarrollo es paralelo al de la arquitectura de Miralles, poniendo de manifiesto su vinculación y mutua interdependencia. ABSTRACT It is impossible to dissociate the evolution of the architecture of Enric Miralles from the development of his own system of representation. Starting from a position inherited from his training at the Barcelona School of Architecture and his practice at the office of Viaplana-Piñón, where he acquires a liking for precision in drafting and a graphic style based exclusively on lines of the same thickness, Miralles soon moves into a method defined by a customized use of the dihedral system, connected to a fragmented conception of the floorplan and space itself. Breaking up the floorplan into multiple fragments, Miralles will design an architecture where each of them has a unique shape and geometry, developing their sections and spatial qualities with a certain degree of autonomy within the whole, through separate plans and models. Many of the projects he designs with Carme Pinós, individually or with Benedetta Tagliabue, will consist of collections of heterogeneous pieces, heirs of the original floorplan fragments, which do not fit together according to classical principles of subordinate or hierarchical integration, but based on relative positions of juxtaposition or superposition that lead to a lack of compactness in the overall scheme. This system of representation is thus based on the use of geometry as a way of differentiating architectural pieces, on the fragmentation of the dihedral system from the fragmentation of the floorplan, and on a lack of compactness as a device of separative thinking. This system is defined as “Miralles plan”, a term that includes all techniques of representation used by the architect, from plans to models, and that emphasizes the particular importance of the floorplan as the guiding force of the design process. The first three chapters of the thesis have been structured as a corollary of these categories, explaining, in chronological order through Miralles’ projects, the evolution of geometry, the customization of the dihedral system, and the impact of the lack of compactness on the built work. While these three chapters are global, for they refer to the overall evolution of this system, the fourth and last one is a case study of its application to a particular project, the Utrecht Town Hall, through Miralles’ original drawings. Both in the global and particular explanations of this system of representation, the thesis highlights its instrumentality in the process of thinking this architecture, arguing that it could not have been designed without its parallel development. The relationship between thinking and representation is therefore a key issue to explain this architecture. However, to date, existing references to it in the available literature have not evolved from a collection of scattered opinions, unable to build for themselves a structured and coherent body of knowledge. Great emphasis has been put on the critical contextualization of this architecture through the analysis of the projects themselves, but little on the study of the design technique used to think and carry them out. Results have been prioritized over creative processes, existing therefore an inexplicable theoretical void on an issue of great importance. This void is the conceptual framework where the need for this thesis is inserted. This research explains the origin and evolution of Enric Miralles’ system of representation, from his time as student at the Barcelona School of Architecture to the last projects he designed with Benedetta Tagliabue, as well as the study of its impact on the built work. It concludes that the development of this system runs parallel to that of the architecture it is used for, making it explicit its indissolubility and mutual interdependence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La afirmación de que las primeras realizaciones arquitectónicas y de ingeniería estructural son tan antiguas como la civilización no es gratuita. En efecto, tan pronto como se desea cubrir un espacio, salvar un vano o transmitir un empuje (vertical u horizontal), es preciso el desarrollo de un conocimiento específico. El dominio de las técnicas para resolver,en particular, tales problemas ha sido transmitido a través de construcciones religiosas o áulicas que han permanecido a través de los siglos como puntos de referencia y muestra de la habilidad, el ingenio y la audacia de las generaciones predecesoras. Obras como el puente de Alcántara (Cáceres), la mezquita de Córdoba y el monasterio de El Escorial (Madrid) -de los siglos I, X y XVI, respectivamente- demuestran la personalidad de sus proyectistas pero también sus conocimientos constructivos, su capacidad organizadora y la ambición y poderío económico de sus promotores. De hecho, aunque la habilidad para combinar mecanismos estructurales se encuentra en todos los artefactos manejados por el hombre, es en el ámbito de la edificación y de las obras públicas donde, hasta épocas relativamente recientes, se encuentran los ejemplos más espectaculares de estructuras resistentes. Éstos sólo aparecen, sin embargo, cuando coincide la calidad de cada uno de los tres factores que intervienen en la obra, es decir, un proyectista con imaginación y conocimientos, una industria de la construcción capaz de ofrecerle los materiales más adecuados y de llevar a cabo los procesos constructivos que aquél imagine, y un promotor con solvencia económica pero también capaz de calibrar las ventajas de las soluciones que se ofrecen y apreciar factores imponderables como la innovación o la estética, que tanto añaden al cumplimiento de los factores utilitarios que se encuentran en la motivación de las construcciones. A lo largo de la historia los proyectistas españoles han dado pruebas de calidad en algunas realizaciones que se comentarán a continuación y siempre han demostrado un buen conocimiento del estado del arte en el exterior.Sin embargo, no puede decirse que ése haya sido el caso de los promotores o de la industria que, por uno u otro motivo, se ha visto muy afectada por avatares políticos o decisiones económicas equivocadas. Las quejas de Pablo Alzola sobre el "espíritu cosmopolita con que abrimos nuestras puertas a quienes nos las cierran herméticamente", el cual, en el siglo XIX, facilitó las franquicias a la importación de materiales relacionados con la industria ferroviaria, condenando esta importación "a muerte el porvenir de la industria española de hierro y acero, base muy principal de prosperidad en todas las naciones juntas", resuenan de nuevo en relación con la integración europea. Ello se explica por la tendencia general hacia el rendimiento inmediato de las capitales con la consiguiente destecnificación propia y penetración de productos extranjeros conseguidos mediante una investigación coordinada entre administración, industria y universidad. La falta de grupos organizados, de lo que es una interesante excepción la industria del hormigón, ha provocado en muchos ámbitos una ausencia de legislación propia que la industria nacional actualmente echa en falta como defensa específica en términos técnicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los métodos numéricos aplicados al estudio de estructuras sometidas a esfuezos de origen sísmico han sido utilizados habitualmente en ingeniería. La limitación tradicional con que se encontraba el analista radicaba en el enorme esfuerzo de cálculo mecánico necesario para obtener respuestas significativas tan pronto como el modelo matemático a analizar presentaba una cierta complejidad. Esta situación se vió sustancialmente modificada por la aparición del ordenador que, justamente, libera al proyectista del trabajo repetitivo irracional y permite dedicar tiempo a la reflexión, a la par que aumenta espectacularmente la capacidad de modelado. No es extraño pues, que en los ultimos 30 años se haya asistido a un renacimiento de una rama de la Matemática que parecía agostada y que ,fecundada por la nueva herramienta ha florecido en un sinf{n de técnicas y procedimientos que ponen al alcance del ingeniero el análisis de virtualmente, cualquier problema estructural. En este capítulo se pretende exponer algunas de las ideas subyacentes en estos métodos nuevos así como su posible aplicación al campo que nos interesa. Evidentemente, la limitación de espacio impedirá profundizar adecuadamente en los temas, pero la finalidad última será dotar al estudioso de un marco general en el que situar posteriores aventuras intelectuales. El contenido se articula en tres grupos principales que se refieren, respectivamente al modelado de la solicitación sísmica, de la estructura y cimiento, y al análisis de la respuesta. Tras lo dicho anteriormente, una exposición que no incluyese alguna manifestación palpable de la influencia de la máquina, estaría indefectiblemente esviada. Por ello, se incluyen como apéndices cuatro bloques de subrutinas; dos de ellas, en lenguaje Basic de microordenador, se refeiren a la transformada rápida de Fourier de la que se hablará más adelante, y al cálculo de autovalores de estructuras formadas por barras; la tercera es un pequeño programa en Fortran IV, que permite obtener la respuesta de un sistema de un grado de libertad por un método de integracidn paso a paso. En el primer apartado se inserta tambien un programa de determinación de hipocentros. Todas las subrutinas son elementales y ampliamente mejorables. Creemos sin embargo que ello las hace especialmente legibles lo que puede impeler su uso y mejora par el estudiante ; intervención, en definitiva ,deseada y que es el más importante objetivo al que aspiramos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cemento natural fue patentado en Inglaterra en 1796, pero no llegó a España hasta 1835, aunque todavía se discute dónde comenzó la producción nacional, ya que surgió casi simultáneamente en el País Vasco (Zumaya y Rezola) y en Cataluña (San Celoní y San Juan de las Abadesas). Desde entonces fue ampliamente utilizado en la ornamentación arquitectónica durante el siglo XIX y principios del siglo XX en Madrid. Con su llegada reemplazó materiales tradicionales que se utilizaban anteriormente, como las cales aéreas e hidráulicas, y el yeso. Sin embargo, su uso no se alargó en el tiempo, pues pronto fue sustituido por el cemento Portland. En la actualidad, lo que queda de el son cientos de " testimonios de piedra" que hay que conservar y reparar ocasionalmente de la mejor manera posible. Las propiedades finales del cemento natural dependían en gran medida de las materias primas utilizadas y su temperatura de obtención y en general, se caracterizaba por un fraguado rápido (aproximadamente de 15 minutos), una buena resistencia y un agradable color ocre. Esta comunicación muestra las características de las fachadas madrileñas del S.XIX recubiertas con morteros de cemento natural, su estado de conservación y deterioro, así como los daños producidos como resultado de intervenciones desafortunadas en las que han empleado materiales no compatibles con este cemento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El requerimiento de proveer alta frecuencia de datos en los modernos sistema de comunicación inalámbricos resulta en complejas señales moduladas de radio-frequencia (RF) con un gran ancho de banda y alto ratio pico-promedio (PAPR). Para garantizar la linealidad del comportamiento, los amplificadores lineales de potencia comunes funcionan típicamente entre 4 y 10 dB de back-o_ desde la máxima potencia de salida, ocasionando una baja eficiencia del sistema. La eliminación y restauración de la evolvente (EER) y el seguimiento de la evolvente (ET) son dos prometedoras técnicas para resolver el problema de la eficiencia. Tanto en EER como en ET, es complicado diseñar un amplificador de potencia que sea eficiente para señales de RF de alto ancho de banda y alto PAPR. Una propuesta común para los amplificadores de potencia es incluir un convertidor de potencia de muy alta eficiencia operando a frecuencias más altas que el ancho de banda de la señal RF. En este caso, la potencia perdida del convertidor ocasionado por la alta frecuencia desaconseja su práctica cuando el ancho de banda es muy alto. La solución a este problema es el enfoque de esta disertación que presenta dos arquitecturas de amplificador evolvente: convertidor híbrido-serie con una técnica de evolvente lenta y un convertidor multinivel basado en un convertidor reductor multifase con control de tiempo mínimo. En la primera arquitectura, una topología híbrida está compuesta de una convertidor reductor conmutado y un regulador lineal en serie que trabajan juntos para ajustar la tensión de salida para seguir a la evolvente con precisión. Un algoritmo de generación de una evolvente lenta crea una forma de onda con una pendiente limitada que es menor que la pendiente máxima de la evolvente original. La salida del convertidor reductor sigue esa forma de onda en vez de la evolvente original usando una menor frecuencia de conmutación, porque la forma de onda no sólo tiene una pendiente reducida sino también un menor ancho de banda. De esta forma, el regulador lineal se usa para filtrar la forma de onda tiene una pérdida de potencia adicional. Dependiendo de cuánto se puede reducir la pendiente de la evolvente para producir la forma de onda, existe un trade-off entre la pérdida de potencia del convertidor reductor relacionada con la frecuencia de conmutación y el regulador lineal. El punto óptimo referido a la menor pérdida de potencia total del amplificador de evolvente es capaz de identificarse con la ayuda de modelo preciso de pérdidas que es una combinación de modelos comportamentales y analíticos de pérdidas. Además, se analiza el efecto en la respuesta del filtro de salida del convertidor reductor. Un filtro de dampeo paralelo extra es necesario para eliminar la oscilación resonante del filtro de salida porque el convertidor reductor opera en lazo abierto. La segunda arquitectura es un amplificador de evolvente de seguimiento de tensión multinivel. Al contrario que los convertidores que usan multi-fuentes, un convertidor reductor multifase se emplea para generar la tensión multinivel. En régimen permanente, el convertidor reductor opera en puntos del ciclo de trabajo con cancelación completa del rizado. El número de niveles de tensión es igual al número de fases de acuerdo a las características del entrelazamiento del convertidor reductor. En la transición, un control de tiempo mínimo (MTC) para convertidores multifase es novedosamente propuesto y desarrollado para cambiar la tensión de salida del convertidor reductor entre diferentes niveles. A diferencia de controles convencionales de tiempo mínimo para convertidores multifase con inductancia equivalente, el propuesto MTC considera el rizado de corriente por cada fase basado en un desfase fijo que resulta en diferentes esquemas de control entre las fases. La ventaja de este control es que todas las corrientes vuelven a su fase en régimen permanente después de la transición para que la siguiente transición pueda empezar muy pronto, lo que es muy favorable para la aplicación de seguimiento de tensión multinivel. Además, el control es independiente de la carga y no es afectado por corrientes de fase desbalanceadas. Al igual que en la primera arquitectura, hay una etapa lineal con la misma función, conectada en serie con el convertidor reductor multifase. Dado que tanto el régimen permanente como el estado de transición del convertidor no están fuertemente relacionados con la frecuencia de conmutación, la frecuencia de conmutación puede ser reducida para el alto ancho de banda de la evolvente, la cual es la principal consideración de esta arquitectura. La optimización de la segunda arquitectura para más alto anchos de banda de la evolvente es presentada incluyendo el diseño del filtro de salida, la frecuencia de conmutación y el número de fases. El área de diseño del filtro está restringido por la transición rápida y el mínimo pulso del hardware. La rápida transición necesita un filtro pequeño pero la limitación del pulso mínimo del hardware lleva el diseño en el sentido contrario. La frecuencia de conmutación del convertidor afecta principalmente a la limitación del mínimo pulso y a las pérdidas de potencia. Con una menor frecuencia de conmutación, el ancho de pulso en la transición es más pequeño. El número de fases relativo a la aplicación específica puede ser optimizado en términos de la eficiencia global. Otro aspecto de la optimización es mejorar la estrategia de control. La transición permite seguir algunas partes de la evolvente que son más rápidas de lo que el hardware puede soportar al precio de complejidad. El nuevo método de sincronización de la transición incrementa la frecuencia de la transición, permitiendo que la tensión multinivel esté más cerca de la evolvente. Ambas estrategias permiten que el convertidor pueda seguir una evolvente con un ancho de banda más alto que la limitación de la etapa de potencia. El modelo de pérdidas del amplificador de evolvente se ha detallado y validado mediante medidas. El mecanismo de pérdidas de potencia del convertidor reductor tiene que incluir las transiciones en tiempo real, lo cual es diferente del clásico modelos de pérdidas de un convertidor reductor síncrono. Este modelo estima la eficiencia del sistema y juega un papel muy importante en el proceso de optimización. Finalmente, la segunda arquitectura del amplificador de evolvente se integra con el amplificador de clase F. La medida del sistema EER prueba el ahorro de energía con el amplificador de evolvente propuesto sin perjudicar la linealidad del sistema. ABSTRACT The requirement of delivering high data rates in modern wireless communication systems results in complex modulated RF signals with wide bandwidth and high peak-to-average ratio (PAPR). In order to guarantee the linearity performance, the conventional linear power amplifiers typically work at 4 to 10 dB back-off from the maximum output power, leading to low system efficiency. The envelope elimination and restoration (EER) and envelope tracking (ET) are two promising techniques to overcome the efficiency problem. In both EER and ET, it is challenging to design efficient envelope amplifier for wide bandwidth and high PAPR RF signals. An usual approach for envelope amplifier includes a high-efficiency switching power converter operating at a frequency higher than the RF signal's bandwidth. In this case, the power loss of converter caused by high switching operation becomes unbearable for system efficiency when signal bandwidth is very wide. The solution of this problem is the focus of this dissertation that presents two architectures of envelope amplifier: a hybrid series converter with slow-envelope technique and a multilevel converter based on a multiphase buck converter with the minimum time control. In the first architecture, a hybrid topology is composed of a switched buck converter and a linear regulator in series that work together to adjust the output voltage to track the envelope with accuracy. A slow envelope generation algorithm yields a waveform with limited slew rate that is lower than the maximum slew rate of the original envelope. The buck converter's output follows this waveform instead of the original envelope using lower switching frequency, because the waveform has not only reduced slew rate but also reduced bandwidth. In this way, the linear regulator used to filter the waveform has additional power loss. Depending on how much reduction of the slew rate of envelope in order to obtain that waveform, there is a trade-off between the power loss of buck converter related to the switching frequency and the power loss of linear regulator. The optimal point referring to the lowest total power loss of this envelope amplifier is identified with the help of a precise power loss model that is a combination of behavioral and analytic loss model. In addition, the output filter's effect on the response is analyzed. An extra parallel damping filter is needed to eliminate the resonant oscillation of output filter L and C, because the buck converter operates in open loop. The second architecture is a multilevel voltage tracking envelope amplifier. Unlike the converters using multi-sources, a multiphase buck converter is employed to generate the multilevel voltage. In the steady state, the buck converter operates at complete ripple cancellation points of duty cycle. The number of the voltage levels is equal to the number of phases according the characteristics of interleaved buck converter. In the transition, a minimum time control (MTC) for multiphase converter is originally proposed and developed for changing the output voltage of buck converter between different levels. As opposed to conventional minimum time control for multiphase converter with equivalent inductance, the proposed MTC considers the current ripple of each phase based on the fixed phase shift resulting in different control schemes among the phases. The advantage of this control is that all the phase current return to the steady state after the transition so that the next transition can be triggered very soon, which is very favorable for the application of multilevel voltage tracking. Besides, the control is independent on the load condition and not affected by the unbalance of phase current. Like the first architecture, there is also a linear stage with the same function, connected in series with the multiphase buck converter. Since both steady state and transition state of the converter are not strongly related to the switching frequency, it can be reduced for wide bandwidth envelope which is the main consideration of this architecture. The optimization of the second architecture for wider bandwidth envelope is presented including the output filter design, switching frequency and the number of phases. The filter design area is restrained by fast transition and the minimum pulse of hardware. The fast transition needs small filter but the minimum pulse of hardware limitation pushes the filter in opposite way. The converter switching frequency mainly affects the minimum pulse limitation and the power loss. With lower switching frequency, the pulse width in the transition is smaller. The number of phases related to specific application can be optimized in terms of overall efficiency. Another aspect of optimization is improving control strategy. Transition shift allows tracking some parts of envelope that are faster than the hardware can support at the price of complexity. The new transition synchronization method increases the frequency of transition, allowing the multilevel voltage to be closer to the envelope. Both control strategies push the converter to track wider bandwidth envelope than the limitation of power stage. The power loss model of envelope amplifier is detailed and validated by measurements. The power loss mechanism of buck converter has to include the transitions in real time operation, which is different from classical power loss model of synchronous buck converter. This model estimates the system efficiency and play a very important role in optimization process. Finally, the second envelope amplifier architecture is integrated with a Class F amplifier. EER system measurement proves the power saving with the proposed envelope amplifier without disrupting the linearity performance.