620 resultados para ingredient
Resumo:
Esta tesis estudia la reducción plena (‘full reduction’ en inglés) en distintos cálculos lambda. 1 En esencia, la reducción plena consiste en evaluar los cuerpos de las funciones en los lenguajes de programación funcional con ligaduras. Se toma el cálculo lambda clásico (i.e., puro y sin tipos) como el sistema formal que modela el paradigma de programación funcional. La reducción plena es una técnica fundamental cuando se considera a los programas como datos, por ejemplo para la optimización de programas mediante evaluación parcial, o cuando algún atributo del programa se representa a su vez por un programa, como el tipo en los demostradores automáticos de teoremas actuales. Muchas semánticas operacionales que realizan reducción plena tienen naturaleza híbrida. Se introduce formalmente la noción de naturaleza híbrida, que constituye el hilo conductor de todo el trabajo. En el cálculo lambda la naturaleza híbrida se manifiesta como una ‘distinción de fase’ en el tratamiento de las abstracciones, ya sean consideradas desde fuera o desde dentro de si mismas. Esta distinción de fase conlleva una estructura en capas en la que una semántica híbrida depende de una o más semánticas subsidiarias. Desde el punto de vista de los lenguajes de programación, la tesis muestra como derivar, mediante técnicas de transformación de programas, implementaciones de semánticas operacionales que reducen plenamente a partir de sus especificaciones. Las técnicas de transformación de programas consisten en transformaciones sintácticas que preservan la equivalencia semántica de los programas. Se ajustan las técnicas de transformación de programas existentes para trabajar con implementaciones de semánticas híbridas. Además, se muestra el impacto que tiene la reducción plena en las implementaciones que utilizan entornos. Los entornos son un ingrediente fundamental en las implementaciones realistas de una máquina abstracta. Desde el punto de vista de los sistemas formales, la tesis desvela una teoría novedosa para el cálculo lambda con paso por valor (‘call-by-value lambda calculus’ en inglés) que es consistente con la reducción plena. Dicha teoría induce una noción de equivalencia observacional que distingue más puntos que las teorías existentes para dicho cálculo. Esta contribución ayuda a establecer una ‘teoría estándar’ en el cálculo lambda con paso por valor que es análoga a la ‘teoría estándar’ del cálculo lambda clásico propugnada por Barendregt. Se presentan resultados de teoría de la demostración, y se sugiere como abordar el estudio de teoría de modelos. ABSTRACT This thesis studies full reduction in lambda calculi. In a nutshell, full reduction consists in evaluating the body of the functions in a functional programming language with binders. The classical (i.e., pure untyped) lambda calculus is set as the formal system that models the functional paradigm. Full reduction is a prominent technique when programs are treated as data objects, for instance when performing optimisations by partial evaluation, or when some attribute of the program is represented by a program itself, like the type in modern proof assistants. A notable feature of many full-reducing operational semantics is its hybrid nature, which is introduced and which constitutes the guiding theme of the thesis. In the lambda calculus, the hybrid nature amounts to a ‘phase distinction’ in the treatment of abstractions when considered either from outside or from inside themselves. This distinction entails a layered structure in which a hybrid semantics depends on one or more subsidiary semantics. From a programming languages standpoint, the thesis shows how to derive implementations of full-reducing operational semantics from their specifications, by using program transformations techniques. The program transformation techniques are syntactical transformations which preserve the semantic equivalence of programs. The existing program transformation techniques are adjusted to work with implementations of hybrid semantics. The thesis also shows how full reduction impacts the implementations that use the environment technique. The environment technique is a key ingredient of real-world implementations of abstract machines which helps to circumvent the issue with binders. From a formal systems standpoint, the thesis discloses a novel consistent theory for the call-by-value variant of the lambda calculus which accounts for full reduction. This novel theory entails a notion of observational equivalence which distinguishes more points than other existing theories for the call-by-value lambda calculus. This contribution helps to establish a ‘standard theory’ in that calculus which constitutes the analogous of the ‘standard theory’ advocated by Barendregt in the classical lambda calculus. Some prooftheoretical results are presented, and insights on the model-theoretical study are given.
Resumo:
Advanced optical modulation format polarization-division multiplexed quadrature phase shift keying (PDM-QPSK) has become a key ingredient in the design of 100 and 200-Gb/s dense wavelength-division multiplexed (DWDM) networks. The performance of this format varies according to the shape of the pulses employed by the optical carrier: non-return to zero (NRZ), return to zero (RZ) or carrier-suppressed return to zero (CSRZ). In this paper we analyze the tolerance of PDM-QPSK to linear and nonlinear optical impairments: amplified spontaneous emission (ASE) noise, crosstalk, distortion by optical filtering, chromatic dispersion (CD), polarization mode dispersion (PMD) and fiber Kerr nonlinearities. RZ formats with a low duty cycle value reduce pulse-to-pulse interaction obtaining a higher tolerance to CD, PMD and intrachannel nonlinearities.
Resumo:
El presente trabajo aborda el análisis de la idea de monumentalidad, así como el diseño y la construcción de monumentos concretos, a la finalización de la Segunda Guerra Mundial, prestando especial atención al intento del Movimiento Moderno de introducirse en un campo que hasta entonces le había sido ajeno. Entendiendo que el monumento es ante todo un artefacto para la memoria, y analizando las teorías de sociólogos como Émile Durkheim, Maurice Halbwachs, Jan Assmann o Iwona Irwin-Zarecka, la tesis se propone explicar el papel que juegan los monumentos en la creación de una memoria colectiva que, a diferencia de la historia, es una recopilación selectiva de acontecimientos del pasado cuyo fin es procurar y celebrar la permanencia del grupo social. También se propone analizar el papel del monumento como elemento de estabilidad en el paisaje urbano que genera de forma natural el apego de los ciudadanos, puesto que forma parte destacada del marco espacial en el que se han desarrollado sus vidas. Desde estas dos facetas se pretende justificar la necesidad de monumentos que experimenta cualquier grupo social, y por qué las guerras, que ponen en peligro la estructura, e incluso la propia vida del grupo, son acontecimientos que generan una tendencia especial a la construcción de monumentos que conjuren el peligro al que éste se ha visto sometido. Se explicarán las razones por las que la conmemoración de la Segunda Guerra Mundial se volvió especialmente problemática. Entre las principales, la desaparición de fronteras entre frente y retaguardia, entre objetivos militares y civiles; por otra parte la despersonalización de la acción bélica como consecuencia de la aplicación de la tecnología; en tercer lugar el papel de los medios de comunicación de masas, que por primera vez en la historia irrumpieron de forma masiva en una guerra, y ofrecían imágenes instantáneas, más impactantes y con un aura de realidad con la que el monumento convencional no era capaz de competir; en cuarto lugar el inicio de la era atómica, que enfrentaba por primera vez a la humanidad a la posibilidad de su destrucción total; y finalmente la experiencia del Holocausto, en cuanto que aniquilación carente de objetivo e ideología, que se servía del progreso de la ciencia para ganar en eficiencia, y que puso de manifiesto la manipulabilidad de la tecnología al servicio de unos intereses particulares. Como respuesta a esta dificultad para la conmemoración, se popularizaron dos fórmulas hasta entonces marginales que podemos considerar características del momento: una de ellas es el living memorial, que trataba de ofrecer una lectura constructiva de la guerra poniendo de relieve determinadas funciones prácticas de carácter democrático, cultural, deportivo, etc. que se presentaban como los frutos por los que se había combatido en la guerra. En esta fórmula es donde el Movimiento Moderno encontró la posibilidad de abordar nuevos proyectos, en los que la función estaba presente pero no era el ingrediente determinante, lo que obligaría a un enriquecimiento del lenguaje con el que responder a la dimensión emotiva del monumento. Y si bien hay en esta época edificios modernos que podemos calificar justamente de monumentos, el desplazamiento del centro del debate teórico hacia cuestiones estilísticas y expresivas limitó considerablemente la claridad de los enunciados anteriores y la posibilidad de consenso. Dentro de los living memorials, las sedes de la Organización de Naciones Unidas y sus correspondientes agencias representaron la mayor esperanza del Movimiento Moderno por construir un auténtico monumento. Sin embargo, el sistema de trabajo en grupo, con su correspondiente conflicto de personalidades, la ausencia de proyección de los edificios sobre el espacio urbano anexo, y sobre todo el propio descrédito que comenzaron a sufrir las instituciones con el comienzo de la Guerra Fría, frustraron esta posibilidad. La segunda fórmula conmemorativa sería el monumento de advertencia o mahnmal, que renuncia a cualquier rasgo de heroísmo o romanticismo, y se concentra simplemente en advertir de los riesgos que implica la guerra. Dicha fórmula se aplicó fundamentalmente en los países vencidos, y generalmente no por iniciativa propia, sino como imposición de los vencedores, que de alguna forma aprovechaban la ocasión para hacer examen de conciencia lejos de la opinión pública de sus respectivos países. ABSTRACT This paper explores the idea of monumentality through the analysis of the design and construction of several monuments at the end ofWorldWar II. It pays particular attention to the attempt of the Modern Movement to enter a field that had been ignored until this moment. With the assumption that a monument is primarily a mnemonic device, this thesis focuses on the thinking of sociologists like Émile Durkheim, Maurice Halbwachs, Jan Assmann or Iwona Irwin-Zarecka, with the aim of explaining the role of monuments in the creation of a collective memory which, unlike history, consists of past events selected in order to secure and celebrate the permanence of a social group. It also considers the role of monuments as elements of stability in the urban landscape that naturally get assimilated by society, since they are prominent elements in the shared spaces of daily life. These two features explain the need felt by any society for monuments, and how wars, events that endanger the structure and even the existence of that same society, generate a special tendency to build monuments to conjure that inherent danger. The reasons why the memorializing of World War II became especially problematic will be explained. Primary among them is the blurring of boundaries between the front line and the domestic front, between military and civilian targets; moreover, the depersonalization of warfare as a result of advances in technology; thirdly, the role of mass media, which for the first time in history extensively covered a war, instantly broadcasting images of such power and with such an aura of reality that conventional monuments became obsolete; fourthly, the beginning of the atomic age, which meant that mankind faced the possibility of complete destruction; and finally the Holocaust, a racial annihilation devoid of purpose and ideology, which took advantage of scientific progress to gain efficiency, manipulating technology to serve particular interests. In response to this difficulty in commemorating wars, two formulas hitherto marginal gained such popularity as to become prototypes: one was the living memorial, offering a constructive reading of the war by hosting certain practical functions of democratic, cultural or sporting nature. Living memorials presented themselves as the image of the outcome for which the war had been fought. The Modern Movement found in this formula the opportunity for tackling new projects, in which function was present but not as the determining ingredient; in turn, they would require an enhancement of language in order to account for the emotional dimension of the monument. And while there are modern buildings at this time that we can justly describe as monuments, the displacement of the focus of the theoretical debate to stylistic and expressive issues considerably limited the clarity of previous statements and the possibility of consensus. Among all living memorials, the headquarters of the United Nations Organization and its satellite agencies represented the ultimate hope of the Modern Movement to build an authentic monument. However, the group-based design process, the fight of egos it caused, the lack of presence of these buildings over the adjacent urban space, and especially the very discredit that these institutions began to suffer with the onset of the Cold War, all thwarted this expectation. The second commemorative formula was the warning monument or Mahnmal, which rejects any trace of heroism or romanticism, and simply focuses on warning about the risks of war. This formula was mainly used in defeated countries, and generally not on their own initiative, but as an imposition of the victors, which seized the opportunity to do some soul-searching far away from the public opinion of their respective countries.
Resumo:
El concepto de casa crecedera, tal y como lo conocemos en la actualidad, se acuñó por primera vez en 1932 en el concurso Das Wachsende Haus organizado por Martin Wagner y Hans Poelzig dentro del marco de la Exposición Internacional Sonne, Luft und Haus für alle, promovida por la Oficina de Turismo de la ciudad de Berlín. En dicho concurso, se definía este tipo de vivienda como aquella célula básica o vivienda semilla que, dependiendo de las necesidades y posibilidades de los habitantes, podía crecer mediante otras estancias, conformando una vivienda completa en sí misma en cada fase de crecimiento. Numerosos arquitectos de primer orden, tales como Walter Gropius, Bruno Taut, Erich Mendelsohn o Hans Scharoun, participaron en este concurso, abriendo una nueva vía de exploración dentro de la vivienda flexible, la del crecimiento programado. A partir de ese momento, en Europa, y subsecuentemente en EEUU y otras regiones desarrolladas, se iniciaron numerosas investigaciones teóricas y prácticas en torno al fenómeno del crecimiento en la vivienda desde un enfoque vinculado a la innovación, tanto espacial como técnica. Por otro lado, aunque dentro del marco de la arquitectura popular de otros países, ya se ensayaban viviendas crecederas desde el siglo XVIII debido a que, por su tamaño, eran más asequibles dentro del mercado. Desde los años treinta, numerosos países en vías de desarrollo tuvieron que lidiar con migraciones masivas del campo a la ciudad, por lo que se construyeron grandes conjuntos habitacionales que, en numerosos casos, estaban conformados por viviendas crecederas. En todos ellos, la aproximación al crecimiento de la vivienda se daba desde una perspectiva diferente a la de los países desarrollados. Se primaba la economía de medios, el uso de sistemas constructivos de bajo costo y, en muchos casos, se fomentaba incluso la autoconstrucción guiada, frente a las construcciones prefabricadas ensambladas por técnicos especializados que se proponían, por ejemplo, en los casos europeos. Para realizar esta investigación, se recopiló información de estas y otras viviendas. A continuación, se identificaron distintas maneras de producir el crecimiento, atendiendo a su posición relativa respecto de la vivienda semilla, a las que se denominó mecanismos de ampliación, utilizados indistintamente sin tener en cuenta la ubicación geográfica de cada casa. La cuestión de porqué se prefiere un mecanismo en lugar de otro en un caso determinado, desencadenó el principal objetivo de esta Tesis: la elaboración de un sistema de análisis y diagnóstico de la vivienda crecedera que, de acuerdo a determinados parámetros, permitiera indicar cuál es la ampliación o sucesión de ampliaciones óptimas para una familia concreta, en una ubicación establecida. Se partió de la idea de que el crecimiento de la vivienda está estrechamente ligado a la evolución de la unidad de convivencia que reside en ella, de manera que la casa se transformó en un hábitat dinámico. Además se atendió a la complejidad y variabilidad del fenómeno, sujeto a numerosos factores socio-económicos difícilmente previsibles en el tiempo, pero fácilmente monitorizables según unos patrones determinados vinculados a la normatividad, el número de habitantes, el ahorro medio, etc. Como consecuencia, para el diseño del sistema de optimización de la vivienda crecedera, se utilizaron patrones evolutivos. Dichos patrones, alejados ya del concepto espacial y morfológico usualmente utilizado en arquitectura por figuras como C. Alexander o J. Habraken, pasaron a entenderse como una secuencia de eventos en el tiempo (espaciales, sociales, económicos, legales, etc.), que describen el proceso de transformación y que son peculiares de cada vivienda. De esta manera, el tiempo adquirió una especial importancia al convertirse en otro material más del proyecto arquitectónico. Fue en la construcción de los patrones donde se identificaron los mencionados mecanismos de ampliación, entendidos también como sistemas de compactación de la ciudad a través de la ocupación tridimensional del espacio. Al estudiar la densidad, mediante los conceptos de holgura y hacinamiento, se aceptó la congestión de las ciudades como un valor positivo. De esta forma, las posibles transformaciones realizadas por los habitantes (previstas desde un inicio) sobre el escenario del habitar (vivienda semilla), se convirtieron también en herramientas de proyecto urbano que responden a condicionantes del lugar y de los habitantes con distintas intensidades de crecimiento, ocupación y densidad. Igualmente, en el proceso de diseño del sistema de optimización, se detectaron las estrategias para la adaptabilidad y transformación de la casa crecedera, es decir, aquella serie de acciones encaminadas a la alteración de la vivienda para facilitar su ampliación, y que engloban desde sistemas constructivos en espera, que facilitan las costuras entre crecimiento y vivienda semilla, hasta sistemas espaciales que permiten que la casa altere su uso transformándose en un hábitat productivo o en un artefacto de renta. Así como los mecanismos de ampliación están asociados a la morfología, se descubrió que su uso es independiente de la localización, y que las estrategias de adaptabilidad de la vivienda se encuentran ligadas a sistemas constructivos o procesos de gestión vinculados a una región concreta. De esta manera, la combinación de los mecanismos con las estrategias caracterizan el proceso de evolución de la vivienda, vinculándola a unos determinados condicionantes sociales, geográficos y por tanto, constructivos. Finalmente, a través de la adecuada combinación de mecanismos de ampliación y estrategias de adaptabilidad en el proyecto de la vivienda con crecimiento programado es posible optimizar su desarrollo en términos económicos, constructivos, sociales y espaciales. Como resultado, esto ayudaría no sólo a mejorar la vida de los habitantes de la vivienda semilla en términos cualitativos y cuantitativos, sino también a compactar las ciudades mediante sistemas incluyentes, ya que las casas crecederas proporcionan una mayor complejidad de usos y diversidad de relaciones sociales. ABSTRACT The growing house concept -as we currently know it- was used for the first time back in 1932 in the competition Das Wachsende Haus organized by Martin Wagner and Hans Poelzig during the International Exhibition Sonne, Luft und Haus für alle, promoted by Berlin's Tourist Office. In that competition this type of housing was defined as a basic cell or a seed house unit, and depending on the needs and capabilities of the residents it could grow by adding rooms and defining itself as a complete house unit during each growing stage. Many world-top class architects such as Walter Gropius, Bruno Taut, Erich Mendelsohn or Hans Scharoun, were part of this competition exploring a new path in the flexible housing field, the scheduled grownth. From that moment and on, in Europe -and subsequently in the USA and other developed areas- many theorical and pragmatical researchs were directed towards the growing house phenomena, coming from an initial approach related to innovation, spacial and technical innovation. Furthermore -inside the traditional architecture frame in other countries, growing houses were already tested in the XVIII century- mainly due to the size were more affordable in the Real State Market. Since the 30's decade many developing countries had to deal with massive migration movements from the countryside to cities, building large housing developments were -in many cases- formed by growing housing units. In all of these developing countries the growing house approach was drawn from a different perspective than in the developed countries. An economy of means was prioritized, the utilization of low cost construction systems and -in many cases- a guided self-construction was prioritized versus the prefabricated constructions set by specialized technics that were proposed -for instance- in the European cases. To proceed with this research, information from these -and other- housing units was gathered. From then and on different ways to perform the growing actions were identified, according to its relative position from the seed house unit, these ways were named as addition or enlargement mechanisms indifferently utilized without adknowledging the geographic location for each house. The question of why one addition mechanism is preferred over another in any given case became the main target of this Thesis; the ellaboration of an analysis and diagnosis system for the growing house -according to certain parameters- would allow to point out which is the addition or addition process more efficient for a certain family in a particular location. As a starting point the grownth of the housing unit is directly linked to the evolution of the family unit that lives on it, so the house becomes a dynamic habitat. The complexity and the variability of the phenomena was taken into consideration related to a great number of socio-economic factors hardly able to be foreseen ahead on time but easy to be monitored according to certain patterns linked to regulation, population, average savings, etc As a consequence, to design the optimization system for the growing house, evolutionary patterns were utilized. Those patterns far away from the spatial and morphologic concept normally utilized in Architecture by characters like C. Alexander or J. Habraken, started to be understood like a sequence of events on time (spatial events, social events, economic events, legal events, etc) that describes the transformation process and that are particular for each housing unit. Therefore time became something important as another ingredient in the Architectural Project. The before mentioned addition or enlargement mechanisms were identified while building the patterns; these mechanisms were also understood as city's system of compactation through the tridimendional ocupation of space. Studying density, thorough the concepts of comfort and overcrowding, traffic congestion in the city was accepted as a positive value. This way, the possible transformations made by the residents (planned from the begining) about the residencial scenary (seed house), also became tools of the urban project that are a response to site's distinctive features and to the residents with different grownth intensities, activities and density Likewise, during the process of designing the optimization system, strategies for adaptations and transformation of the growing house were detected, in other words, the serial chain of actions directed to modify the house easing its enlargement or addition, and that comprehends from constructive systems on hold -that smooths the costures between grownth and housing seed- to spatial systems that allows that the house modify its utilization, becoming a productive habitat or a rental asset. Because the enlargement mechanisms are linked to the morphology, it was discovered that the use it's not related to the location, and that the adaptation strategies of the houses are linked to constructive systems or management processes linked to a particular area. This way the combination of mechanisms and strategies characterizes the process of housing evolution, linking it to certain social and geographic peculiarities and therefore constructives. At last, through the certain combination of enlargement mechanisms and adaptability strategies in the housing with scheduled grownth project is possible to optimize its development in economic, constructive, social and spatial terms. As a result, this would help not only to improve the life of the seed house residents in qualitative and quantitative terms but also to compact the cities through inclusive systems, given that the growing houses provide a larger complexity of uses and social relations.
Resumo:
Esta tesis doctoral, bajo el título “La transformación de la fachada en la arquitectura del siglo XX. Evolución de los elementos arquitectónicos hacia el espacio único”, examina –siguiendo el método deductivo mediante investigación documental y de campo– los principales mecanismos proyectuales que han originado una transformación arquitectónica en la fachada. El término fachada, leído normalmente como sinónimo de arquitectura, ha sido analizado bajo taxonomías historiográficas, sociopolíticas, formales, compositivas o materiales. Más allá de estas clasificaciones, esta investigación determina cómo han evolucionado los elementos arquitectónicos hacia el espacio único, transformando con ello tanto la realidad física como el concepto de fachada. Proyectar, como diría Robert Venturi1. 1966, tanto desde el exterior al interior como desde el interior al exterior, produce las tensiones necesarias que ayudan a generar la arquitectura. De ahí la importancia del estudio de la transformación de la fachada como faccia, máscara, disfraz o sistema de representación, a la fachada como un diafragma activo, como un espacio de relación o como un límite donde se produce una experiencia arquitectónica con nuevos significados. El término fachada, del latín facies y del italiano facciata, fue creado como tal durante el siglo XVI, aunque como elemento arquitectónico es una realidad clásica y un concepto humanista reinventado en el Renacimiento. A principios del siglo XX la fachada se transforma radicalmente, con la aparición del vidrio plano de grandes dimensiones, y se despoja de su carga historicista. La transparencia literal hace desaparecer (negar) la fachada. La fachada se construye con nuevos materiales, nuevas tecnologías, y responde a un espacio global que espera a ser colonizado por una sociedad en constante mutación; un espacio que irá siendo cada vez más complejo a lo largo del siglo pasado y que tendrá como una de sus principales consecuencias un mayor grado de abstracción en la fachada. Para desarrollar con mayor precisión las intenciones de este trabajo se analiza la acepción de fachada en la que se encuadra la línea de investigación de la tesis doctoral. Siguiendo las indicaciones del Profesor Kenneth Frampton, se ha optado por dedicar precisamente a este análisis el primer capítulo, de precedentes, con el fin de hacer una relectura de la fachada barroca en clave contemporánea. La fachada barroca se estudia como un punto de inflexión, y origen de la transformación, frente al clasicismo de siglos precedentes. Se plantea por tanto como el primero de los mecanismos proyectuales motivo de estudio. Estos mecanismos han sido sometidos a una clasificación que responde a diversos tipos de espacio arquitectónico que han provocado la transformación de la fachada, analizando cada uno de ellos con un filtro bajo el cual se ha desarrollado un estudio pormenorizado. De esta manera se examinan la transformación compositiva de la fachada por medio del espacio dinámico (capítulo 00_precedentes) en San Carlo alle Quattro Fontane de Francesco Borromini, la transformación constructiva de la fachada por medio del espacio membrana (capítulo 01) en la Villa Tugendhat de Mies van der Rohe, la transformación diagramática de la fachada por medio del espacio pliegue (capítulo 02) en la terminal portuaria de Yokohama de FOA, la transformación tecnológica de la fachada por medio del espacio estructura (capítulo 03) en la mediateca de Sendai de Toyo Ito y, finalmente, la transformación fenomenológica de la fachada por medio del espacio múltiple (capítulo 04) en el pabellón de vidrio del Museo Toledo de SANAA. La investigación se completa con el análisis de una serie de textos que acompañan a cada uno de los capítulos, generando así un cuerpo de conocimiento global junto al análisis documental y las visitas de campo de cada uno de los casos de estudio considerados. ABSTRACT This doctoral thesis entitled “The Transformation of the Façade in Twentieth Century Architecture. The Evolution of Architectural Elements Towards a Single Space“ employs a deductive methodology incorporating both archival and field research, to examine the main design strategies that have given rise to the architectural transformation of the façade. The term façade, usually read as a synonym for architecture, has been analyzed under historiographic, sociopolitical, formal, compositive and material taxonomies. Far beyond these classifications, this study determines how architectural elements have evolved towards a single space, consequently transforming both the physical reality and the concept of façade. As Robert Venturi would say,1 to design from the inside-out and from the outside-in can create valid tensions that help generate architecture, hence the importance of this study of the transformation of the façade as a faccia, a mask, disguise or representation system, to the façade as an active diaphragm, a connective space or a limit within which architectural events with new meaning take place. The term fachada (Spanish for façade), from the Latin facies and the Italian facciata, appeared as such during the sixteenth century, although as an architectural element it is a classical ingredient and a humanist concept reinvented during the Renaissance. At the beginning of the 20th century, the façade is radically transformed with the introduction of large format plate glass, stripping it of its historicist content. Literal transparency causes the façade to disappear. The façade is built with new materials, new technologies, responding to a global space to be occupied by an everchanging society. It is a space that becomes increasingly more complex throughout the last century and which will have, as a consequence, a larger degree of abstraction in the façade. In order to more precisely focus this investigation, the meaning of the façade has been scrutinized. Following Professor Kenneth Frampton’s advice, the first chapter -Precedents- is precisely dedicated to this analysis, in order to understand the baroque façade read in a contemporary manner. The baroque façade has been studied as a turning point, the origin of the transformation of the façade, as compared to the classicism of previous centuries. For this reason it is considered the first design strategy to be studied. These strategeies have been sorted into a classification of architectural spaces that have caused the transformation of the façade, all of which having been analyzed using a methodology allowing for detailed study. Thus, this investigation examines the compositional transformation of the façade by means of a dynamic space (chapter 00: Precedents) in San Carlo alle Quattro Fontane by Francesco Borromini, the constructive transformation of the façade by means of a membrane space (chapter 01) in the Tugendhat Villa by Mies van der Rohe, the diagrammatic transformation of the façade by means of a folded space (chapter 02) in the Yokohama International Port Terminal by FOA, the technological transformation of the façade by means of a structure space (chapter 03) in the Sendai Mediathèque by Toyo Ito, and finally, the technological transformation of the façade by means of multiple space (chapter 04) in the Glass Pavilion of the Toledo Museum of Art by SANAA. The research is supplemented by the analysis of a series of texts presented alongside each chapter; creating a global body of knowledge together alongside the documentary analysis and on site analysis of each of the case studies considered.
Resumo:
Esta tesis doctoral busca estudiar el espacio desde la premisa de que el espacio es, fundamentalmente, lo intermedio. El entre, lo que hay entre las cosas mismas y que les da, precisamente, su definición como cosas en un constante proceso de delimitación. Este entre, lo que hay entre las cosas, no es sin embargo un resto que queda, sino bien al contrario el principio activo que hace que las cosas, desde lo que hay alrededor, se configuren en su ser sensible y puedan percibirse. El entre, lo intermedio, no es así una línea, un corte puro, sino un intervalo, un espacio en sí mismo, un ámbito en que se desarrolla un proceso. Es por tanto un espacio de formación, en el que las cosas aún no son y ya están siendo, un intervalo ambiguo pleno de virtualidades, unas desplegadas otras que permanecen en espera, siempre en movimiento. Es la hipótesis principal de esta tesis que en el llamado Movimiento Moderno en la arquitectura del siglo veinte esta condición ambigua del límite se pone de manifiesto como la raíz articuladora de los cambios espaciales y formales que definen su ser y su estética. Para desarrollar esta hipótesis, se parte de una doble premisa: por una parte, como un entre que es en sí misma, la arquitectura se encuentra delimitada por las disciplinas artísticas contemporáneas, especialmente pintura y escultura y a la vez las delimita. Por tanto, se explorarán una serie de momentos claves en las vanguardias de comienzos del siglo veinte en paralelo a una serie de arquitecturas contemporáneas para estudiar esta doble dialéctica entre límites. Por otra parte, y entendiendo que lo propio de la arquitectura es el espacio, se estudiarán en profundidad las concepciones espaciales que en la física y la estética del finales del siglo diecinueve y principios del veinte se desarrollan, para comprender cómo estas nuevas concepciones, centradas en las ideas de relatividad y de espacio-tiempo como magnitudes interlimitadas, determinan a su vez las concepciones espaciales que se desarrollan simultáneamente en las artes plásticas y en la arquitectura. La tríada espacio/tiempo/luz regirá este recorrido, en un doble camino: a través de la física y la teoría del arte, y a través de la arquitectura y las artes plásticas. Se trata por tanto de incardinar la arquitectura en su contexto artístico y científico, y comprobar cómo la comprensión del espacio como un entre, como un intervalo del límite y no como un absoluto trascendente, se generaliza en dichos ámbitos en una exploración paralela que condiciona los resultados en todos ellos y que define, por tanto, la arquitectura de la modernidad como una arquitectura del entre. El encuadre enmarca como motivo principal el Movimiento Moderno a través de la figura de Le Corbusier. Se muestra el modo en que los recursos y mecanismos empleados provocan el encuentro del espacio indecible a través de la polifonía de las artes. Desde el espaciamiento del límite, su borradura, su ambigüedad, producidos mediante el entrelazamiento de los recursos artísticos, la continuidad de lo lineal, el encabalgamiento, el maridaje, la ambivalencia, la relatividad del color y la luz, el intersticio. Ello se analiza a través de la obra de le Corbusier, destacando la dialéctica entre Le Cheminée y Nature morte aux nombreux objets; Ma maison y el pabellón del Zurichhorn; Unité y L’espace indicible. Aclaradas las premisas fundamentales y las consecuencias inmediatas para la arquitectura del Movimiento Moderno, la cuarta parte y final de la tesis, mucho más breve que las anteriores, expone una primera aproximación a las consecuencias que todo esto ha tenido en un momento liminal también: el comienzo de la postmodernidad. En realidad se trata de una apertura a lo que ha de venir, pues establecida la operatividad de la hipóteisi inicial, se trata aquí solamente de abrir el camino a una interpretación que en realidad escapa del alcance de esta tesis. Así se deja apuntado cómo, a través de la obra de tres arquitectos, teóricos y artistas trabajando en los años setenta y comienzos de los ochenta del pasado siglo, una comprensión más clara de la revolución moderna precipitada por esta nueva comprensión del espacio como límite-entre queda patente. Chamberworks de Daniel Libeskind, Wexner Center for the Visual Arts de Peter Eisenman y Manhattan Transcripts de Bernard Tschumi servirían de privilegiados ejemplo. Como queda patente que las consecuencias de todo ello aún las estamos sintiendo en nuestra contemporaneidad. ABSTRACT This thesis aims to study the space from the premise that space is mainly the in-between. The in-between, what is in-between the things themselves and gives them precisely its definition as things in a constant process of delimitation. This in-between, what is in between things, is not a remnant that remains, but on the contrary it is the active ingredient that produces things from what is around, that configures them in a sensitive to be perceived. The in-between, the intermediate, is not a line, a pure cut, but an interval, a space in itself, an area in which a process is developed. It is therefore a space in development, where things are still not and already been, delimiting an ambiguous range full of potentialities, some present and others that remain only as virtualities. It is the main hypothesis of this thesis that in the so-called Modern Movement in the architecture of the twentieth century this ambiguous boundary condition is revealed as the result of the articulatation of spatial and formal changes. To develop this hypothesis, I posit this double premise: On the one hand, as an in-between which is in itself, architecture is defined by contemporary artistic disciplines, especially painting and sculpture and simultaneously defines them. Therefore, a number of key moments in the avantgarde of the early twentieth century in parallel with a number of contemporary architecture to study this double dialectic between boundaries will be explored. On the other hand, and considering that the “essence” of the architecture is space, I will study in depth the spatial concepts in physics and aesthetics of late-nineteenth century and early twentieth century to understand how these new concepts centered on the ideas of relativity and space-time as interlimited magnitudes in turn determine the spatial conceptions that take place simultaneously in the visual arts and architecture. The space / time / light triad governs this journey in a double way: through physics and theory of art, and through architecture and the arts. The aim is to anchor architecture in its artistic and scientific context, and to see how the understanding of space as an in-between interval and not as an absolute transcendent determines the results in all of them, defining, therefore, the architecture of modernity as an architecture of the in-between. The frame of the study is centered in the modern movement through the figure of Le Corbusier and how rthe different resources and mechanisms employed provoke an unspeakable space of encounter through the polyphony of the arts. From the spacing of the limit, its erasure, its ambiguity, produced by the intertwining of artistic resources to continuity of the linear, the marriage, the ambivalence, the relativity of color and light, the gap. All this is analyzed through the work of Le Corbusier, highlighting the dialectic between Le Cheminée and Nature morte aux nombreux objets, Ma maison and Zürichhorn pavilion, Unité and L’espace indicible. Once the basic premises and immediate consequences for the architecture of the Modern Movement are set, the fourth and final part of the thesis aims to explore the impact that all this has had in another liminal time: the beginning of postmodernism. Of course, this part is shorter, in fact it is more a prospective survey and an opening of possibilities than a truly articulated body of theory, since the conceptual core of this thesis has been developed in the central part. Hence, through the work of three architects, theorists and artists working in the seventies and early eighties of last century, a clearer understanding of the modern revolution precipitated by this new understanding of space as a boundary- between is proposed. Chamberworks by Daniel Libeskind, Wexner Center for the Visual Arts by Peter Eisenman and Manhattan Transcripts by Bernard Tschumi will exemplify this approach. The consequences of all this are still haunting our contemporaneity.
Resumo:
O objeto de estudo desta pesquisa é a Comunidade da Graça, presente há dez anos em São Bernardo do Campo, região do ABC paulista. Analisa-se o lugar da emoção religiosa e sua relação com a educação dos sentidos nesta confraria protestante pentecostal formada majoritariamente por pessoas de classe média, como propiciadora da assimilação de um habitus e de um forte auto-controle individual evidenciando a eficácia do adestramento corporal pela via da religião. Imersa em uma realidade social de muitas mudanças que provocam reconfigurações das religiões, no tipo específico de pentecostalismo estudado nota-se que, na gestão dos bens simbólicos, o ingrediente emocional é o principal acessório a fim de responder às demandas coletivas e individuais deste público religioso. Se há alguns anos a centralidade cúltica do protestantismo pentecostal estava no ouvir a prédica e reviver a experiência do pentecostes cristão, hoje em dia o foco neste é a emoção que deve perpassar todo o culto. O mesmo ocorre nos dois espaços catequéticos privilegiados desta igreja, a saber, a reunião no templo chamada de Conhecendo as Escrituras e os encontros de grupos nos lares. Esta mudança se evidencia, também, nos corpos dos fiéis, pois estes se constróem e modelam-se à realidade social vigente e expressam as experiências vivenciadas neste contexto. A partir da observação dos cultos e reuniões catequéticas desta igreja, analisa-se neste trabalho o modo como a emoção religiosa é construída, difundida e reproduzida, levando-se em consideração as condições sociais e econômicas específicas do grupo religioso em questão.(AU)
Resumo:
O objeto de estudo desta pesquisa é a Comunidade da Graça, presente há dez anos em São Bernardo do Campo, região do ABC paulista. Analisa-se o lugar da emoção religiosa e sua relação com a educação dos sentidos nesta confraria protestante pentecostal formada majoritariamente por pessoas de classe média, como propiciadora da assimilação de um habitus e de um forte auto-controle individual evidenciando a eficácia do adestramento corporal pela via da religião. Imersa em uma realidade social de muitas mudanças que provocam reconfigurações das religiões, no tipo específico de pentecostalismo estudado nota-se que, na gestão dos bens simbólicos, o ingrediente emocional é o principal acessório a fim de responder às demandas coletivas e individuais deste público religioso. Se há alguns anos a centralidade cúltica do protestantismo pentecostal estava no ouvir a prédica e reviver a experiência do pentecostes cristão, hoje em dia o foco neste é a emoção que deve perpassar todo o culto. O mesmo ocorre nos dois espaços catequéticos privilegiados desta igreja, a saber, a reunião no templo chamada de Conhecendo as Escrituras e os encontros de grupos nos lares. Esta mudança se evidencia, também, nos corpos dos fiéis, pois estes se constróem e modelam-se à realidade social vigente e expressam as experiências vivenciadas neste contexto. A partir da observação dos cultos e reuniões catequéticas desta igreja, analisa-se neste trabalho o modo como a emoção religiosa é construída, difundida e reproduzida, levando-se em consideração as condições sociais e econômicas específicas do grupo religioso em questão.(AU)
Resumo:
The hierarchical properties of potential energy landscapes have been used to gain insight into thermodynamic and kinetic properties of protein ensembles. It also may be possible to use them to direct computational searches for thermodynamically stable macroscopic states, i.e., computational protein folding. To this end, we have developed a top-down search procedure in which conformation space is recursively dissected according to the intrinsic hierarchical structure of a landscape's effective-energy barriers. This procedure generates an inverted tree similar to the disconnectivity graphs generated by local minima-clustering methods, but it fundamentally differs in the manner in which the portion of the tree that is to be computationally explored is selected. A key ingredient is a branch-selection algorithm that takes advantage of statistically predictive properties of the landscape to guide searches down the tree branches that are most likely to lead to the physically relevant macroscopic states. Using the computational folding of a β-hairpin-forming peptide as an example, we show that such predictive properties indeed exist and can be used for structure prediction by free-energy global minimization.
Resumo:
All animals need to sense temperature to avoid hostile environments and to regulate their internal homeostasis. A particularly obvious example is that animals need to avoid damagingly hot stimuli. The mechanisms by which temperature is sensed have until recently been mysterious, but in the last couple of years, we have begun to understand how noxious thermal stimuli are detected by sensory neurons. Heat has been found to open a nonselective cation channel in primary sensory neurons, probably by a direct action. In a separate study, an ion channel gated by capsaicin, the active ingredient of chili peppers, was cloned from sensory neurons. This channel (vanilloid receptor subtype 1, VR1) is gated by heat in a manner similar to the native heat-activated channel, and our current best guess is that this channel is the molecular substrate for the detection of painful heat. Both the heat channel and VR1 are modulated in interesting ways. The response of the heat channel is potentiated by phosphorylation by protein kinase C, whereas VR1 is potentiated by externally applied protons. Protein kinase C is known to be activated by a variety of inflammatory mediators, including bradykinin, whereas extracellular acidification is characteristically produced by anoxia and inflammation. Both modulatory pathways are likely, therefore, to have important physiological correlates in terms of the enhanced pain (hyperalgesia) produced by tissue damage and inflammation. Future work should focus on establishing, in molecular terms, how a single ion channel can detect heat and how the detection threshold can be modulated by hyperalgesic stimuli.
Resumo:
Hyaluronan (HA) plays an important role in lung pathophysiology. For this reason it has attracted great attention both as active ingredient and as excipient in treating lung diseases by direct pulmonary HA administration. The aim was the production of highly respirable and flowable HA powders either as a potential carrier for drug delivery or for being delivered directly by inhalation. Engineered sodium hyaluronate powders were produced by spray-drying technique. All the spray-dried powders were characterised in terms of particle size distribution, drug content, morphology and in vitro respirability. HA was successfully formulated with salbutamol sulphate in combination with leucine and highlighted remarkable aerodynamic performance (emitted dose equal to 83 % and FPF % equal to 97.1%). Moreover, HA colloidal solutions were designed and they were spray-dried. In order to improve particle aerodynamic characteristics, different types of excipients were investigated. In particular, stearylamine (5% w/w) allowed to obtain the best performance throughout the experimental set. Finally, in vitro biocompatibility was carried out by MTT assay and High Content Analysis for selected dry powder formulations and starting materials. The assays demonstrated the same outcome by confirming the HA biocompatibility and by producing the same rank of toxicity for the surfactants. The general conclusion of the project is that formulation containing HA and stearyl alcohol represents the best performing formulation.
Resumo:
O amido é um ingrediente com grande versatilidade de aplicação, e as sementes de jaca, fruto bem difundido, porém pouco aproveitado no Brasil, contêm uma quantidade considerável de amido, sendo ainda fonte de ferro e proteínas. Dessa maneira, os objetivos desse projeto foram a obtenção da farinha de sementes de jaca das variedades mole e dura, a extração do amido utilizando diferentes solventes, e a caracterização de suas propriedades físico-químicas, estruturais e funcionais, bem como a caracterização reológica de dispersões/géis de amido em cisalhamento estacionário e oscilatório. A extração alcalina do amido, além de reduzir significativamente o conteúdo de lipídeos e proteínas, deixando o amido mais puro, promoveu um aumento no teor de amilose e influenciou diretamente as características de inchamento e solubilidade, que apresentaram aumento significativo a partir da temperatura de 70 °C. O aumento da temperatura ocasionou aumento no poder de inchamento e solubilidade, que foi mais pronunciado para a variedade dura, porém esses valores ainda foram considerados baixos (< 17%). Os amidos de sementes de jaca apresentaram grânulos lisos, arredondados e em forma de sino, com formato mais truncado para o amido extraído com hidróxido de sódio. O diâmetro médio dos grânulos de amido foi menor para a extração alcalina, mas sempre com comportamento monomodal. Foi observado um padrão de difração de Raios-X do tipo A para todas as amostras estudadas, e o índice de cristalinidade foi maior para os amidos de sementes de jaca dura, com uma redução estimada em 70% para os amidos obtidos por extração alcalina. A temperatura de gelatinização dos amidos de semente de jaca foi considerada alta (70-100 °C). Os amidos de sementes de jaca dura obtidos na extração com água apresentaram maiores valores de viscosidade de pico e de Breakdown, que representa menor resistência mecânica. A extração com solução de NaOH 0,1 M aumentou a tendência a retrogradação de ~36% (extração aquosa) para 64% e 45% dos amidos de sementes de jaca das variedades mole e dura, respectivamente. Todas as amostras apresentaram comportamento pseudoplástico (n < 1) nas concentrações e temperaturas estudadas, e as dispersões e/ou géis de amido obtidos pela extração alcalina com NaOH apresentaram menor tixotropia e maiores valores de viscosidade. Os modelos Lei da Potência e Herschel Bulkley apresentaram ótimos ajustes aos pontos experimentais (R² ~0,998) para as amostras com 2 e 6 % de amido, respectivamente, porém para a concentração de 5%, o melhor modelo foi função da variedade do fruto usado na obtenção do amido. A dependência das propriedades reológicas com a temperatura foi analisada pela equação de Arrhenius e a energia de ativação foi baixa (15-25 kJ/mol). Quanto ao comportamento viscoelástico, as amostras com 5 e 6% de amido apresentaram comportamento de gel fraco e o aumento da concentração desse polissacarídeo produziu um aumento na elasticidade do material. Os módulos de armazenamento (G\') associados à elasticidade do gel de amido aumentaram durante o seu resfriamento nos ensaios de varredura de temperatura, o que pode ser relacionado à recristalização da amilose durante esse processo e mantiveram-se praticamente constantes no aquecimento isotérmico a 80 °C, sugerindo boa estabilidade térmica do gel. A farinha isolada da semente de jaca pode ser considerada fonte de fibras e apresentou elevados teores de proteínas (~14-16%) e ferro (~85-150 mg/kg). A distribuição do tamanho de partículas da farinha apresentou comportamento bimodal, com grânulos arredondados, presença de fibras e uma matriz proteica envolvendo os grânulos de amido. As propriedades de pasta revelaram maior pico de viscosidade para a farinha de semente de jaca mole. As características encontradas sugerem que os amidos de semente de jaca poderiam ser aplicados na produção de filmes biodegradáveis, e a farinha da semente de jaca poderia ser utilizada em substituição parcial à farinha convencional na fabricação de bolos e biscoitos.
Resumo:
A acne vulgar é uma das doenças cutâneas mais comuns, apresentando como um de seus fatores fisiopatológicos primários a colonização pelo microrganismo Propionibacterium acnes. Atualmente, têm-se buscado terapias alternativas para o combate ao P. acnes, destacando-se alguns ácidos graxos, como o ácido laúrico (LA). O LA é uma molécula pouco solúvel em água, sendo possível sua incorporação em lipossomas. Os lipossomas apresentam capacidade de encapsulação/ liberação de ativos e impedem a desidratação da pele, tornando-se ingredientes inovadores na área de cosméticos. Foram preparados lipossomas de dipalmitoilfosfatidilcolina (DPPC) contendo diferentes concentrações de LA, que variaram de 0 a 50% da concentração total em mol, em quatro pHs: 9,0, 7,4, 5,0 e 3,0. Nestes pHs o estado de protonação do LA muda variando de 0 a -1. Os lipossomas foram extrusados por filtros com poros de 100 nm de diâmetro visando à obtenção de vesículas unilamelares grandes (LUV). As LUV foram caracterizadas quanto a sua estabilidade em condições de prateleira, temperatura de transição de fase da bicamada, encapsulamento no interior aquoso, liberação do LA, difusão das vesículas na pele e seus aspectos morfológicos foram caracterizados por espalhamento de raios-X a baixo ângulo (SAXS) e crio-microscopia eletrônica de transmissão. Estudos de estabilidade mostraram que independentemente da concentração de LA, as formulações são mais estáveis em pHs mais altos, quando LA está em sua maioria na forma de laurato. Os experimentos de DSC revelaram que em pHs 3,0 e 5,0 e concentrações maiores de LA, a interação deste ácido graxo com as bicamadas é favorecida, havendo um aumento da temperatura de transição de fase (Tm) e diminuição da cooperatividade. Análises de taxa de incorporação de sondas hidrofílicas confirmaram a presença de um compartimento aquoso interno para as vesículas de DPPC:LA. O LA conseguiu permear a pele no período avaliado e pouco LA foi liberado das vesículas em condições de temperatura ambiente. A morfologia das LUV se mostrou bem diferente da esperada e se observaram vesículas com mais de uma bicamada e outros formatos que não o esférico. Estes resultados podem auxiliar na otimização das condições para uma formulação que poderá ser usada no tratamento da acne, aumentando a eficácia do LA no sítio alvo.
Resumo:
Com o advento da agricultura ampliou-se a produção alimentar e os bens de consumo, no entanto, os riscos ambientais também foram maximizados em função da adoção de técnicas produtivas baseadas no uso intensivo de insumos agrícolas. Esta problemática é mundial, embora mais evidenciada nos países em desenvolvimento e que tem, na produção agrícola, a base de sua economia. O Brasil enquadra-se nesta situação e desde 2009 é considerado o maior consumidor de agrotóxicos do mundo, criando um cenário de risco ambiental e de saúde humana. Os efeitos ambientais, base deste estudo, estão relacionados não somente à perda de espécies não-alvo, uma vez que os agrotóxicos não são seletivos, mas também as alterações em nível ecossistêmico, a qual se relaciona com as perdas das funções e dos serviços gerados pelos sistemas naturais. Adiciona-se a esta complexidade, a forma de ação de cada agrotóxico, a distribuição dos mesmos nos diferentes compartimentos (ar, solo e água), o período de permanência de cada um, as relações sinérgicas decorrentes das interações entre diferentes produtos, a formação de subprodutos no processo de degradação, entre outros fatores, como as diferenças existentes entre o ingrediente ativo e a formulação comercial, na qual existem os chamados ingredientes inertes em sua composição, os quais podem ser muito mais tóxicos para espécies e ecossistemas. Considerando esta abordagem, a presente pesquisa foi desenvolvida com base na realidade de um local de referência, o município de Bom Repouso (MG/BR), no qual a intensificação da produção de morango e batata tem trazido uma série de riscos sociais e ambientais. Semelhante a outras regiões produtivas do país, o uso de agrotóxicos é recorrente, amplo e irrestrito, com destaque para as formulações comerciais Kraft®36EC e Score®250EC, as quais, juntamente com seus respectivos ingredientes ativos (abamectina e difenoconazol), foram avaliadas por meio de testes de toxicidade com espécies de diferentes níveis tróficos representativas de um ecossistema aquático, gerando informações que foram avaliadas em nível de espécie e de ecossistema, simulando o cenário de aplicação dos produtos no local de referência. Os resultados obtidos permitiram concluir sobre as diferenças de sensibilidade das espécies e quais seriam as mais indicadas para se avaliar os efeitos tóxicos de ambos os agrotóxicos; os efeitos diferenciados entre a formulação comercial e os ingredientes ativos; bem como as respostas em termos de espécies e de ecossistemas, demonstrando a necessidade de que ambas as análises sejam consideradas na avaliação de risco ecológico.
Resumo:
Unripe banana flour (UBF) production employs bananas not submitted to maturation process, is an interesting alternative to minimize the fruit loss reduction related to inappropriate handling or fast ripening. The UBF is considered as a functional ingredient improving glycemic and plasma insulin levels in blood, have also shown efficacy on the control of satiety, insulin resistance. The aim of this work was to study the drying process of unripe banana slabs (Musa cavendishii, Nanicão) developing a transient drying model through mathematical modeling with simultaneous moisture and heat transfer. The raw material characterization was performed and afterwards the drying process was conducted at 40 ºC, 50 ºC e 60 ºC, the product temperature was recorded using thermocouples, the air velocity inside the chamber was 4 m·s-1. With the experimental data was possible to validate the diffusion model based on the Fick\'s second law and Fourier. For this purpose, the sorption isotherms were measured and fitted to the GAB model estimating the equilibrium moisture content (Xe), 1.76 [g H2O/100g d.b.] at 60 ºC and 10 % of relative humidity (RH), the thermophysical properties (k, Cp, ?) were also measured to be used in the model. Five cases were contemplated: i) Constant thermophysical properties; ii) Variable properties; iii) Mass (hm), heat transfer (h) coefficient and effective diffusivity (De) estimation 134 W·m-2·K-1, 4.91x10-5 m-2·s-1 and 3.278?10-10 m·s-2 at 60 ºC, respectively; iv) Variable De, it presented a third order polynomial behavior as function of moisture content; v) The shrinkage had an effect on the mathematical model, especially in the 3 first hours of process, the thickness experienced a contraction of about (30.34 ± 1.29) % out of the initial thickness, finding two decreasing drying rate periods (DDR I and DDR II), 3.28x10-10 m·s-2 and 1.77x10-10 m·s-2, respectively. COMSOL Multiphysics simulations were possible to perform through the heat and mass transfer coefficient estimated by the mathematical modeling.