604 resultados para swd: Funktionalismus <Architektur>
Resumo:
Bearing failure is a form of localized failure that occurs when thin-walled cold-formed steel sections are subjected to concentrated loads or support reactions. To determine the bearing capacity of cold-formed channel sections, a unified design equation with different bearing coefficients is given in the current North American specification AISI S100 and the Australian/New Zealand standard AS/NZS 4600. However, coefficients are not available for unlipped channel sections that are normally fastened to supports through their flanges. Eurocode 3 Part 1.3 includes bearing capacity equations for different load cases, but does not distinguish between fastened and unfastened support conditions. Therefore, an experimental study was conducted to determine the bearing capacities of these sections as used in floor systems. Twenty-eight web bearing tests on unlipped channel sections with restrained flanges were conducted under End One Flange (EOF) and Interior One Flange (IOF) load cases. Using the results from this study, a new equation was proposed within the AISI S100 and AS/NZS 4600 guidelines to determine the bearing capacities of cold-formed unlipped channels with flanges fastened to supports. A new design rule was also proposed based on the direct strength method.
Resumo:
[Book] In recent years "light architecture" has returned as an important component of contemporary architectural design. More and more architects work with lighting designers in order to develop concepts for the nocturnal appearance of their buildings. It is little known that, despite numerous recent technical developments, the vocabulary of today's lighting designers has a long history. The large world fairs of the nineteenth century were the first testing ground for architectural illumination." "This publication juxtaposes historic buildings and architectural visions with recent designs, as well as with contemporary paintings and photographs that reacted to the changing nocturnal skyline. Essays address different aspects of this aspect of architectural history.
Resumo:
Seismic While Drilling (SWD) is a new wellbore seismic technique. It uses the vibrations produced by a drill-bit while drilling as a downhole seismic energy source. The continuous signals generated by the drill bit are recorded by a pilot sensor attached to the top of the drill-string. Seismic wave receivers positioned in the earth near its surface receive the seismic waves both directly and reflection from the geologic formations. The pilot signal is cross-correlated with the receiver signals to compute travel-times of the arrivals (direct arrival and reflected arrival) and attenuate incoherent noise. No downhole intrusmentation is required to obtain the data and the data recording does not interfere with the drilling process. These characteristics offer a method by which borehole seismic data can be acquired, processed, and interpreted while drilling. As a Measure-While-Drill technique. SWD provides real-time seismic data for use at the well site . This can aid the engineer or driller by indicating the position of the drill-bit and providing a look at reflecting horizons yet to be encountered by the drill-bit. Furthermore, the ease with which surface receivers can be deployed makes multi-offset VSP economically feasible. First, this paper is theoretically studying drill-bit wavefield, interaction mode between drill-bit and formation below drill-bit , the new technique of modern signal process was applied to seismic data, the seismic body wave radiation pattern of a working roller-cone drill-bit can be characterized by theoretical modeling. Then , a systematical analysis about the drill-bit wave was done, time-distance equation of seismic wave traveling was established, the process of seismic while drilling was simulated using the computer software adaptive modeling of SWD was done . In order to spread this technique, I have made trial SWD modeling during drilling. the paper sketches out the procedure for trial SWD modeling during drilling , the involved instruments and their functions, and the trial effect. Subsurface condition ahead of the drill-bit can be predicted drillstring velocity was obtained by polit sensor autocorrelation. Reference decovolution, the drillstring multiples in the polit signal are removed by reference deconvolution, the crosscorrelation process enhance the signal-to-noise power ratio, lithologies. Final, SWD provides real-time seismic data for use at the well site well trajectory control exploratory well find out and preserve reservoirs. intervel velocity was computed by the traveltime The results of the interval velocity determination reflects the pore-pressure present in the subsurface units ahead of the drill-bit. the presences of fractures in subsurface formation was detected by shear wave. et al.
Resumo:
Wydział Historyczny: Instytut Historii Sztuki
Resumo:
The objective of this paper is to reassess the central factors which have shaped the Indian architecture. The author puts forward the concept of plurality introduced by Western art historians and argues that the diversity of the Indian architecture should not be explained in terms of religious differences, but in terms of the socio-economical situation in South Asia. He also elaborates on the Hindu caste system and its impact on the Indian architecture.
Resumo:
This book, written when Walker was Visiting Professor at the Technical University Munich in 2011, describes his research on the effects of digital technology on architectural design and construction, and on the development of ‘digital craft’. The primary example given is The Swarm, a digitally designed and manufactured pavilion, produced with students while Walker was at TU Munich. It now stands outside the Bayerischen Architektenkammer (Bavarian Chamber of Architects) in Munich. Through such research-by-design, Walker asks larger questions: what can designers craft without a master craftsman’s skills, and how can craft skills be recovered through digital fabrication? Another example in the book is the Swoosh Pavilion, one of two public-space-scale architectural pavilion prototypes Walker developed between 2008 and 2009 at the Architectural Association (AA), using applied digital modelling and CNC techniques to investigate methods of teaching and testing digital processes through making. Swoosh (2008) and a second AA pavilion, Driftwood (2009), were discussed by Walker and Martin Self, his co-investigator, in ‘Fractal, bad hair, Swoosh and Driftwood pavilions of Intermediate Unit 2, 2006–2009’, published in the AD reader, Manufacturing the Bespoke (2012), which includes essays by well-known critics and designers such as Mathias Kohler and Michael Stacey. Both AA pavilions were sponsored by FinnForest Merk, Arup, HOK and Building Design Magazine, and were seen by large international audiences in Bedford Square, London during the 2008–9 ‘AA Projects Review’ shows. The book Making Pavilions (Walker and Self, AA Agenda No. 9, Architectural Association Press, 2011) also discusses their work over seven years of teaching at the Architectural Association. At the same time, Walker collaborated on a series of Serpentine pavilions, commissioned annually by the Serpentine Gallery, London, co-designing these experimental structures with internationally renowned architects Daniel Libeskind, Oscar Niemeyer, Toyo Ito and Alvaro Siza.
Resumo:
L’objectif de ce mémoire de maîtrise est de caractériser la distribution axiale des plasmas tubulaires à la pression atmosphérique créés et entretenus par une onde électromagnétique de surface ainsi que d’explorer le potentiel de ces sources pour la synthèse de matériaux et de nanomatériaux. Un précédent travail de thèse, qui avait pour objectif de déterminer les mécanismes à l’origine de la contraction radiale du plasma créé dans des gaz rares, a mis en lumière un phénomène jusque-là inconnu dans les plasmas d’onde de surface (POS). En effet, la distribution axiale varie différemment selon la puissance incidente ce qui constitue une différence majeure par rapport aux plasmas à pression réduite. Dans ce contexte, nous avons réalisé une étude paramétrique des POS à la pression atmosphérique dans l’Ar. À partir de nos mesures de densité électronique, de température d’excitation et de densité d’atomes d’Ar dans un niveau métastable (Ar 3P2), résolues axialement, nous avons conclu que le comportement axial de l’intensité lumineuse avec la puissance n’est pas lié à un changement de la cinétique de la décharge (qui est dépendante de la température des électrons et de la densité d’atomes d’Ar métastables), mais plutôt à une distribution anormale de dissipation de puissance dans le plasma (reliée à la densité d’électrons). Plus précisément, nos résultats suggèrent que ce dépôt anormal de puissance provient d’une réflexion de l’onde dans le fort gradient de densité de charges en fin de colonne, un effet plus marqué pour de faibles longueurs de colonnes à plasma. Ensuite, nous avons effectué une étude spectroscopique du plasma en présence de précurseurs organiques, en particulier le HMDSO pour la synthèse de matériaux organosiliciés et l’IPT pour la synthèse de matériaux organotitaniques. Les POS à la PA sont caractérisés par des densités de charges très élevées (>10^13 cm^-3), permettant ainsi d’atteindre des degrés de dissociation des précurseurs nettement plus élevés que ceux d'autres plasmas froids à la pression atmosphérique comme les décharges à barrière diélectrique. Dans de tels cas, les matériaux synthétisés prennent la forme de nanopoudres organiques de taille inférieure à 100 nm. En présence de faibles quantités d’oxygène dans le plasma, nous obtenons plutôt des nanopoudres à base d’oxyde de silicium (HMDSO) ou à base de titanate de silicium (IPT), avec très peu de carbone.
Resumo:
Von der Idee zum Mythos. Die Rezeption des Bauhaus in beiden Teilen Deutschlands in Zeiten des Neuanfangs (1945 und 1989) Das Bauhaus wird 1919 durch Zusammenlegung der Großherzoglich Sächsischen Kunstgewerbeschule und der Hochschule für Bildende Kunst von Walter Gropius gegründet. Dabei geht es in seinem programmatischen Ansatz weit über seine institutionellen Vorgänger hinaus. Das Bauhaus-Konzept zielt nicht auf die Erschaffung einer zeitgemäßen Formsprache, sondern auf die Veränderung der gesellschaftlichen Wirklichkeit mit den Mitteln der Kunst. Diese Haltung ist eine Reaktion auf die Bewusstseinskrise, die durch den Ersten Weltkrieg ausgelöst worden war: Der zunehmenden Entfremdung von Kunst und Leben soll entgegengewirkt und dabei die versprengten Einzelkünste unter dem Primat der Architektur wieder zusammengeführt werden: Weil sich dieser sozial-moralische Impetus, der gemeinhin mit dem Schlagwort ‚Bauhaus-Idee’ umschrieben wird, äußerst vielschichtig darstellt, lässt er sich in die verschiedensten Kulturkonzepte einpassen. Die Arbeit legt die Bauhaus-Rezeption in Deutschland zu zwei verschiedenen Zeiten vergleichend dar. Im ersten Schritt wird die Ost- mit der Westrezeption verglichen. Dieser synchrone Vergleich wird zu zwei epochalen Umbruchsituationen durchgeführt; zum einen von 1945 bis Mitte der 50er Jahre, zum anderen von 1989 bis Mitte der 90er Jahre. Auf dieser Grundlage wird geprüft, wie sich die östliche als auch die westliche Wahrnehmung des Bauhaus von 1945-1955 gegenüber der Bauhausrezeption nach 1989 abhebt (diachroner Vergleich). Die Jahre 1945-1955 beschreiben die Entwicklung des Auseinanderbrechens der deutschen Nation in zwei autonome deutsche Staaten. Mit dem Jahr 1989 wird die Entwicklung umgekehrt: Deutschland wächst zu einer Kulturnation zusammen. Durch die Periodisierung (1945/1989) wird geklärt, wie das wiedervereinigte Deutschland auf kultureller Ebene mit der Vergangenheit des Kalten Krieges umgeht. Weil sich an der Bauhaus-Pädagogik am ehesten die reale Umsetzung der ‚Bauhaus-Idee’ ablesen lässt, analysiert meine Arbeit die pädagogischen Konzeptionen an deutschen Kunstschulen. Dabei wird in den Institutionsgeschichten der politisch-gesellschaftliche Rahmen stets mitgedacht, der Restituierungsversuche ermöglicht oder scheitern lässt. Im Zentrum meiner Arbeit steht nicht die Analyse der Sache ‚Bauhaus, sondern dessen Missdeutung und Umdeutung in politisch divergenten Zeiten. Für die Zeit 1945-1955 beschreibe ich auf westdeutscher Seite die Hochschule für Gestaltung in Ulm und die Werkakademie bzw. Werkkunstschule in Kassel. Im Osten konzentriert sich der Blick auf die historischen Bauhaus-Stätten: Weimar und Dessau. Nach der Wende vermischen sich die bis dahin getrennten Rezeptionsstränge von Ost und West. In der wiedervereinigten Bundesrepublik existieren neben dem Bauhaus-Archiv nunmehr zwei zusätzliche Institutionen: die Bauhaus-Universität in Weimar und die Stiftung Bauhaus Dessau. Wie wird in dieser historischen Situation das Bauhaus-Erbe aufgeteilt und verwaltet?
Resumo:
Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.
Resumo:
Thermoaktive Bauteilsysteme sind Bauteile, die als Teil der Raumumschließungsflächen über ein integriertes Rohrsystem mit einem Heiz- oder Kühlmedium beaufschlagt werden können und so die Beheizung oder Kühlung des Raumes ermöglichen. Die Konstruktionenvielfalt reicht nach diesem Verständnis von Heiz, bzw. Kühldecken über Geschoßtrenndecken mit kern-integrierten Rohren bis hin zu den Fußbodenheizungen. Die darin enthaltenen extrem trägen Systeme werden bewußt eingesetzt, um Energieangebot und Raumenergiebedarf unter dem Aspekt der rationellen Energieanwendung zeitlich zu entkoppeln, z. B. aktive Bauteilkühlung in der Nacht, passive Raumkühlung über das kühle Bauteil am Tage. Gebäude- und Anlagenkonzepte, die träge reagierende thermoaktive Bauteilsysteme vorsehen, setzen im kompetenten und verantwortungsvollen Planungsprozeß den Einsatz moderner Gebäudesimulationswerkzeuge voraus, um fundierte Aussagen über Behaglichkeit und Energiebedarf treffen zu können. Die thermoaktiven Bauteilsysteme werden innerhalb dieser Werkzeuge durch Berechnungskomponenten repräsentiert, die auf mathematisch-physikalischen Modellen basieren und zur Lösung des bauteilimmanenten mehrdimensionalen instationären Wärmeleitungsproblems dienen. Bisher standen hierfür zwei unterschiedliche prinzipielle Vorgehensweisen zur Lösung zur Verfügung, die der physikalischen Modellbildung entstammen und Grenzen bzgl. abbildbarer Geometrie oder Rechengeschwindigkeit setzen. Die vorliegende Arbeit dokumentiert eine neue Herangehensweise, die als experimentelle Modellbildung bezeichnet wird. Über den Weg der Systemidentifikation können aus experimentell ermittelten Datenreihen die Parameter für ein kompaktes Black-Box-Modell bestimmt werden, das das Eingangs-Ausgangsverhalten des zugehörigen beliebig aufgebauten thermoaktiven Bauteils mit hinreichender Genauigkeit widergibt. Die Meßdatenreihen lassen sich über hochgenaue Berechnungen generieren, die auf Grund ihrer Detailtreue für den unmittelbaren Einsatz in der Gebäudesimulation ungeeignet wären. Die Anwendung der Systemidentifikation auf das zweidimensionale Wärmeleitungsproblem und der Nachweis ihrer Eignung wird an Hand von sechs sehr unterschiedlichen Aufbauten thermoaktiver Bauteilsysteme durchgeführt und bestätigt sehr geringe Temperatur- und Energiebilanzfehler. Vergleiche zwischen via Systemidentifikation ermittelten Black-Box-Modellen und physikalischen Modellen für zwei Fußbodenkonstruktionen zeigen, daß erstgenannte auch als Referenz für Genauigkeitsabschätzungen herangezogen werden können. Die Praktikabilität des neuen Modellierungsansatzes wird an Fallstudien demonstriert, die Ganzjahressimulationen unter Bauteil- und Betriebsvariationen an einem exemplarischen Büroraum betreffen. Dazu erfolgt die Integration des Black-Box-Modells in das kommerzielle Gebäude- und Anlagensimulationsprogramm CARNOT. Die akzeptablen Rechenzeiten für ein Einzonen-Gebäudemodell in Verbindung mit den hohen Genauigkeiten bescheinigen die Eignung der neuen Modellierungsweise.
Resumo:
Die sogenannte natürliche Lüftung - Lüftung infolge Temperatur- und Windeinfluss - über geöffnete Fenster und Türen ist im Wohnbereich noch immer die häufigste Form des Lüftens. Die Wirkung des Lüftens wird einerseits von den baulichen Gegebenheiten, z.B. der Fenstergröße, Öffnungsfläche und Laibungstiefe sowie andererseits durch den Nutzer, der z.B. eine Gardine oder Rollos anbringt, beeinflusst. Über den genauen Einfluss von verschiedenen Faktoren auf den Luftwechsel existieren zur Zeit noch keine gesicherten Erkenntnisse. Die Kenntnis des Luftwechsels ist jedoch für die Planung und Ausführung von Gebäuden in Hinblick auf das energiesparende Bauen sowie unter bauphysikalischen und hygienischen Aspekten wichtig. Der Einsatz von Dreh-Kippfenstern sowie das Lüften über die Kippstellung ist in Deutschland üblich, so dass die Bestimmung des Luftwechsels über Kippfenster von großem Interesse ist. Ziel dieser Arbeit ist es, den thermisch induzierten Luftwechsel über ein Kippfenster unter Berücksichtigung verschiedener Randbedingungen zu beschreiben. Hierbei werden Variationen der Kippweite, Laibungs- und Heizungsanordnung berücksichtigt. Die Arbeit gliedert sich in drei Teile: im ersten Teil werden messtechnische Untersuchungen durchgeführt, im zweiten Teil exemplarisch einige messtechnisch untersuchten Varianten mit CFD simuliert und im dritten Teil ein verbesserter Modellansatz zur Beschreibung des Luftwechsels aus den Messwerten abgeleitet. Die messtechnischen Untersuchungen bei einer Kippweite von 10 cm zeigen, dass bei dem Vorhandensein einer raumseitigen Laibung oder einem unterhalb des Fensters angeordneten Heizkörpers mit einer Reduktion des Volumenstroms von rund 20 Prozent gegenüber einem Fenster ohne Laibung bzw. ohne Heizkörper gerechnet werden muss. Die Kombination von raumseitiger Laibung und Heizung vermindert das Luftwechselpotential um ca. 40 Prozent. Simuliert wird die Variante ohne Laibung und ohne Heizung für die Kippweiten 6 cm und 10 cm. Die Ergebnisse der mit CFD simulierten Tracergas-Messung weisen für beide Kippweiten im Mittel rund 13 Prozent höhere Zuluftvolumenströme im Vergleich zu den Messwerten auf. Die eigenen Messdaten bilden die Grundlage für die Anpassung eines Rechenmodells. Werden vor Ort die lichte Fensterhöhe und -breite, die Kippweite, die Rahmen- und Laibungstiefe sowie die Abstände der Laibung zum Flügelrahmen gemessen, kann die Öffnungsfläche in Abhängigkeit von der Einbausituation bestimmt werden. Der Einfluss der Heizung - bei einer Anordnung unterhalb des Fensters - wird über den entsprechenden Cd-Wert berücksichtigt.
Resumo:
Ein Luft-Erdwärmetauscher (L-EWT) kommt wegen seines niedrigen Energiebedarfs und möglicher guter Aufwandszahlen als umweltfreundliche Versorgungskomponente für Gebäude in Betracht. Dabei ist besonders vorteilhaft, dass ein L-EWT die Umgebungsluft je nach Jahreszeit vorwärmen oder auch kühlen kann. Dem zufolge sind L-EWT zur Energieeinsparung nicht nur für den Wohnhausbau interessant, sondern auch dort, wo immer noch große Mengen an fossiler Energie für die Raumkühlung benötigt werden, im Büro- und Produktionsgebäudesektor. Der Einsatzbereich eines L-EWT liegt zwischen Volumenströmen von 100 m3/h und mehreren 100.000 m3/h. Aus dieser Bandbreite und den instationären Randbedingungen entstehen erhebliche Schwierigkeiten, allgemeingültige Aussagen über das zu erwartende thermische Systemverhalten aus der Vielzahl möglicher Konstruktionsvarianten zu treffen. Hauptziel dieser Arbeit ist es, auf Basis umfangreicher, mehrjähriger Messungen an einer eigens konzipierten Testanlage und eines speziell angepassten numerischen Rechenmodells, Kennzahlen zu entwickeln, die es ermöglichen, die Betriebseigenschaften eines L-EWT im Planungsalltag zu bestimmen und ein technisch, ökologisch wie ökonomisch effizientes System zu identifizieren. Es werden die Kennzahlen elewt (Aufwandszahl), QV (Netto-Volumenleistung), ME (Meterertrag), sowie die Kombination aus v (Strömungsgeschwindigkeit) und VL (Metervolumenstrom) definiert, die zu wichtigen Informationen führen, mit denen die Qualität von Systemvarianten in der Planungsphase bewertet werden können. Weiterführende Erkenntnisse über die genauere Abschätzung von Bodenkennwerten werden dargestellt. Die hygienische Situation der durch den L-EWT transportierten Luft wird für die warme Jahreszeit, aufgrund auftretender Tauwasserbildung, beschrieben. Aus diesem Grund werden alle relevanten lufthygienischen Parameter in mehreren aufwendigen Messkampagnen erfasst und auf pathogene Wirkungen überprüft. Es wird über Sensitivitätsanalysen gezeigt, welche Fehler bei Annahme falscher Randbedingungen eintreten. Weiterhin werden in dieser Arbeit wesentliche, grundsätzliche Erkenntnisse aufbereitet, die sich aus der Betriebsbeobachtung und der Auswertung der umfangreich vorliegenden Messdaten mehrerer Anlagen ergeben haben und für die praktische Umsetzung und die Betriebsführung bedeutend sind. Hinweise zu Materialeigenschaften und zur Systemwirtschaftlichkeit sind detailliert aufgeführt.
Resumo:
Bei Meßprojekten in denen Gebäude mit installierter Lüftungsanlage untersucht wurden, stellte man immer wieder ein breite Streuung der Meßwerte, als auch eine oftmals deutliche Abweichung vom vorher ermittelten Heizwärmebedarf der Gebäude fest. Es wird vermutet, daß diese Unterschiede systemspezifische Ursachen haben, ein Nachweis kann aufgrund der geringen Anzahl vorhandener Meßpunkte jedoch nicht geführt werden. Um die Sensitivität verschiedener Randbedingungen auf den Energieverbrauch zu ermitteln, wird im vorliegenden Forschungsprojekt ein Simulationsmodell erstellt. Das thermische Verhalten und die Durchströmung des Gebäudes werden durch ein gekoppeltes Modell abgebildet. Unterschiedliche Lüftungsanlagensysteme werden miteinander verglichen. Auf Basis vorhandener Meßdaten wird ein klimaabhängiges Modell zur Fensterlüftung entwickelt, welches in die Modellbildung der Gebäudedurchströmung mit einfließt. Feuchtegeregelte Abluftanlagen sind in der Lage den mittleren Luftwechsel auf ein hygienisch sinnvollen Wert zu begrenzen. Sie erweisen sich im Hinblick auf die Sensitivität verschiedener Randbedingungen als robuste Systeme. Trotz Einsatz von Lüftungsanlagen kann je nach Betriebszustand insbesondere bei Abluftanlagen keine ausreichende Luftqualität sichergestellt werden. Zukünftige Systeme dürfen das "Lüftungssystem" Fenster nicht vernachlässigen, sondern müssen es in das Gesamtkonzept mit einbeziehen.
Resumo:
Die erste Ausgabe des Magazins Monu hat das Thema Paid Urbanism und untersucht urbane Veränderungen, verursacht durch Staatssubventionen. Es werden Projekte und Artikel von amerikanischen und europäischen Autoren präsentiert, die den Einfluss von Paid Urbanism auf die Form unterschiedlichster Orte wie Chicago, Coney Island (New York City) und Thüringen untersuchen und reflektieren.