9 resultados para Bereitstellung
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
The increasing precision of current and future experiments in high-energy physics requires a likewise increase in the accuracy of the calculation of theoretical predictions, in order to find evidence for possible deviations of the generally accepted Standard Model of elementary particles and interactions. Calculating the experimentally measurable cross sections of scattering and decay processes to a higher accuracy directly translates into including higher order radiative corrections in the calculation. The large number of particles and interactions in the full Standard Model results in an exponentially growing number of Feynman diagrams contributing to any given process in higher orders. Additionally, the appearance of multiple independent mass scales makes even the calculation of single diagrams non-trivial. For over two decades now, the only way to cope with these issues has been to rely on the assistance of computers. The aim of the xloops project is to provide the necessary tools to automate the calculation procedures as far as possible, including the generation of the contributing diagrams and the evaluation of the resulting Feynman integrals. The latter is based on the techniques developed in Mainz for solving one- and two-loop diagrams in a general and systematic way using parallel/orthogonal space methods. These techniques involve a considerable amount of symbolic computations. During the development of xloops it was found that conventional computer algebra systems were not a suitable implementation environment. For this reason, a new system called GiNaC has been created, which allows the development of large-scale symbolic applications in an object-oriented fashion within the C++ programming language. This system, which is now also in use for other projects besides xloops, is the main focus of this thesis. The implementation of GiNaC as a C++ library sets it apart from other algebraic systems. Our results prove that a highly efficient symbolic manipulator can be designed in an object-oriented way, and that having a very fine granularity of objects is also feasible. The xloops-related parts of this work consist of a new implementation, based on GiNaC, of functions for calculating one-loop Feynman integrals that already existed in the original xloops program, as well as the addition of supplementary modules belonging to the interface between the library of integral functions and the diagram generator.
Resumo:
Die zentrale Funktion des Hauptlichtsammlerkomplexes des Photosystems II, LHCII, besteht in der Absorption von Sonnenlicht und der Bereitstellung von Energie für die photosynthetische Ladungstrennung im Reaktionszentrum des Photosystems. Auch in der Regulation der Photosynthese spielt der LHCII eine wichtige Rolle, da die Energieverteilung zwischen Photosystem I und Photosystem II im Rahmen des sog. „State Transition“-Prozesses über die Verteilung der Lichtsammlerkomplexe zwischen den beiden Photosystemen gesteuert wird. Im Blickfeld des ersten Teils dieser Arbeit stand die konformative Dynamik der N-terminalen Domäne des LHCII, die wahrscheinlich in die Regulation der Lichtsammlung involviert ist. Gemeinsam mit Mitarbeitern des 3. Physikalischen Instituts der Universität Stuttgart wurde an der Etablierung einer Methode zur einzelmolekülspektroskopischen Untersuchung der Dynamik des N-Terminus gearbeitet. Als Messgröße diente der Energietransfer zwischen einem Fluoreszenzfarbstoff, der an die N-terminale Domäne gekoppelt war, und den Chlorophyllen des Komplexes. Die Funktion des LHCII als effiziente Lichtantenne bildete die Grundlage für den zweiten Teil dieser Arbeit. Hier wurde untersucht, in wie weit LHCII als Lichtsammler in eine elektrochemische Solarzelle integriert werden kann. In der potentiellen Solarzelle sollte die Anregungsenergie des LHCII auf Akzeptorfarbstoffe übertragen werden, die in der Folge Elektronen in das Leitungsband einer aus Titandioxid oder Zinndioxid bestehenden porösen Halbleiterelektrode injizierten, auf der Komplexe und Farbstoffe immobilisiert waren.
Resumo:
Radiometals play an important role in nuclear medicine as involved in diagnostic or therapeutic agents. In the present work the radiochemical aspects of production and processing of very promising radiometals of the third group of the periodic table, namely radiogallium and radiolanthanides are investigated. The 68Ge/68Ga generator (68Ge, T½ = 270.8 d) provides a cyclotron-independent source of positron-emitting 68Ga (T½ = 68 min), which can be used for coordinative labelling. However, for labelling of biomolecules via bifunctional chelators, particularly if legal aspects of production of radiopharmaceuticals are considered, 68Ga(III) as eluted initially needs to be pre-concentrated and purified. The first experimental chapter describes a system for simple and efficient handling of the 68Ge/68Ga generator eluates with a cation-exchange micro-chromatography column as the main component. Chemical purification and volume concentration of 68Ga(III) are carried out in hydrochloric acid – acetone media. Finally, generator produced 68Ga(III) is obtained with an excellent radiochemical and chemical purity in a minimised volume in a form applicable directly for the synthesis of 68Ga-labelled radiopharmaceuticals. For labelling with 68Ga(III), somatostatin analogue DOTA-octreotides (DOTATOC, DOTANOC) are used. 68Ga-DOTATOC and 68Ga-DOTANOC were successfully used to diagnose human somatostatin receptor-expressing tumours with PET/CT. Additionally, the proposed method was adapted for purification and medical utilisation of the cyclotron produced SPECT gallium radionuclide 67Ga(III). Second experimental chapter discusses a diagnostic radiolanthanide 140Nd, produced by irradiation of macro amounts of natural CeO2 and Pr2O3 in natCe(3He,xn)140Nd and 141Pr(p,2n)140Nd nuclear reactions, respectively. With this produced and processed 140Nd an efficient 140Nd/140Pr radionuclide generator system has been developed and evaluated. The principle of radiochemical separation of the mother and daughter radiolanthanides is based on physical-chemical transitions (hot-atom effects) of 140Pr following the electron capture process of 140Nd. The mother radionuclide 140Nd(III) is quantitatively absorbed on a solid phase matrix in the chemical form of 140Nd-DOTA-conjugated complexes, while daughter nuclide 140Pr is generated in an ionic species. With a very high elution yield and satisfactory chemical and radiolytical stability the system could able to provide the short-lived positron-emitting radiolanthanide 140Pr for PET investigations. In the third experimental chapter, analogously to physical-chemical transitions after the radioactive decay of 140Nd in 140Pr-DOTA, the rapture of the chemical bond between a radiolanthanide and the DOTA ligand, after the thermal neutron capture reaction (Szilard-Chalmers effect) was evaluated for production of the relevant radiolanthanides with high specific activity at TRIGA II Mainz nuclear reactor. The physical-chemical model was developed and first quantitative data are presented. As an example, 166Ho could be produced with a specific activity higher than its limiting value for TRIGA II Mainz, namely about 2 GBq/mg versus 0.9 GBq/mg. While free 166Ho(III) is produced in situ, it is not forming a 166Ho-DOTA complex and therefore can be separated from the inactive 165Ho-DOTA material. The analysis of the experimental data shows that radionuclides with half-life T½ < 64 h can be produced on TRIGA II Mainz nuclear reactor, with specific activity higher than any available at irradiation of simple targets e.g. oxides.
Resumo:
Die Aufgabenstellung, welche dieser Dissertation zugrunde liegt, lässt sich kurz als die Untersuchung von komponentenbasierten Konzepten zum Einsatz in der Softwareentwicklung durch Endanwender beschreiben. In den letzten 20 bis 30 Jahren hat sich das technische Umfeld, in dem ein Großteil der Arbeitnehmer seine täglichen Aufgaben verrichtet, grundlegend verändert. Der Computer, früher in Form eines Großrechners ausschließlich die Domäne von Spezialisten, ist nun ein selbstverständlicher Bestandteil der täglichen Arbeit. Der Umgang mit Anwendungsprogrammen, die dem Nutzer erlauben in einem gewissen Rahmen neue, eigene Funktionalität zu definieren, ist in vielen Bereichen so selbstverständlich, dass viele dieser Tätigkeiten nicht bewusst als Programmieren wahrgenommen werden. Da diese Nutzer nicht notwendigerweise in der Entwicklung von Software ausgebildet sind, benötigen sie entsprechende Unterstützung bei diesen Tätigkeiten. Dies macht deutlich, welche praktische Relevanz die Untersuchungen in diesem Bereich haben. Zur Erstellung eines Programmiersystems für Endanwender wird zunächst ein flexibler Anwendungsrahmen entwickelt, welcher sich als Basis zur Erstellung solcher Systeme eignet. In Softwareprojekten sind sich ändernde Anforderungen und daraus resultierende Notwendigkeiten ein wichtiger Aspekt. Dies wird im Entwurf des Frameworks durch Konzepte zur Bereitstellung von wieder verwendbarer Funktionalität durch das Framework und Möglichkeiten zur Anpassung und Erweiterung der vorhandenen Funktionalität berücksichtigt. Hier ist zum einen der Einsatz einer serviceorientierten Architektur innerhalb der Anwendung und zum anderen eine komponentenorientierte Variante des Kommando-Musters zu nennen. Zum anderen wird ein Konzept zur Kapselung von Endnutzerprogrammiermodellen in Komponenten erarbeitet. Dieser Ansatz ermöglicht es, unterschiedliche Modelle als Grundlage der entworfenen Entwicklungsumgebung zu verwenden. Im weiteren Verlauf der Arbeit wird ein Programmiermodell entworfen und unter Verwendung des zuvor genannten Frameworks implementiert. Damit dieses zur Nutzung durch Endanwender geeignet ist, ist eine Anhebung der zur Beschreibung eines Softwaresystems verwendeten Abstraktionsebene notwendig. Dies wird durch die Verwendung von Komponenten und einem nachrichtenbasierten Kompositionsmechanismus erreicht. Die vorgenommene Realisierung ist dabei noch nicht auf konkrete Anwendungsfamilien bezogen, diese Anpassungen erfolgen in einem weiteren Schritt für zwei unterschiedliche Anwendungsbereiche.
Resumo:
Im Rahmen der vorliegenden Arbeit wurden Eignung und Nutzen des „Objective therapy Compliance Measurement“ (OtCMTM)-Systems, einer innovativen Weiterentwicklung im Bereich der elektronischen Compliance-Messung, untersucht. Unter experimentellen Bedingungen wurden Funktionalität und Verlässlichkeit der elektronischen OtCMTM-Blisterpackungen überprüft, um deren Eignung für den klinischen Einsatz zu zeigen. Funktionalität (≥90% lesbare Blister), Richtigkeit (≤2% Fehler) und Robustheit waren bei den OtCMTM-Blistern der Version 3 gegeben, nachdem die Fehler der Versionen 1 und 2 in Zusammenarbeit mit dem Hersteller TCG identifiziert und eliminiert worden waren. Der als Alternative zu den elektronischen Blistern für die Verpackung von klinischen Prüfmustern entwickelte OtCMTM e-Dispenser wurde bezüglich Funktionalität und Anwenderfreundlichkeit in einer Pilotstudie untersucht. Dabei wurde ein Optimierungsbedarf festgestellt. In einer klinischen Studie wurde das OtCMTM-System mit dem als „Goldstandard“ geltenden MEMS® verglichen. Vergleichskriterien waren Datenqualität, Akzeptanz und Anwenderfreundlichkeit, Zeitaufwand bei der Bereitstellung der Medikation und Datenauswertung, sowie Validität. Insgesamt 40 Patienten, die mit Rekawan® retard 600mg behandelt wurden, nahmen an der offenen, randomisierten, prospektiven Studie teil. Das OtCMTM-System zeigte sich bezüglich Validität, Akzeptanz und Anwenderfreundlichkeit mit MEMS® vergleichbar. Eine erwartete Zeitersparnis wurde mit dem OtCMTM-System gegenüber MEMS® nicht erreicht. Vorteile des OtCMTM-Systems sind eine höhere Datenqualität und die Möglichkeit zum Einsatz in der Telemedizin.
Untersuchungen zur Plasmapheresetherapie bei Patienten mit thrombotisch thrombozytopenischer Purpura
Resumo:
Die thrombotische thrombozytopenische Purpura (TTP) ist charakterisiert durch eine Triade aus Thrombozytopenie, hämolytischer Anämie und Mikrothromben. Ursächlich für diese Mikroangiopathie ist ein Mangel der Von Willebrand Faktor (VWF)-spaltenden Protease, ADAMTS13, der durch Autoantikörper oder eine genetische Mutation bedingt sein kann. In der Folge treten hochmolekulare, prothrombotische VWF Multimere im Blut auf, die eine Plättchenadhäsion und -aggregation initiieren, die zu mikrovaskulären Thromben in den Arteriolen und Kapillaren zahlreicher Organe insbesondere im zentralen Nervensystem führt. rnMomentan ist der Goldstandard der Therapie dieser ansonsten tödlich verlaufenden Erkrankung, die Plasmapherese (PEX). Hierfür stehen mit Fresh Frozen Plasma (FFP) und solvent/detergent (s/d) Plasma zwei Präparate zur Verfügung. Die Effizienz der Therapie bei der TTP konnte in den letzten Jahrzehnten im klinischen Alltag belegt werden, dennoch geht die intensive und invasive Therapie mit vielen Risiken und Nebenwirkungen für die Patienten einher, die in dieser Arbeit herausgearbeitet werden sollten. rnIn einer deutschlandweiten Patientenstudie wurde retrospektiv, mittels Fragebögen, ein Nebenwirkungsprofil der Plasmapherese erstellt, sowie mögliche Prädispositionen für die TTP untersucht. Zudem wurden mögliche Auslöser für das Auftreten einer klinisch manifesten TTP analysiert. Die Auswertung zeigte, dass Parästhesien (64,4 %) und Schüttelfrost (61,2 %) als häufigste Nebenwirkungen der PEX bei den Patienten auftraten. Weitere Symptome waren vermehrte Kopfschmerzen (50,6 %) und Tachykardien (36,8 %). Nebenwirkungen wie schwerer Kollaps (9 %) traten selten auf. Patienten mit Allergien in der Anamnese reagierten nicht empfindlicher auf die PEX, als andere. Ein Unterschied in der Häufigkeit der Nebenwirkungen hinsichtlich der verschiedenen Plasmapräparate konnte nicht gezeigt werden, relativiert wird dies durch den sehr geringen Einsatz von Octaplas® bei der untersuchten Patientenkohorte.rnEs konnte eine deutliche Verbindung zwischen dem Auftreten der TTP und anderen Autoimmunerkrankungen gezeigt werden. Von insgesamt 87 Patienten leiden 20,8 % an einer weiteren Autoimmunerkrankung. Insbesondere die Hashimoto Thyreoiditis liegt bei den Befragten als häufige Begleiterkrankung vor. Die genetische Prädisposition hat sich in den vergangen Jahren als ein primärer Risikofaktor für die TTP herausgestellt.rnAls mögliche Trigger eines TTP Schubes konnten Infektionen (38,7 %), Medikamente (u.a. Kontrazeptiva, Chinolone, Clarithromycin) (24,3 %), und Schwangerschaft (5,4 %) ausgemacht werden.rnEin weiterer Untersuchungspunkt der Dissertation war die Beurteilung der ADAMTS13-Aktivität in den Plasmapräparaten. Hierfür wurden drei verschieden Methoden, zwei auf Fluoreszenz Resonanz Energie Transfer beruhende Assays und eine turbidimetrische Messung, verwendet. In allen Methoden konnte eine physiologische ADAMTS13-Aktivität, 646 ng/ml für FFP und 634 ng/ml für Octaplas®, gemessen werden, die sich für beide Präparate nicht signifikant unterschied. Auffällig waren jedoch die höheren Schwankungen der Aktivität bei den verschiedenen Chargen bei FFP gegenüber Octaplas®. rnAufgrund des Herstellungsverfahrens bietet Octaplas® einen sichereren Schutz vor Virusübertragungen und dem Auftreten von TRALI als FFP. Jedoch kann es aufgrund der niedrigen Konzentration an Protein S prothrombotisch wirken. FFP enthält dagegen einen höheren Gehalt an Gerinnungsfaktoren. rnAbschließend ist festzuhalten, dass beide Präparate für die Therapie der TTP geeignet sind. Welches Präparat gewählt wird, sollte individuell für den zu behandelnden Patienten entschieden werden. Bei TTP-Patienten, die in der Vergangenheit bereits sensibel auf FFP reagierten, bietet sich eine Therapie mit Octaplas® an. Die schnelle Bereitstellung einer adäquaten Therapie spielt bei der thrombotisch thrombozytopenischen Purpura die entscheidende Rolle.
Resumo:
Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.
Resumo:
Die BBC-Serie SHERLOCK war 2011 eine der meistexportierten Fernsehproduktionen Großbritanniens und wurde weltweit in viele Sprachen übersetzt. Eine der Herausforderungen bei der Übersetzung stellen die Schrifteinblendungen der Serie (kurz: Inserts) dar. Die Inserts versprachlichen die Gedanken des Protagonisten, bilden schriftliche und digitale Kommunikation ab und zeichnen sich dabei durch ihre visuelle Auffälligkeit und teilweise als einzige Träger sprachlicher Kommunikation aus, womit sie zum wichtigen ästhetischen und narrativen Mittel in der Serie werden. Interessanterweise sind in der Übersetztung alle stilistischen Eigenschaften der Original-Inserts erhalten. In dieser Arbeit wird einerseits untersucht, wie Schrifteinblendungen im Film theoretisch beschrieben werden können, und andererseits, was sie in der Praxis so übersetzt werden können, wie es in der deutschen Version von Sherlock geschah. Zur theoretischen Beschreibung werden zunächst die Schrifteinblendungen in Sherlock Untertitelungsnormen anhand relevanter grundlegender semiotischer Dimensionen gegenübergestellt. Weiterhin wird das Verhältnis zwischen Schrifteinblendungen und Filmbild erkundet. Dazu wird geprüft, wie gut verschiedene Beschreibungsansätze zu Text-Bild-Verhältnissen aus der Sprachwissenschaft, Comicforschung, Übersetzungswissenschaft und Typografie die Einblendungen in Sherlock erklären können. Im praktischen Teil wird die Übersetzung der Einblendungen beleuchtet. Der Übersetzungsprozess bei der deutschen Version wird auf Grundlage eines Experteninterviews mit dem Synchronautor der Serie rekonstruiert, der auch für die Formulierung der Inserts zuständig war. Abschließend werden spezifische Übersetzungsprobleme der Inserts aus der zweiten Staffel von SHERLOCK diskutiert. Es zeigt sich, dass Untertitelungsnormen zur Beschreibung von Inserts nicht geeignet sind, da sie in Dimensionen wie Position, grafische Gestaltung, Animation, Soundeffekte, aber auch Timing stark eingeschränkt sind. Dies lässt sich durch das historisch geprägte Verständnis von Untertiteln erklären, die als möglichst wenig störendes Beiwerk zum fertigen Filmbild und -ablauf (notgedrungen) hinzugefügt werden, wohingegen für die Inserts in SHERLOCK teilweise sogar ein zentraler Platz in der Bild- und Szenenkomposition bereits bei den Dreharbeiten vorgesehen wurde. In Bezug auf Text-Bild-Verhältnisse zeigen sich die größten Parallelen zu Ansätzen aus der Comicforschung, da auch dort schriftliche Texte im Bild eingebettet sind anstatt andersherum. Allerdings sind auch diese Ansätze zur Beschreibung von Bewegung und Ton unzureichend. Die Erkundung der Erklärungsreichweite weiterer vielversprechender Konzepte, wie Interface und Usability, bleibt ein Ziel für künftige Studien. Aus dem Experteninterview lässt sich schließen, dass die Übersetzung von Inserts ein neues, noch unstandardisiertes Verfahren ist, in dem idiosynkratische praktische Lösungen zur sprachübergreifenden Kommunikation zwischen verschiedenen Prozessbeteiligten zum Einsatz kommen. Bei hochqualitative Produktionen zeigt ist auch für die ersetzende Insertübersetzung der Einsatz von Grafikern unerlässlich, zumindest für die Erstellung neuer Inserts als Übersetzungen von gefilmtem Text (Display). Hierbei sind die theoretisch möglichen Synergien zwischen Sprach- und Bildexperten noch nicht voll ausgeschöpft. Zudem zeigt sich Optimierungspotential mit Blick auf die Bereitstellung von sorgfältiger Dokumentation zur ausgangssprachlichen Version. Diese wäre als Referenzmaterial für die Übersetzung insbesondere auch für Zwecke der internationalen Qualitätssicherung relevant. Die übersetzten Inserts in der deutschen Version weisen insgesamt eine sehr hohe Qualität auf. Übersetzungsprobleme ergeben sich für das genretypische Element der Codes, die wegen ihrer Kompaktheit und multiplen Bezügen zum Film eine Herausforderung darstellen. Neben weiteren bekannten Übersetzungsproblemen wie intertextuellen Bezügen und Realia stellt sich immer wieder die Frage, wieviel der im Original dargestellten Insert- und Displaytexte übersetzt werden müssen. Aus Gründen der visuellen Konsistenz wurden neue Inserts zur Übersetzung von Displays notwendig. Außerdem stellt sich die Frage insbesondere bei Fülltexten. Sie dienen der Repräsentation von Text und der Erweiterung der Grenzen der fiktiv dargestellten Welt, sind allerdings mit hohem Übersetzungsaufwand bei minimaler Bedeutung für die Handlung verbunden.
Resumo:
The main objective of this study is to reveal the housing patterns in Cairo as one of the most rapidly urbanizing city in the developing world. The study outlines the evolution of the housing problem and its influencing factors in Egypt generally and in Cairo specifically. The study takes into account the political transition from the national state economy to the open door policy, the neo-liberal period and finally to the housing situation after the January 2011 Revolution. The resulting housing patterns in Cairo Governorate were identified as (1) squatter settlements, (2) semi-informal settlements, (3) deteriorated inner pockets, and (4) formal settlements. rnThe study concluded that the housing patterns in Cairo are reflecting a multifaceted problem resulting in: (1) the imbalance between the high demand for affordable housing units for low-income families and the oversupply of upper-income housing, (2) the vast expansion of informal areas both on agricultural and desert lands, (3) the deterioration of the old parts of Cairo without upgrading or appropriate replacement of the housing structure, and (4) the high vacancy rate of newly constructed apartmentsrnThe evolution and development of the current housing problem were attributed to a number of factors. These factors are demographic factors represented in the rapid growth of the population associated with urbanization under the dictates of poverty, and the progressive increase of the prices of both buildable land and building materials. The study underlined that the current pattern of population density in Cairo Governorate is a direct result of the current housing problems. Around the depopulation core of the city, a ring of relatively stable areas in terms of population density has developed. Population densification, at the expense of the depopulation core, is characterizing the peripheries of the city. The population density in relation to the built-up area was examined using Landsat-7 ETM+ image (176/039). The image was acquired on 24 August 2006 and considered as an ideal source for land cover classification in Cairo since it is compatible with the population census 2006.rnConsidering that the socio-economic setting is a driving force of change of housing demand and that it is an outcome of the accumulated housing problems, the socio-economic deprivations of the inhabitants of Cairo Governorate are analyzed. Small administrative units in Cairo are categorized into four classes based on the Socio-Economic Opportunity Index (SEOI). This index is developed by using multiple domains focusing on the economic, educational and health situation of the residential population. The results show four levels of deprivation which are consistent with the existing housing patterns. Informal areas on state owned land are included in the first category, namely, the “severely deprived” level. Ex-formal areas or deteriorated inner pockets are characterized as “deprived” urban quarters. Semi-informal areas on agricultural land concentrate in the third category of “medium deprived” settlements. Formal or planned areas are included mostly in the fourth category of the “less deprived” parts of Cairo Governorate. rnFor a better understanding of the differences and similarities among the various housing patterns, four areas based on the smallest administrative units of shiakhat were selected for a detailed study. These areas are: (1) El-Ma’desa is representing a severely deprived squatter settlement, (2) Ain el-Sira is an example for an ex-formal deprived area, (3) El-Marg el-Qibliya was selected as a typical semi-informal and medium deprived settlement, and (4) El-Nozha is representing a formal and less deprived area.rnThe analysis at shiakhat level reveals how the socio-economic characteristics and the unregulated urban growth are greatly reflected in the morphological characteristics of the housing patterns in terms of street network and types of residential buildings as well as types of housing tenure. It is also reflected in the functional characteristics in terms of land use mix and its degree of compatibility. It is concluded that the provision and accessibility to public services represents a performance measure of the dysfunctional structure dominating squatter and semi-informal settlements on one hand and ample public services and accessibility in formal areas on the other hand.rn