992 resultados para GIS Techniques
Resumo:
This paper describes a novel framework for automatic segmentation of primary tumors and its boundary from brain MRIs using morphological filtering techniques. This method uses T2 weighted and T1 FLAIR images. This approach is very simple, more accurate and less time consuming than existing methods. This method is tested by fifty patients of different tumor types, shapes, image intensities, sizes and produced better results. The results were validated with ground truth images by the radiologist. Segmentation of the tumor and boundary detection is important because it can be used for surgical planning, treatment planning, textural analysis, 3-Dimensional modeling and volumetric analysis
Resumo:
Super Resolution problem is an inverse problem and refers to the process of producing a High resolution (HR) image, making use of one or more Low Resolution (LR) observations. It includes up sampling the image, thereby, increasing the maximum spatial frequency and removing degradations that arise during the image capture namely aliasing and blurring. The work presented in this thesis is based on learning based single image super-resolution. In learning based super-resolution algorithms, a training set or database of available HR images are used to construct the HR image of an image captured using a LR camera. In the training set, images are stored as patches or coefficients of feature representations like wavelet transform, DCT, etc. Single frame image super-resolution can be used in applications where database of HR images are available. The advantage of this method is that by skilfully creating a database of suitable training images, one can improve the quality of the super-resolved image. A new super resolution method based on wavelet transform is developed and it is better than conventional wavelet transform based methods and standard interpolation methods. Super-resolution techniques based on skewed anisotropic transform called directionlet transform are developed to convert a low resolution image which is of small size into a high resolution image of large size. Super-resolution algorithm not only increases the size, but also reduces the degradations occurred during the process of capturing image. This method outperforms the standard interpolation methods and the wavelet methods, both visually and in terms of SNR values. Artifacts like aliasing and ringing effects are also eliminated in this method. The super-resolution methods are implemented using, both critically sampled and over sampled directionlets. The conventional directionlet transform is computationally complex. Hence lifting scheme is used for implementation of directionlets. The new single image super-resolution method based on lifting scheme reduces computational complexity and thereby reduces computation time. The quality of the super resolved image depends on the type of wavelet basis used. A study is conducted to find the effect of different wavelets on the single image super-resolution method. Finally this new method implemented on grey images is extended to colour images and noisy images
Resumo:
The thesis explores the area of still image compression. The image compression techniques can be broadly classified into lossless and lossy compression. The most common lossy compression techniques are based on Transform coding, Vector Quantization and Fractals. Transform coding is the simplest of the above and generally employs reversible transforms like, DCT, DWT, etc. Mapped Real Transform (MRT) is an evolving integer transform, based on real additions alone. The present research work aims at developing new image compression techniques based on MRT. Most of the transform coding techniques employ fixed block size image segmentation, usually 8×8. Hence, a fixed block size transform coding is implemented using MRT and the merits and demerits are analyzed for both 8×8 and 4×4 blocks. The N2 unique MRT coefficients, for each block, are computed using templates. Considering the merits and demerits of fixed block size transform coding techniques, a hybrid form of these techniques is implemented to improve the performance of compression. The performance of the hybrid coder is found to be better compared to the fixed block size coders. Thus, if the block size is made adaptive, the performance can be further improved. In adaptive block size coding, the block size may vary from the size of the image to 2×2. Hence, the computation of MRT using templates is impractical due to memory requirements. So, an adaptive transform coder based on Unique MRT (UMRT), a compact form of MRT, is implemented to get better performance in terms of PSNR and HVS The suitability of MRT in vector quantization of images is then experimented. The UMRT based Classified Vector Quantization (CVQ) is implemented subsequently. The edges in the images are identified and classified by employing a UMRT based criteria. Based on the above experiments, a new technique named “MRT based Adaptive Transform Coder with Classified Vector Quantization (MATC-CVQ)”is developed. Its performance is evaluated and compared against existing techniques. A comparison with standard JPEG & the well-known Shapiro’s Embedded Zero-tree Wavelet (EZW) is done and found that the proposed technique gives better performance for majority of images
Resumo:
HINDI
Resumo:
The aim of the thesis was to design and develop spatially adaptive denoising techniques with edge and feature preservation, for images corrupted with additive white Gaussian noise and SAR images affected with speckle noise. Image denoising is a well researched topic. It has found multifaceted applications in our day to day life. Image denoising based on multi resolution analysis using wavelet transform has received considerable attention in recent years. The directionlet based denoising schemes presented in this thesis are effective in preserving the image specific features like edges and contours in denoising. Scope of this research is still open in areas like further optimization in terms of speed and extension of the techniques to other related areas like colour and video image denoising. Such studies would further augment the practical use of these techniques.
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
Der Schwerpunkt dieser Arbeit handelt sich um die informelle Siedlungen in Kairo (die wir Asch- Gebiete nennen). Der Begriff "Aschuaiat" bezeichnet ganz speziell und treffend dieses Phänomen. Die Probleme der Aschuaiat haben seit den 70er Jahren auf ganz Ägypten und die Stadt Kairo sehr negative Auswirkungen, die im Laufe der Zeit zu massiven Problemen geworden sind. Die Entscheidungsträger versuchten für diese Schwierigkeiten Lösungen zu finden, aber die Ergebnisse waren nicht befriedigend. Dieses Phänomen sieht wie ein städtebauliches Problem aus, kann aber in Wirklichkeit nicht von den ökologischen und sozialen Verhältnisse einer Region getrennt werden. Die Aschuaiat entstehen normalerweise in städtebaulichen Zentren und in größeren Städten als Ergebnisse ihrer Anziehungskraft, da solche Städte ein gutes Angebot an Arbeitsplätzen, insbesondere im Bereich der Dienstleistungen, haben. Im Gegensatz dazu stehen die landwirtschaftlichen Gebiete: sie zeichnen sich insbesondere durch steigende Arbeitslosigkeit und Mangel an Dienstleistungen aus. Deshalb wandert ein Großteil der Bevölkerung vom Land in die Stadt ab, um hier auf die Suche nach einem Arbeitsplatz zu gehen und insgesamt bessere Lebensbedingungen vorzufinden. Die Zahl der Zuwanderer steigt stetig; die Städte können die Bedürfnisse der Bevölkerung an Angeboten für Wohnungen, Arbeitsplätzen und Dienstleistungen nicht erfüllen. Deswegen nimmt die Bevölkerung, ihre Probleme selbst in die Hand. Dies führt in den meisten Fällen zu einer klaren Form von Aschuaiat innerhalb und um die städtebaulichen Zentren herum. Die Anzahl der Aschuaiat, die sich rings um Kairo befinden, beträgt 76 Zonen mit einer Gesamtfläche von 23,10 km² und einer Einwohnerzahl von 2.098.469. Die Anzahl der illegalen Wohnungseinheiten beträgt 70 Prozent des Gesamtwertes legaler, staatlicher oder privater Wohneinheiten. Diese wurden im Zeitraum zwischen 1980 und 2000 erbaut. Jede Provinz in Ägypten hat Asch-Gebiete - mit Ausnahme der Provinzen Süd Sina und Neues Tal. Die meisten konzentrieren sich in den Provinzen El Dakahlia (121) und Dumiat (88). Die wenigsten Asch-Gebiete (jeweils nur eine Zone) gibt es in den Provinzen Rotes Meer und Nord Sina. In Ägypten wird die Einwohnerzahl der Aschuaiat auf 37 Prozent der Gesamtbevölkerung der städtebaulichen Gebiete geschätzt. Über die genaue Anzahl der Aschuaiat liegen jedoch keine zuverlässigen Informationen vor, die statistischen Daten der staatlichen Organisationen weisen unterschiedliche Resultate auf. Das Ministerium für lokale Entwicklung verkündete, dass die Zahl der Aschuaiat im Jahr 2000 ca. 916 und im Jahr 2003 ca. 1.228 Zonen betragen hat; das Informationszentrum zur Unterstützung von Sachentscheidungen registrierte jedoch für das Jahr 2000 eine Zahl von 1.034 Zonen; demgegenüber liegt die von CAPMAS registrierte Anzahl für 2000 bei 909 Zonen. Diese Unterschiede in der Erfassung der statistischen Daten kann darauf zurückgeführt werden, dass es in Ägypten keine einheitliche Definition für Aschuaiat gibt. Dieses Problem verstärkt den Bedarf an geeignetem Bewertungssystem für die Bewertung der Qualität solcher Gebiete in ganz Ägypten. Das vorgeschlagene Bewertungssystem basiert auf der Analyse und Bewertung der Hauptstrukturen, die die eigentliche Zusammensetzung einer Siedlung repräsentieren. Diese Strukturen spiegeln in der Regel die sozialen, städtebaulichen und infrastrukturellen Eigenschaften eines Gebietes wider. Konkret befasst sich diese Untersuchung mit den verschiedenen Strukturen, die die Lebens- und Siedlungsqualität in den Aschuaiat beeinflussen.
Resumo:
We present a new algorithm called TITANIC for computing concept lattices. It is based on data mining techniques for computing frequent itemsets. The algorithm is experimentally evaluated and compared with B. Ganter's Next-Closure algorithm.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
At many locations in Myanmar, ongoing changes in land use have negative environmental impacts and threaten natural ecosystems at local, regional and national scales. In particular, the watershed area of Inle Lake in eastern Myanmar is strongly affected by the environmental effects of deforestation and soil erosion caused by agricultural intensification and expansion of agricultural land, which are exacerbated by the increasing population pressure and the growing number of tourists. This thesis, therefore, focuses on land use changes in traditional farming systems and their effects on socio-economic and biophysical factors to improve our understanding of sustainable natural resource management of this wetland ecosystem. The main objectives of this research were to: (1) assess the noticeable land transformations in space and time, (2) identify the typical farming systems as well as the divergent livelihood strategies, and finally, (3) estimate soil erosion risk in the different agro-ecological zones surrounding the Inle Lake watershed area. GIS and remote sensing techniques allowed to identify the dynamic land use and land cover changes (LUCC) during the past 40 years based on historical Corona images (1968) and Landsat images (1989, 2000 and 2009). In this study, 12 land cover classes were identified and a supervised classification was used for the Landsat datasets, whereas a visual interpretation approach was conducted for the Corona images. Within the past 40 years, the main landscape transformation processes were deforestation (- 49%), urbanization (+ 203%), agricultural expansion (+ 34%) with a notably increase of floating gardens (+ 390%), land abandonment (+ 167%), and marshlands losses in wetland area (- 83%) and water bodies (- 16%). The main driving forces of LUCC appeared to be high population growth, urbanization and settlements, a lack of sustainable land use and environmental management policies, wide-spread rural poverty, an open market economy and changes in market prices and access. To identify the diverse livelihood strategies in the Inle Lake watershed area and the diversity of income generating activities, household surveys were conducted (total: 301 households) using a stratified random sampling design in three different agro-ecological zones: floating gardens (FG), lowland cultivation (LL) and upland cultivation (UP). A cluster and discriminant analysis revealed that livelihood strategies and socio-economic situations of local communities differed significantly in the different zones. For all three zones, different livelihood strategies were identified which differed mainly in the amount of on-farm and off-farm income, and the level of income diversification. The gross margin for each household from agricultural production in the floating garden, lowland and upland cultivation was US$ 2108, 892 and 619 ha-1 respectively. Among the typical farming systems in these zones, tomato (Lycopersicon esculentum L.) plantation in the floating gardens yielded the highest net benefits, but caused negative environmental impacts given the overuse of inorganic fertilizers and pesticides. The Revised Universal Soil Loss Equation (RUSLE) and spatial analysis within GIS were applied to estimate soil erosion risk in the different agricultural zones and for the main cropping systems of the study region. The results revealed that the average soil losses in year 1989, 2000 and 2009 amounted to 20, 10 and 26 t ha-1, respectively and barren land along the steep slopes had the highest soil erosion risk with 85% of the total soil losses in the study area. Yearly fluctuations were mainly caused by changes in the amount of annual precipitation and the dynamics of LUCC such as deforestation and agriculture extension with inappropriate land use and unsustainable cropping systems. Among the typical cropping systems, upland rainfed rice (Oryza sativa L.) cultivation had the highest rate of soil erosion (20 t ha-1yr-1) followed by sebesten (Cordia dichotoma) and turmeric (Curcuma longa) plantation in the UP zone. This study indicated that the hotspot region of soil erosion risk were upland mountain areas, especially in the western part of the Inle lake. Soil conservation practices are thus urgently needed to control soil erosion and lake sedimentation and to conserve the wetland ecosystem. Most farmers have not yet implemented soil conservation measures to reduce soil erosion impacts such as land degradation, sedimentation and water pollution in Inle Lake, which is partly due to the low economic development and poverty in the region. Key challenges of agriculture in the hilly landscapes can be summarized as follows: fostering the sustainable land use of farming systems for the maintenance of ecosystem services and functions while improving the social and economic well-being of the population, integrated natural resources management policies and increasing the diversification of income opportunities to reduce pressure on forest and natural resources.
Resumo:
Unidad didáctica de Inglés elaborada a partir de un tema transversal: el racismo. Este tema crea un clima positivo de respeto y colaboración que facilita el trabajo en equipo. Se resalta el papel que la lengua extranjera tiene como instrumento de comunicación y de cooperación entre los distintos paises y pueblos. La unidad cubre las cuatro detrezas comunicativas: listening, speaking, reading y writing para los niveles superiores de la Enseñanza Secundaria, a través de materiales audiovisuales reales, no creados por el profesorado para la ocasión (publicación audiovisual Speak-up, revista TIME, etc.).
Resumo:
Signalling off-chip requires significant current. As a result, a chip's power-supply current changes drastically during certain output-bus transitions. These current fluctuations cause a voltage drop between the chip and circuit board due to the parasitic inductance of the power-supply package leads. Digital designers often go to great lengths to reduce this "transmitted" noise. Cray, for instance, carefully balances output signals using a technique called differential signalling to guarantee a chip has constant output current. Transmitted-noise reduction costs Cray a factor of two in output pins and wires. Coding achieves similar results at smaller costs.
Resumo:
This paper presents an image-based rendering system using algebraic relations between different views of an object. The system uses pictures of an object taken from known positions. Given three such images it can generate "virtual'' ones as the object would look from any position near the ones that the two input images were taken from. The extrapolation from the example images can be up to about 60 degrees of rotation. The system is based on the trilinear constraints that bind any three view so fan object. As a side result, we propose two new methods for camera calibration. We developed and used one of them. We implemented the system and tested it on real images of objects and faces. We also show experimentally that even when only two images taken from unknown positions are given, the system can be used to render the object from other view points as long as we have a good estimate of the internal parameters of the camera used and we are able to find good correspondence between the example images. In addition, we present the relation between these algebraic constraints and a factorization method for shape and motion estimation. As a result we propose a method for motion estimation in the special case of orthographic projection.
Resumo:
The main instrument used in psychological measurement is the self-report questionnaire. One of its major drawbacks however is its susceptibility to response biases. A known strategy to control these biases has been the use of so-called ipsative items. Ipsative items are items that require the respondent to make between-scale comparisons within each item. The selected option determines to which scale the weight of the answer is attributed. Consequently in questionnaires only consisting of ipsative items every respondent is allotted an equal amount, i.e. the total score, that each can distribute differently over the scales. Therefore this type of response format yields data that can be considered compositional from its inception. Methodological oriented psychologists have heavily criticized this type of item format, since the resulting data is also marked by the associated unfavourable statistical properties. Nevertheless, clinicians have kept using these questionnaires to their satisfaction. This investigation therefore aims to evaluate both positions and addresses the similarities and differences between the two data collection methods. The ultimate objective is to formulate a guideline when to use which type of item format. The comparison is based on data obtained with both an ipsative and normative version of three psychological questionnaires, which were administered to 502 first-year students in psychology according to a balanced within-subjects design. Previous research only compared the direct ipsative scale scores with the derived ipsative scale scores. The use of compositional data analysis techniques also enables one to compare derived normative score ratios with direct normative score ratios. The addition of the second comparison not only offers the advantage of a better-balanced research strategy. In principle it also allows for parametric testing in the evaluation