348 resultados para A. digitale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Simulation hat sich in der Vergangenheit als unterstützendes Planungsinstrument und Prognosemethode zur Untersuchung von Materialflusssystemen in verschiedenen Branchen etabliert. Dafür werden neben Simulationswerkzeugen auch zunehmend Virtual Reality (VR), insbesondere mit dem Ansatz Digitale Fabrik, eingesetzt. Ein Materialflusssimulator, der für den VR–Einsatz geeignet ist,existiert noch nicht, so dass Anwender gegenwärtig mit verschiedenen Systemen arbeiten müssen, um Untersuchungen eines Simulationsmodells in einem VR–Umfeld wie beispielsweise in einem CAVE zu ermöglichen. Zeitlicher Aufwand ist dadurch vorprogrammiert und das Auftreten von Fehlern bei der Konvertierung des Simulationsmodells möglich. Da auch der hauseigene Materialflusssimulator SIMFLEX/3D nicht für beide Anwendungsgebiete genutzt werden kann und für einen solchen Einsatz mit sehr hohem Aufwand angepasst werden müsste, wurde stattdessen ein neues Simulationssystem entworfen. Das Simulationssystem wird in der vorliegenden Arbeit als ein interoperables und offenes System beschrieben, das über eine flexible Softwarearchitektur verfügt und in einem vernetzten Umfeld mit anderen Werkzeugen Daten austauschen kann. Die grundlegende Idee besteht darin, eine flexible Softwarearchitektur zu entwerfen, die zunächst interaktive und ereignisorientierte 3D–Simulation erlaubt, aber zusätzlich für andere Anwendungszwecke offen gehalten wird. Durch den offenen Ansatz können Erweiterungen, die in Form von Plugins entwickelt werden, mit geringem Aufwand in das System integriert werden, wodurch eine hohe Flexibilität des Systems erreicht wird. Für interoperable Zwecke werden Softwaremodule vorgestellt, die optional eingesetzt werden können und standardisierte Formate wie bspw. XML benutzen. Mit dem neuen Simulationssystem wird die Lücke zwischen Desktop– und VR–Einsatz geschlossen und aus diesem Grund der Zeitaufwand und Fehlerquellen reduziert. Darüber hinaus ermöglicht der offene Ansatz, das Simulationssystem rollen- und aufgabenspezifisch anzupassen, indem die erforderlichen Plugins bereitgestellt werden. Aus diesem Grund kann das Simulationssystem mit sehr geringem Aufwand um weitere Untersuchungsschwerpunkte wie beispielsweise Avatare ergänzt werden. Erste Untersuchungen in einem CAVE wurden erfolgreich durchgeführt. Für die Digitale Fabrik kann der Prototyp eingesetzt werden, um die Produktionsplanung mit Hilfe der Simulation und die Entwicklung mit Hilfe der entwickelten Viewer zu unterstützen. Letzteres ist möglich, da die Viewer zahlreiche CAD–Formate lesen und um weitere Formate ergänzt werden können. Das entwickelte System ist für den Einsatz in verschiedenen Prozessen einer Wertschöpfungskette geeignet,um es als Untersuchungs-, Kommunikations- und Steuerungswerkzeug einzusetzen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary: Productivity and forage quality of legume-grass swards are important factors for successful arable farming in both organic and conventional farming systems. For these objectives the botanical composition of the swards is of particular importance, especially, the content of legumes due to their ability to fix airborne nitrogen. As it can vary considerably within a field, a non-destructive detection method while doing other tasks would facilitate a more targeted sward management and could predict the nitrogen supply of the soil for the subsequent crop. This study was undertaken to explore the potential of digital image analysis (DIA) for a non destructive prediction of legume dry matter (DM) contribution of legume-grass mixtures. For this purpose an experiment was conducted in a greenhouse, comprising a sample size of 64 experimental swards such as pure swards of red clover (Trifolium pratense L.), white clover (Trifolium repens L.) and lucerne (Medicago sativa L.) as well as binary mixtures of each legume with perennial ryegrass (Lolium perenne L.). Growth stages ranged from tillering to heading and the proportion of legumes from 0 to 80 %. Based on digital sward images three steps were considered in order to estimate the legume contribution (% of DM): i) The development of a digital image analysis (DIA) procedure in order to estimate legume coverage (% of area). ii) The description of the relationship between legume coverage (% area) and legume contribution (% of DM) derived from digital analysis of legume coverage related to the green area in a digital image. iii) The estimation of the legume DM contribution with the findings of i) and ii). i) In order to evaluate the most suitable approach for the estimation of legume coverage by means of DIA different tools were tested. Morphological operators such as erode and dilate support the differentiation of objects of different shape by shrinking and dilating objects (Soille, 1999). When applied to digital images of legume-grass mixtures thin grass leaves were removed whereas rounder clover leaves were left. After this process legume leaves were identified by threshold segmentation. The segmentation of greyscale images turned out to be not applicable since the segmentation between legumes and bare soil failed. The advanced procedure comprising morphological operators and HSL colour information could determine bare soil areas in young and open swards very accurately. Also legume specific HSL thresholds allowed for precise estimations of legume coverage across a wide range from 11.8 - 72.4 %. Based on this legume specific DIA procedure estimated legume coverage showed good correlations with the measured values across the whole range of sward ages (R2 0.96, SE 4.7 %). A wide range of form parameters (i.e. size, breadth, rectangularity, and circularity of areas) was tested across all sward types, but none did improve prediction accuracy of legume coverage significantly. ii) Using measured reference data of legume coverage and contribution, in a first approach a common relationship based on all three legumes and sward ages of 35, 49 and 63 days was found with R2 0.90. This relationship was improved by a legume-specific approach of only 49- and 63-d old swards (R2 0.94, 0.96 and 0.97 for red clover, white clover, and lucerne, respectively) since differing structural attributes of the legume species influence the relationship between these two parameters. In a second approach biomass was included in the model in order to allow for different structures of swards of different ages. Hence, a model was developed, providing a close look on the relationship between legume coverage in binary legume-ryegrass communities and the legume contribution: At the same level of legume coverage, legume contribution decreased with increased total biomass. This phenomenon may be caused by more non-leguminous biomass covered by legume leaves at high levels of total biomass. Additionally, values of legume contribution and coverage were transformed to the logit-scale in order to avoid problems with heteroscedasticity and negative predictions. The resulting relationships between the measured legume contribution and the calculated legume contribution indicated a high model accuracy for all legume species (R2 0.93, 0.97, 0.98 with SE 4.81, 3.22, 3.07 % of DM for red clover, white clover, and lucerne swards, respectively). The validation of the model by using digital images collected over field grown swards with biomass ranges considering the scope of the model shows, that the model is able to predict legume contribution for most common legume-grass swards (Frame, 1992; Ledgard and Steele, 1992; Loges, 1998). iii) An advanced procedure for the determination of legume DM contribution by DIA is suggested, which comprises the inclusion of morphological operators and HSL colour information in the analysis of images and which applies an advanced function to predict legume DM contribution from legume coverage by considering total sward biomass. Low residuals between measured and calculated values of legume dry matter contribution were found for the separate legume species (R2 0.90, 0.94, 0.93 with SE 5.89, 4.31, 5.52 % of DM for red clover, white clover, and lucerne swards, respectively). The introduced DIA procedure provides a rapid and precise estimation of legume DM contribution for different legume species across a wide range of sward ages. Further research is needed in order to adapt the procedure to field scale, dealing with differing light effects and potentially higher swards. The integration of total biomass into the model for determining legume contribution does not necessarily reduce its applicability in practice as a combined estimation of total biomass and legume coverage by field spectroscopy (Biewer et al. 2009) and DIA, respectively, may allow for an accurate prediction of the legume contribution in legume-grass mixtures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vorgestellt wird eine weltweit neue Methode, Schnittstellen zwischen Menschen und Maschinen für individuelle Bediener anzupassen. Durch Anwenden von Abstraktionen evolutionärer Mechanismen wie Selektion, Rekombination und Mutation in der EOGUI-Methodik (Evolutionary Optimization of Graphical User Interfaces) kann eine rechnergestützte Umsetzung der Methode für Graphische Bedienoberflächen, insbesondere für industrielle Prozesse, bereitgestellt werden. In die Evolutionäre Optimierung fließen sowohl die objektiven, d.h. messbaren Größen wie Auswahlhäufigkeiten und -zeiten, mit ein, als auch das anhand von Online-Fragebögen erfasste subjektive Empfinden der Bediener. Auf diese Weise wird die Visualisierung von Systemen den Bedürfnissen und Präferenzen einzelner Bedienern angepasst. Im Rahmen dieser Arbeit kann der Bediener aus vier Bedienoberflächen unterschiedlicher Abstraktionsgrade für den Beispielprozess MIPS ( MIschungsProzess-Simulation) die Objekte auswählen, die ihn bei der Prozessführung am besten unterstützen. Über den EOGUI-Algorithmus werden diese Objekte ausgewählt, ggf. verändert und in einer neuen, dem Bediener angepassten graphischen Bedienoberfläche zusammengefasst. Unter Verwendung des MIPS-Prozesses wurden Experimente mit der EOGUI-Methodik durchgeführt, um die Anwendbarkeit, Akzeptanz und Wirksamkeit der Methode für die Führung industrieller Prozesse zu überprüfen. Anhand der Untersuchungen kann zu großen Teilen gezeigt werden, dass die entwickelte Methodik zur Evolutionären Optimierung von Mensch-Maschine-Schnittstellen industrielle Prozessvisualisierungen tatsächlich an den einzelnen Bediener anpat und die Prozessführung verbessert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Zuge der Verbesserung der Lehre an deutschen Hochschulen und Universitäten sind in den letzten Jahren bereits vielfältige Innovationen hinsichtlich der Gestaltung von Vorlesungen und Seminaren in den unterschiedlichen Fachdisziplinen deutlich geworden. Bei größeren Vorlesungen besteht das Problem eine kognitive Mitarbeit von allen Studierenden zu fördern, vor allem in Mathematikvorlesungen. In den letzten Jahren konnten bereits vielversprechende Gestaltungsmöglichkeiten im Bereich der Fachmathematikvorlesungen eingesetzt werden, die ganz im Trend der digitalen Medien liegen. Diese sind aus dem Alltag vieler Berufsgruppen, wie auch der Lehre und in der Freizeit nicht mehr wegzudenken. Im Folgenden wird eine Pilotstudie mit ersten Ergebnissen beschrieben. Das Projekt M@thWithApps startete im WS 2012/2013 in der Fachvorlesung „Mathematische Anwendungen“ mit 120 Studierenden des Grundschullehramts an der Universität Kassel. Die Studierenden wurden mit Tablet-PCs ausgestattet, die über den gesamten Vorlesungs- und Übungszeitraum eingesetzt wurden. Somit stellt sich die Frage nach den Chancen und Risiken dieser besonderen Form des Lernens, verbunden mit einem Tablet-PC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work investigation of the QDs formation and the fabrication of QD based semiconductor lasers for telecom applications are presented. InAs QDs grown on AlGaInAs lattice matched to InP substrates are used to fabricate lasers operating at 1.55 µm, which is the central wavelength for far distance data transmission. This wavelength is used due to its minimum attenuation in standard glass fibers. The incorporation of QDs in this material system is more complicated in comparison to InAs QDs in the GaAs system. Due to smaller lattice mismatch the formation of circular QDs, elongated QDs and quantum wires is possible. The influence of the different growth conditions, such as the growth temperature, beam equivalent pressure, amount of deposited material on the formation of the QDs is investigated. It was already demonstrated that the formation process of QDs can be changed by the arsenic species. The formation of more round shaped QDs was observed during the growth of QDs with As2, while for As4 dash-like QDs. In this work only As2 was used for the QD growth. Different growth parameters were investigated to optimize the optical properties, like photoluminescence linewidth, and to implement those QD ensembles into laser structures as active medium. By the implementation of those QDs into laser structures a full width at half maximum (FWHM) of 30 meV was achieved. Another part of the research includes the investigation of the influence of the layer design of lasers on its lasing properties. QD lasers were demonstrated with a modal gain of more than 10 cm-1 per QD layer. Another achievement is the large signal modulation with a maximum data rate of 15 Gbit/s. The implementation of optimized QDs in the laser structure allows to increase the modal gain up to 12 cm-1 per QD layer. A reduction of the waveguide layer thickness leads to a shorter transport time of the carriers into the active region and as a result a data rate up to 22 Gbit/s was achieved, which is so far the highest digital modulation rate obtained with any 1.55 µm QD laser. The implementation of etch stop layers into the laser structure provide the possibility to fabricate feedback gratings with well defined geometries for the realization of DFB lasers. These DFB lasers were fabricated by using a combination of dry and wet etching. Single mode operation at 1.55 µm with a high side mode suppression ratio of 50 dB was achieved.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present work sought to discriminate, to map and to quantify the areas of soil use of the Stream Monte Belo watershed - Botucatu (SP), obtained by digitale images. The cartographic bases were the shart planialtimetric, edited by IBGE (1969) and the satellite images LANDSAT - 7, passages of 21/01/1999, 08/01/2003 and 23/10/2006. The Software Idrisi Andes 15.0 were used for conversion of the analogical information for digital and for determination of the vegetable coverings areas. The results allowed to verify that the SIG - IDRISI Andes 15.0 were efficient in the quantification of the areas with soil use and that the analysis of the data showed a cash progress of the areas of reforestations to the detriment of the areas of pastures, especially from 1999, 2003 to 2006, when the field areas were substituted by the forestry in his totality. In spite of that progress, the forest areas that you correspond to the Permanent Preservation Areas, They are considerably preserved. That result comes to the encounter of the tendency of expansion of the forestry, especially after the installation of cellulose industries in the area, what worsened the environmental problems originating from of the practice of the monoculture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le soluzioni tecnologiche rese oggi disponibili dalle discipline della moderna Geomatica, offrono opportunità di grande interesse per il rilevamento nel settore dei Beni Culturali, sia per quanto riguarda il momento primario del rilievo, cioè la fase di acquisizione del dato metrico, sia per quanto concerne la questione della rappresentazione per oggetti di interesse archeologico, artistico, architettonico. Lo studio oggetto della presente tesi si propone, sulla base di numerose esperienze maturate nel corso del Dottorato dal Laboratorio di Topografia e Fotogrammetria del DISTART, di affrontare e approfondire le problematiche connesse all’utilizzo della fotogrammetria digitale e del laser a scansione terrestre per applicazioni nell’ambito dei Beni Culturali. La ricerca condotta è prettamente applicata, quindi è stata primaria l’esigenza di avere a disposizione reali casi di studio su cui sperimentare le tecniche di interesse; è però importante sottolineare che questo è un campo in cui ogni esperienza presenta proprie caratteristiche e peculiarità che la rendono interessante e difficilmente descrivibile con schemi convenzionali e metodologie standardizzate, quindi le problematiche emerse hanno di volta in volta indirizzato e spinto la ricerca all’approfondimento di certi aspetti piuttosto che altri. A tal proposito è stato evidenziato dalle esperienze effettuate che il campo dei Beni Culturali è forse il più emblematico delle potenzialità rese oggi disponibili dalle moderne tecnologie della Geomatica, e soprattutto dalle possibilità offerte da un approccio integrato e multi – disciplinare di tecniche e tecnologie diverse; per questo nell’Introduzione si è voluto sottolineare questo aspetto, descrivendo l’approccio metodologico adottato in molti lavori in contesto archeologico, che include generalmente diverse tecniche integrate tra loro allo scopo di realizzare in modo veloce e rigoroso un rilievo multi – scala che parte dal territorio, passa attraverso l’area del sito archeologico e degli scavi, ed arriva fino al singolo reperto; questo approccio è caratterizzato dall’avere tutti i dati e risultati in un unico e ben definito sistema di riferimento. In questa chiave di lettura l’attenzione si è poi focalizzata sulle due tecniche che rivestono oggi nel settore in esame il maggiore interesse, cioè fotogrammetria digitale e laser a scansione terrestre. La struttura della tesi segue le fasi classiche del processo che a partire dal rilievo porta alla generazione dei prodotti di rappresentazione; i primi due capitoli, incentrati sull’acquisizione del dato metrico, riguardano quindi da un lato le caratteristiche delle immagini e dei sensori digitali, dall’altro le diverse tipologie di sistemi laser con le corrispondenti specifiche tecniche; sempre nei primi capitoli vengono descritte le caratteristiche metodologiche e tecnico – operative e le relative problematiche delle due tipologie di rilievo. Segue un capitolo sulle procedure di calibrazione delle camere digitali non professionali, imperniato sull’utilizzo di software diversi, commerciali e sviluppati in house per questo scopo, prestando attenzione anche agli strumenti che essi offrono in termini di risultati ottenibili e di controllo statistico sugli stessi. La parte finale della tesi è dedicata al problema della rappresentazione, con l’obiettivo di presentare un quadro generale delle possibilità offerte dalle moderne tecnologie: raddrizzamenti, ortofoto, ortofoto di precisione e infine modelli tridimensionali foto – realistici, generati a partire sia da dati fotogrammetrici sia da dati laser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche adalta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progettazione e realizzazione di un dispositivo elettronico con lo scopo di coordinare e sincronizzare la presa dati del beam test del LUCID (CERN, luglio 2009) e tener traccia di tali eventi. Il circuito è stato progettato in linguaggio VHDL, simulato con il programma ModelSim, sintetizzato con il programma Quartus e implementato su un FPGA Cyclone residente su scheda di tipo VME 6U della CAEN. Infine la scheda è stata testata in laboratorio (verificandone il corretto funzionamento) assieme all'intero sistema di presa dati, e confermata per il beam test del LUCID.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tema della casa, e più in generale dell’abitare, è argomento tornato al centro del dibattito sociale più di quanto non sia avvenuto in campo tecnico‐architettonico. Sono infatti abbastanza evidenti i limiti delle proposte che nel recente passato sono state, di norma, elaborate nelle nostre città, proposte molto spesso incapaci di tener conto delle molteplici dimensioni che l’evoluzione dei costumi e della struttura urbana e sociale ha indotto anche nella sfera della residenza e che sono legate a mutate condizioni lavorative, alla diversità di cultura e di religione di nuovi gruppi etnici insediati, alla struttura dei nuclei familiari (ove ancora esistano) ed a molti altri fattori; cambiate le esigenze, un tempo composte nella struttura della famiglia, sono cambiati desideri e richieste mentre l’apparato normativo è rimasto strutturato su modelli sociali ed economici superati. Il tema dunque assume, oggi più che mai, connotazioni con forti relazioni fra problematiche funzionali, tecnologiche e simboliche. Stimolata da queste osservazioni generali, la ricerca si è mossa partendo da un’analisi di casi realizzati nel periodo storico in cui si è esaurita, in Italia, l’emergenza abitativa post‐bellica, nell’intento di riconsiderare l’approccio vitale che era stato messo in campo in quella drammatica circostanza, ma già consapevole che lo sviluppo che avrebbe poi avuto sarebbe stato molto più circoscritto. La tesi infatti, dopo aver osservato rapidamente la consistenza tipologica ed architettonica di quegli interventi, per trarne suggestioni capaci di suggerire un credibile e nuovo prototipo da indagare, attraverso un’analisi comparativa sugli strumenti oggi disponibili per la comunicazione e gestione del progetto, si è soffermata sulla potenzialità delle nuove tecnologie dell'informazione (IT). Non si può infatti non osservare che esse hanno modificato non solo il modo di vivere, di lavorare, di produrre documenti e di scambiare informazioni, ma anche quello di controllare il processo di progetto. Il fenomeno è tuttora in corso ma è del tutto evidente che anche l'attività progettuale, seppure in un settore quale è quello dell'industria edilizia, caratterizzato da una notevole inerzia al cambiamento e restio all'innovazione, grazie alle nuove tecnologie ha conosciuto profonde trasformazioni (già iniziate con l’avvento del CAD) che hanno accelerato il progressivo mutamento delle procedure di rappresentazione e documentazione digitale del progetto. Su questo tema quindi si è concentrata la ricerca e la sperimentazione, valutando che l'”archivio di progetto integrato”, (ovvero IPDB ‐ Integrated Project Database) è, probabilmente, destinato a sostituire il concetto di CAD (utilizzato fino ad ora per il settore edilizio ed inteso quale strumento di elaborazione digitale, principalmente grafica ma non solo). Si è esplorata quindi, in una prima esperienza di progetto, la potenzialità e le caratteristiche del BIM (Building Information Model) per verificare se esso si dimostra realmente capace di formulare un archivio informativo, di sostegno al progetto per tutto il ciclo di vita del fabbricato, ed in grado di definirne il modello tridimensionale virtuale a partire dai suoi componenti ed a collezionare informazioni delle geometrie, delle caratteristiche fisiche dei materiali, della stima dei costi di costruzione, delle valutazioni sulle performance di materiali e componenti, delle scadenze manutentive, delle informazioni relative a contratti e procedure di appalto. La ricerca analizza la strutturazione del progetto di un edificio residenziale e presenta una costruzione teorica di modello finalizzata alla comunicazione e gestione della pianificazione, aperta a tutti i soggetti coinvolti nel processo edilizio e basata sulle potenzialità dell’approccio parametrico.