898 resultados para modelling the robot
Resumo:
Many combinatorial problems coming from the real world may not have a clear and well defined structure, typically being dirtied by side constraints, or being composed of two or more sub-problems, usually not disjoint. Such problems are not suitable to be solved with pure approaches based on a single programming paradigm, because a paradigm that can effectively face a problem characteristic may behave inefficiently when facing other characteristics. In these cases, modelling the problem using different programming techniques, trying to ”take the best” from each technique, can produce solvers that largely dominate pure approaches. We demonstrate the effectiveness of hybridization and we discuss about different hybridization techniques by analyzing two classes of problems with particular structures, exploiting Constraint Programming and Integer Linear Programming solving tools and Algorithm Portfolios and Logic Based Benders Decomposition as integration and hybridization frameworks.
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.
Resumo:
This thesis deals with Visual Servoing and its strictly connected disciplines like projective geometry, image processing, robotics and non-linear control. More specifically the work addresses the problem to control a robotic manipulator through one of the largely used Visual Servoing techniques: the Image Based Visual Servoing (IBVS). In Image Based Visual Servoing the robot is driven by on-line performing a feedback control loop that is closed directly in the 2D space of the camera sensor. The work considers the case of a monocular system with the only camera mounted on the robot end effector (eye in hand configuration). Through IBVS the system can be positioned with respect to a 3D fixed target by minimizing the differences between its initial view and its goal view, corresponding respectively to the initial and the goal system configurations: the robot Cartesian Motion is thus generated only by means of visual informations. However, the execution of a positioning control task by IBVS is not straightforward because singularity problems may occur and local minima may be reached where the reached image is very close to the target one but the 3D positioning task is far from being fulfilled: this happens in particular for large camera displacements, when the the initial and the goal target views are noticeably different. To overcame singularity and local minima drawbacks, maintaining the good properties of IBVS robustness with respect to modeling and camera calibration errors, an opportune image path planning can be exploited. This work deals with the problem of generating opportune image plane trajectories for tracked points of the servoing control scheme (a trajectory is made of a path plus a time law). The generated image plane paths must be feasible i.e. they must be compliant with rigid body motion of the camera with respect to the object so as to avoid image jacobian singularities and local minima problems. In addition, the image planned trajectories must generate camera velocity screws which are smooth and within the allowed bounds of the robot. We will show that a scaled 3D motion planning algorithm can be devised in order to generate feasible image plane trajectories. Since the paths in the image are off-line generated it is also possible to tune the planning parameters so as to maintain the target inside the camera field of view even if, in some unfortunate cases, the feature target points would leave the camera images due to 3D robot motions. To test the validity of the proposed approach some both experiments and simulations results have been reported taking also into account the influence of noise in the path planning strategy. The experiments have been realized with a 6DOF anthropomorphic manipulator with a fire-wire camera installed on its end effector: the results demonstrate the good performances and the feasibility of the proposed approach.
Resumo:
[EN]In this paper we propose a finite element method approach for modelling the air quality in a local scale over complex terrain. The area of interest is up to tens of kilometres and it includes pollutant sources. The proposed methodology involves the generation of an adaptive tetrahedral mesh, the computation of an ambient wind field, the inclusion of the plume rise effect in the wind field, and the simulation of transport and reaction of pollutants. We apply our methodology to simulate a fictitious pollution episode in La Palma island (Canary Island, Spain)...
Resumo:
Wave breaking is an important coastal process, influencing hydro-morphodynamic processes such as turbulence generation and wave energy dissipation, run-up on the beach and overtopping of coastal defence structures. During breaking, waves are complex mixtures of air and water (“white water”) whose properties affect velocity and pressure fields in the vicinity of the free surface and, depending on the breaker characteristics, different mechanisms for air entrainment are usually observed. Several laboratory experiments have been performed to investigate the role of air bubbles in the wave breaking process (Chanson & Cummings, 1994, among others) and in wave loading on vertical wall (Oumeraci et al., 2001; Peregrine et al., 2006, among others), showing that the air phase is not negligible since the turbulent energy dissipation involves air-water mixture. The recent advancement of numerical models has given valuable insights in the knowledge of wave transformation and interaction with coastal structures. Among these models, some solve the RANS equations coupled with a free-surface tracking algorithm and describe velocity, pressure, turbulence and vorticity fields (Lara et al. 2006 a-b, Clementi et al., 2007). The single-phase numerical model, in which the constitutive equations are solved only for the liquid phase, neglects effects induced by air movement and trapped air bubbles in water. Numerical approximations at the free surface may induce errors in predicting breaking point and wave height and moreover, entrapped air bubbles and water splash in air are not properly represented. The aim of the present thesis is to develop a new two-phase model called COBRAS2 (stands for Cornell Breaking waves And Structures 2 phases), that is the enhancement of the single-phase code COBRAS0, originally developed at Cornell University (Lin & Liu, 1998). In the first part of the work, both fluids are considered as incompressible, while the second part will treat air compressibility modelling. The mathematical formulation and the numerical resolution of the governing equations of COBRAS2 are derived and some model-experiment comparisons are shown. In particular, validation tests are performed in order to prove model stability and accuracy. The simulation of the rising of a large air bubble in an otherwise quiescent water pool reveals the model capability to reproduce the process physics in a realistic way. Analytical solutions for stationary and internal waves are compared with corresponding numerical results, in order to test processes involving wide range of density difference. Waves induced by dam-break in different scenarios (on dry and wet beds, as well as on a ramp) are studied, focusing on the role of air as the medium in which the water wave propagates and on the numerical representation of bubble dynamics. Simulations of solitary and regular waves, characterized by both spilling and plunging breakers, are analyzed with comparisons with experimental data and other numerical model in order to investigate air influence on wave breaking mechanisms and underline model capability and accuracy. Finally, modelling of air compressibility is included in the new developed model and is validated, revealing an accurate reproduction of processes. Some preliminary tests on wave impact on vertical walls are performed: since air flow modelling allows to have a more realistic reproduction of breaking wave propagation, the dependence of wave breaker shapes and aeration characteristics on impact pressure values is studied and, on the basis of a qualitative comparison with experimental observations, the numerical simulations achieve good results.
Resumo:
Zusammenfassung:Die Quartärstruktur des respiratorischen Proteins Hämocyanin (Isoform HtH1) aus der marinen Schnecke Haliotis tuberculata wurde vermittels Kryoelektronen-mikroskopie und 3D-Rekonstruktion untersucht. Das Molekül ist zylinderförmig, hat einen Durchmesser von ca. 35 nm und besteht aus einer Zylinderwand und einem internen Kragenkomplex. Dieser wiederum besteht aus einem Collar und einem Arc.Die kryoelektronenmikroskopischen Aufnahmen von in glasartigem Eis fixierten HtH1-Molekülen brachte eine enorme Verbesserung der Anzahl der zur Verfügung stehenden Ansichtswinkel gegenüber den negativkontrastierten Molekülen, die auf Karbonfilm präpariert waren.Die 3D-Rekonstruktion des HtH1 mittels Aufnahmen bei drei verschiedenen Defo-kuswerten verbesserte die Auflösung noch einmal deutlich gegenüber den Rekon-struktionen, die aus Aufnahmen bei einem festen Defokuswert gemacht wurden, und zwar auf 12 Å. Das Molekül besitzt eine D5-Symmetrie.Aus dieser bisher genausten Rekonstruktion eines Molluskenhämocyanins aus EM-Bildern ließen sich folgende neue Strukturdetails ableiten:· Ein Untereinheitendimer konnte als Repeating Unit im Dekamer des HtH1 beschrieben werden.· Das Untereinheitendimer konnte aus der 3D-Dichtekarte isoliert werden. Es be-steht eindeutig aus 16 Massen, die funktionellen Domänen entsprechen. Zwei dieser Massen bilden den Collar, zwei den Arc und 12 das Wandsegment.· Die gegenläufige Anordnung der beiden Untereinheiten innerhalb dieses Unte-reinheitendimers konnten bestätigt und auf zwei Möglichkeiten eingeschränkt werden.· Die Zahl der alternativen Anordnungen der 16 funktionellen Domänen (HtH1-a bis HtH1-h) im Untereinheitendimer konnten von 80 auf 2 eingeengt werden.· Es konnte über molekulares Modellieren mithilfe einer publizierten Kristallstruk-tur eine 3D-Struktur fastatomarer Auflösung der funktionellen Domäne HtH1-g berechnet werden.· Die funktionelle Domäne HtH1-g konnte als Domänenpaar plausibel in die 3D?Dichtekarte des Untereinheitendimers eingepasst werden, und zwar in die beiden Massen des Arc.Aus der elektronenmikroskopisch gewonnenen Dichtekarte wurde mit Hilfe des
Resumo:
Die vorliegende Arbeit beschäftigt sich mit dem Phasenverhalten von Polyethylen (PE) in nicht-reaktiven und in reaktiven Systemen. Von drei eng verteilten Polyethylenen (Mw = 6,4, 82 bzw. 380 kg/mol) in n-Hexan sowie für das System 2,2-Dimethylbutan / PE 82 wurde die Entmischung in Abhängigkeit von der Zusammensetzung, dem Druck und der Temperatur experimentell bestimmt. Die Modellierung der Trübungskurven erfolgte nach der Theorie von Sanchez und Lacombe. Dieser Ansatz beschreibt die Ergebnisse qualitativ und kann in einem engen Temperatur- und Druckbereich für gegebenes Molekulargewicht die kritische Temperatur und den kritischen Druck quantitativ vorhersagen. Durch Extrapolation der kritischen Temperatur der verschiedenen Lösungen von PE in n-Hexan auf unendliches Molekulargewicht nach Shultz-Flory wurde im Druckbereich von 20 bis 100 bar und im Temperaturbereich von 130 bis 200 °C eine Grenzlinie bestimmt. Diese Linie trennt unabhängig vom Molekulargewicht des Polymers und der Zusammensetzung der Mischung das Zweiphasengebiet vom homogenen Bereich. Im Fall des Mischlösungsmittels n-Hexan / 2,2-Dimethylbutan wurde für eine annähernd kritische Polymerkonzentration die Abhängigkeit der Entmischungsbedingungen von der Zusammensetzung untersucht. Durch einfache Erweiterung der Sanchez-Lacombe-Theorie und Einführen eines Fitparameters konnte das ternäre System beschrieben werden. An einer breit verteilten PE-Probe wurden Experimente zur Fraktionierung von PE in n-Hexan durchgeführt. Die Analyse der in den koexistenten Phasen enthaltenen Polymere lieferte Informationen über die Konzentration und die Molekulargewichtsverteilung des PE in diesen Phasen sowie die kritische Zusammensetzung der Mischung. Von verschiedenen PE-Lösungen (Mw = 0,5 kg/mol) wurde die polymerisationsinduzierte Phasenseparation in Isobornylmethacrylat mit und ohne Vernetzer untersucht. Mit 15 Gew.-% PE und in Abwesenheit von Vernetzer findet die Entmischung erst bei hohen Umsätzen statt. Die Charakterisierung der resultierenden Proben zeigte, dass sich etwas mehr als 5 Gew.-% PE im Polyisobornylmethacrylat lösen. Die Glasübergangstemperaturen der Polymermischungen steigen mit steigender Vernetzer- und sinkender Polyethylenkonzentration. Bei Proben mit 15 Gew.-% PE zeigte sich folgendes: 5 Gew.-% Vernetzer führen zu großen PE-Bereichen (150 - 200 nm) in der Matrix und der Kristallinitätsgrad ist gering. Bei der Polymermischung mit 10 Gew.-% Vernetzer bilden sich sehr kleine Polyethylenkristalle (< 80 nm) und der Kristallinitätsgrad ist hoch. Ohne Vernetzer hängt der Kristallinitätsgrad - wie bei reinem PE - von der Abkühlrate ab, mit Vernetzer ist er von ihr unabhängig.
Resumo:
Il lavoro presentato ha come oggetto la ricostruzione tridimensionale della città di Bologna nella sua fase rinascimentale. Tale lavoro vuole fornire un modello 3D delle architetture e degli spazi urbani utilizzabile sia per scopi di ricerca nell’ambito della storia delle città sia per un uso didattico-divulgativo nel settore del turismo culturale. La base del lavoro è una fonte iconografica di grande importanza: l’affresco raffigurante Bologna risalente al 1575 e situato in Vaticano; questa è una veduta a volo d’uccello di grandi dimensioni dell’intero tessuto urbano bolognese all’interno della terza cerchia di mura. In esso sono rappresentate in maniera particolareggiata le architetture civili e ecclesiastiche, gli spazi ortivi e cortilivi interni agli isolati e alcune importanti strutture urbane presenti in città alla fine del Cinquecento, come l’area portuale e i canali interni alla città, oggi non più visibili. La ricostruzione tridimensionale è stata realizzata tramite Blender, software per la modellazione 3D opensource, attraverso le fasi di modellazione, texturing e creazione materiali (mediante campionamento delle principali cromie presenti nell’affresco), illuminazione e animazione. Una parte della modellazione è stata poi testata all’interno di un GIS per verificare l’utilizzo delle geometrie 3D come elementi collegabili ad altre fonti storiche relative allo sviluppo urbano e quindi sfruttabili per la ricerca storica. Grande attenzione infine è stata data all’uso dei modelli virtuali a scopo didattico-divulgativo e per il turismo culturale. La modellazione è stata utilizzata all’interno di un motore grafico 3D per costruire un ambiente virtuale interattivo nel quale un utente anche non esperto possa muoversi per esplorare gli spazi urbani della Bologna del Cinquecento. In ultimo è stato impostato lo sviluppo di un’applicazione per sistemi mobile (Iphone e Ipad) al fine di fornire uno strumento per la conoscenza della città storica in mobilità, attraverso la comparazione dello stato attuale con quello ricostruito virtualmente.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
The goal of the present research is to define a Semantic Web framework for precedent modelling, by using knowledge extracted from text, metadata, and rules, while maintaining a strong text-to-knowledge morphism between legal text and legal concepts, in order to fill the gap between legal document and its semantics. The framework is composed of four different models that make use of standard languages from the Semantic Web stack of technologies: a document metadata structure, modelling the main parts of a judgement, and creating a bridge between a text and its semantic annotations of legal concepts; a legal core ontology, modelling abstract legal concepts and institutions contained in a rule of law; a legal domain ontology, modelling the main legal concepts in a specific domain concerned by case-law; an argumentation system, modelling the structure of argumentation. The input to the framework includes metadata associated with judicial concepts, and an ontology library representing the structure of case-law. The research relies on the previous efforts of the community in the field of legal knowledge representation and rule interchange for applications in the legal domain, in order to apply the theory to a set of real legal documents, stressing the OWL axioms definitions as much as possible in order to enable them to provide a semantically powerful representation of the legal document and a solid ground for an argumentation system using a defeasible subset of predicate logics. It appears that some new features of OWL2 unlock useful reasoning features for legal knowledge, especially if combined with defeasible rules and argumentation schemes. The main task is thus to formalize legal concepts and argumentation patterns contained in a judgement, with the following requirement: to check, validate and reuse the discourse of a judge - and the argumentation he produces - as expressed by the judicial text.
Resumo:
In dieser Arbeit wird eine Methode entwickelt, die Rossbywellenzüge automatisch identifiziert und und deren Eigenschaften quantifiziert. Mit dieser Methode wird der Wellenzug als eine Einheit in Raum und Zeit interpretiert. Einheit im Raum heißt, dass nicht die einzelnen Tröge und Rücken eines Wellenzugs betrachtet werden, sondern deren Einhüllende. Einheit in der Zeit bedeutet, dass der Wellenzug nicht nur zu einem Zeitpunkt betrachtet wird, sondern über seine gesamte Lebensdauer hinweg. Um den Wellenzug als räumliche und zeitliche Einheit zu erhalten, werden die Einhüllenden der Wellenzüge in Längengrad-Zeit Diagrammen, sogenannten Hovmöllerdiagrammen, betrachtet. Dort werden zusammenhängende Regionen als Objekte, die jeweils einen Wellenzug repräsentieren, identifiziert. Deren Eigenschaften werden dann automatisch berechnet. Diese Eigenschaften können nun direkt dem zugrunde liegenden Rossbywellenzug zugeordnet werden.rnDie neue Methode wird in zwei verschiedenen Szenarien angewendet: erstens zur Beurteilung der Vorhersagequalität eines einzelnen Rossbywellenzugs und zweitens für die klimatologische Betrachtung von Rossbywellenzügen im ERA-40 Reanalysedatensatz. Sie wurde weiterhin mit bisher verwendeten Methoden zur Identifikation und Quantifizierung von Rossbywellenzügen verglichen.rnDie Untersuchung der Vorhersagequalität ergab, dass in dem betrachteten Fall die Übereinstimmung der Vorhersage mit der Analyse des Wellenzugs gering war, sofern das Modell initialisiert wurde, bevor der Rossbywellenzug eingesetzt hatte. Im Gegensatz dazu nahm die Vorhersagequalität deutlich zu, wenn der Wellenzug bereits in den Vorhersagedaten enthalten war. Dies deutet darauf hin, dass es in dem vorliegenden Fall problematisch ist, mit dem Modell den Auslösemechanismus korrekt voherzusagen. Für die weitere Untersuchung der Vorhersagequalität wurde eine spezielle Art der Darstellung der Daten verwendet, mit deren Hilfe deutlich wurde, dass das verwendete Modell in der Lage ist, diesen Wellenzug ungefähr sechs Tage im Voraus vorherzusagen. Diese Zeitspanne ist deutlich kürzer als die Lebensdauer des Wellenzugs, die etwa 10 Tage beträgt.rnIm Rahmen der klimatologischen Studie ergab sich eine positive Korrelation zwischen der Lebensdauer eines Rossbywellenzugs und des Bereichs den dieser Wellenzug während seiner gesamten Existenz in zonaler Richtung überstreicht. Für Wellenzüge mit einer kurzen Lebensdauer ergab sich eine ebenfalls positive Korrelation zwischen der mittleren Amplitude und der Dauer des Wellenzugs. Für eine längere Lebensdauer geht diese Korrelation aber in eine Sättigung über und die mittlere Amplitude steigt nicht mehr weiter an. Als eine mögliche Erklärung für dieses Verhalten wird angeführt, dass eine gewisse Stärke der Amplitude benötigt wird um stromabwärtige Entwicklung zu erhalten aber zu große Amplituden im Allgemeinen zum Brechen der Welle führen. Das Brechen leitet den letzten Abschnitt im Lebenszyklus eines Rossbywellenzuges ein, welcher im Anschluss meist zerfällt. Ein weiteres Ergebnis der klimatologischen Untersuchung ist das Auffinden bevorzugter Regionen der Entstehung und des Abklingens von Rossbywellenzügen. Diese Regionen unterscheiden sich erheblich für Rossbywellenzüge unterschiedlicher minimaler Lebensdauer. Langlebige Rossbywellenzüge entstehen demnach hauptsächlich über Ostasien und dem Westpazifik und vergehen dann über Europa.rnSchließlich wurde die entwickelte Methode in einen systematischen Vergleich anderer Methoden zur Identifikation und Quantifizierung von Rossbywellenzügen eingereiht. Die betrachteten Methoden beinhalten verschiedene Trog-und-Rücken Hovmöllerdiagramme des Meridionalwindes, Methoden die Rossbywellenzüge als eine Einheit identifizieren und Methoden die den Beitrag verschiedener physikalischer Aspekte zu der Entwicklung von Rossbywellenenzügen quantifizieren. Der Vergleich macht deutlich, dass jede Methode ihre individuellen Stärken und Schwächen hat. Dies bedeutet insbesondere, dass die Eignung der Methode von dem Stadium des Lebenszyklus, in dem sich der Rossbywellenzug befindet und dem Fokus, den man bei der Betrachtung hat, abhängt. Ideal ist eine Kombination mehrerer Methoden, da dies ein vollständigeres Bild eines Rossbywellenzuges ergibt als einzelne Methoden es zu liefern vermögen. Obwohl alle Methoden für die Anwendungen, für die sie jeweils konzipiert wurden, geeignet sind, ergeben sich bei der Diagnose der Rossbywellenzüge beträchtliche Unterschiede. Letztendlich stellt sich heraus, dass sogar die Defintion eines Rossbywellenzugs bis zu einem gewissen Grad von der zu seiner Identifizierung verwendeten Methode abhängt.
Resumo:
The application of scientific-based conservation measures requires that sampling methodologies in studies modelling similar ecological aspects produce comparable results making easier their interpretation. We aimed to show how the choice of different methodological and ecological approaches can affect conclusions in nest-site selection studies along different Palearctic meta-populations of an indicator species. First, a multivariate analysis of the variables affecting nest-site selection in a breeding colony of cinereous vulture (Aegypius monachus) in central Spain was performed. Then, a meta-analysis was applied to establish how methodological and habitat-type factors determine differences and similarities in the results obtained by previous studies that have modelled the forest breeding habitat of the species. Our results revealed patterns in nesting-habitat modelling by the cinereous vulture throughout its whole range: steep and south-facing slopes, great cover of large trees and distance to human activities were generally selected. The ratio and situation of the studied plots (nests/random), the use of plots vs. polygons as sampling units and the number of years of data set determined the variability explained by the model. Moreover, a greater size of the breeding colony implied that ecological and geomorphological variables at landscape level were more influential. Additionally, human activities affected in greater proportion to colonies situated in Mediterranean forests. For the first time, a meta-analysis regarding the factors determining nest-site selection heterogeneity for a single species at broad scale was achieved. It is essential to homogenize and coordinate experimental design in modelling the selection of species' ecological requirements in order to avoid that differences in results among studies would be due to methodological heterogeneity. This would optimize best conservation and management practices for habitats and species in a global context.
Resumo:
Kurzbeschreibung: In der Automatisierung von intralogistischen Kommissioniervorgängen ist ein großes Zukunftspotential erkennbar. Elementarer Bestandteil des Automatisierungsprozesses ist der Einsatz von Industrierobotern, die mit einem geeigneten Endeffektor, dem Greifer, ausgestattet werden müssen. Die Robotik ist in der Lage schneller, präziser und ausdauernder als die menschlichen Kommissionierer zu arbeiten und trägt damit entscheidend zur Effizienzsteigerung bei. Eine wesentliche Herausforderung für diesen Entwicklungsschritt zur Substitution der manuellen Kommissionierung ist die Konstruktion und Bereitstellung eines geeigneten Greifsystems. Am Lehrstuhl für Maschinenelemente und Technische Logistik der Helmut-Schmidt-Universität wurde mit der Erfahrung aus einem vorangegangenen Forschungsprojekt die Methode der Clusteranalyse erstmalig zur Untersuchung von Greifobjekten zur Entwicklung eines bionischen Universalgreifers für die Kommissionierung von Drogerieartikeln verwendet. Diese Abhandlung beschreibt einen Beitrag zur Entwicklung dieses Greifers am Beispiel handelsüblicher Drogerieartikel, die aktuell manuell kommissioniert werden. Diese werden hinsichtlich der für das Greifen relevanten Objektmerkmale geclustert und die daraus resultierenden Erkenntnisse in Form von Konstruktionsmerkmalen abgeleitet. Nach einer Analyse und Festlegung der greifrelevanten Merkmale der Greifobjekte wird eine Objektdatenbasis erstellt. Mit Hilfe geeigneter Methoden wird die gewonnene Datenbasis aufbereitet und reduziert. Im Anschluss werden die Greifobjekte bzw. deren Merkmalsausprägungen einer hierarchischen Clusteranalyse unterzogen. Hierbei werden die Grenzen der gebildeten Cluster mittels der zugehörigen Greifobjekte festgelegt und analysiert. Abschließend werden bestimmte greiferspezifische Merkmale auf die Anwendbarkeit in den Clustern überprüft und bewertet. Diese Betrachtungen ermöglichen es, dass spezielle Anforderungen an den Greifer, die direkt aus den Eigenschaften der Greifobjekte herrühren, zuverlässig erkannt und konstruktiv berücksichtigt werden können.
Resumo:
Many rehabilitation robots use electric motors with gears. The backdrivability of geared drives is poor due to friction. While it is common practice to use velocity measurements to compensate for kinetic friction, breakaway friction usually cannot be compensated for without the use of an additional force sensor that directly measures the interaction force between the human and the robot. Therefore, in robots without force sensors, subjects must overcome a large breakaway torque to initiate user-driven movements, which are important for motor learning. In this technical note, a new methodology to compensate for both kinetic and breakaway friction is presented. The basic strategy is to take advantage of the fact that, for rehabilitation exercises, the direction of the desired motion is often known. By applying the new method to three implementation examples, including drives with gear reduction ratios 100-435, the peak breakaway torque could be reduced by 60-80%.
Resumo:
A wirelessly controlled magnetic microrobot has been proposed to diagnose and treat pathologies in the posterior segment of the human eye. The robot consists of a magnetic CoNi platform with a conformal coating of functional polymers. Electrodeposition has been the preferred method to fabricate and to functionalize the microrobot. Poly(pyrrole), a widely studied intrinsically conductive polymer has been investigated as a biocompatible coating to reduce biofouling, and as a coating that can release incorporated drugs on demand. The mechanism of redox cycling has been investigated to reduce the stiction of NIH 3T3 fibroblasts onto poly(pyrrole) surfaces. To demonstrate triggered drug release, Rhodamine B has been incorporated into the Ppy matrix as a model drug. Rapid Rhodamine B release is obtained when eddy current losses are induced by alternating magnetic fields on the CoNi substrates underneath these films.