993 resultados para STATA


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi di dottorato ha ad oggetto il principio di consensualità nell’agere amministrativo, inteso quale principio generale dell’ordinamento, che regola un’azione della Pubblica amministrazione di necessità funzionalizzata al perseguimento dell’interesse pubblico. E’ pertanto sull’oscillazione problematica tra un rapporto duale e dicotomico, che ricorre tra la dimensione bilaterale dell’uso di moduli negoziali pubblico-privati aventi ad oggetto l’esercizio del potere pubblico, e la prospettiva generale e collettiva che sottintende la cura dell’interesse pubblico, che si riflette nell’elaborato. Materia di studio prescelta è, poi, il governo del territorio, settore dell’ordinamento ove più diffusamente si concludono accordi amministrativi tra Pubblica amministrazione e privati. In particolare, l’analisi è rivolta allo studio delle tanto nuove quanto problematiche fattispecie denominate accordi “a monte” delle prescrizioni urbanistiche, che rappresentano l’espressione più alta, al momento, del principio di consensualità. I problemi di ammissibilità giuridica posti da una parte della dottrina hanno richiesto una ricerca di un possibile fondamento positivo espresso per gli accordi “a monte”, anche al fine di mettere al riparo le leggi regionali che li disciplinano, da eventuali dubbi di legittimità costituzionale. Tale ricerca è stata condotta anche attraverso l’ausilio del diritto comparato. E’ così, stato possibile riscontrare anzitutto l’esistenza del principio di consensualità in un numero considerevole di Paesi, salve alcune eccezioni, alla cui analisi è stato dedicato ampio spazio di trattazione (in particolare, la Francia). Per altro verso, le analoghe esperienze giuridiche provenienti da altri Stati europei (in particolare, la Spagna) sono state d’ausilio per la finale elaborazione di un possibile modello di procedimento per la conclusione degli accordi “a monte”; mentre la constatazione di comuni giustificazioni dottrinali ha permesso l’elaborazione di una nuova possibile natura giuridica da riconoscere agli accordi in parola (accordi normativi) e la definizione di precise ricadute pratiche e giuridiche quanto al rapporto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’effettività della tutela cautelare, intesa come tutela tempestiva, adeguata e piena, è stata la linea cardine dell’evoluzione della giustizia amministrativa, che, nel corso di un periodo durato più di un secolo, grazie all’opera della giurisprudenza e della dottrina, si è strutturata oggi su un vero processo. Approdo recente, e allo stesso tempo, simbolo di questa evoluzione, è sicuramente il Codice del processo amministrativo emanato con il d. lgs. 2 luglio 2010, n. 104. La ricerca, di cui questo contributo costituisce un resoconto, è iniziata contestualmente all’entrata in vigore del nuovo testo, e quindi è stata anche l’occasione per vederne le prime applicazioni giurisprudenziali. In particolare la lettura del Codice, prescindendo da una mera ricognizione di tutto il suo lungo articolato, è stata fatta alla luce di una ponderazione, nell’attualità, non solo del principio di effettività, ma anche del principio di strumentalità che lega tradizionalmente la fase cautelare con la fase di merito. I risultati della ricerca manifestano la volontà del legislatore di confermare questo rapporto strumentale, per fronteggiare una deriva incontrollata verso una cautela dagli effetti alle volte irreversibili, quale verificatasi nell’applicazione giurisprudenziale, ma contestualmente evidenziano la volontà di estendere la portata della tutela cautelare. Guardando a cosa sia diventata oggi la tutela cautelare, si è assistito ad un rafforzamento degli effetti conformativi, tipici delle sentenze di merito ma che si sono estesi alla fase cautelare. I giudici, pur consapevoli che la tutela cautelare non sia una risposta a cognizione piena, bensì sommaria, intendono comunque garantire una tutela tempestiva ed effettiva, anche per il tramite di tecniche processuali particolari, come quella del remand, cui, all’interno della ricerca, viene dedicato ampio spazio. Nella sua ultima parte la ricerca si è focalizzata, sempre volendo guardare in maniera globale agli effetti della tutela cautelare, sul momento dell’esecuzione e quindi sul giudizio di ottemperanza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato viene presentato lo studio ed ottimizzazione della geometria del serpentino di uno scambiatore di calore per la produzione di acqua sanitaria di tipo Puffer. L’analisi volta all’ottimizzazione del serpentino è stata eseguita con l’obiettivo di soddisfare i vincoli di progetto dello scambiatore, ovvero la portata elaborata e la temperatura di uscita dell’acqua sanitaria dallo scambiatore, ma cercando di ridurre la superficie del serpentino e quindi il costo dello scambiatore stesso, in particolare agendo su parametri geometrici quali il passo dell’elica H, il diametro dell’avvolgimento Db ed il diametro del tubo d. A tal fine è stato sviluppato un modello del processo di scambio termico all’interno dello scambiatore Puffer basato sulle equazioni di bilancio di energia e raffinato attraverso correlazioni teorico/sperimentali reperite in letteratura. In una prima fase l’ottimizzazione è stata svolta con l’ulteriore vincolo progettuale d=41mm e Db=510mm, al fine di garantire maggiore flessibilità nell’utilizzo del serpentino per altre tipologie di scambiatori. In questo caso, si è giunti ad un risparmio del 14% sull’area di scambio termico del serpentino rispetto al modello tuttora in produzione, quantificabile in una riduzione dei costi del 19% sul costo totale del Puffer. In una seconda fase si è proceduto ad una ottimizzazione libera dai vincoli d e Db, con l’obiettivo di valutare la massima riduzione di area di scambio termico del serpentino, stimata in circa il 23% nel caso in cui sia possibile in futuro valutare modifiche sostanziali alla geometria dello scambiatore. Lo studio completato dall’analisi dell’isolamento del corpo dello scambiatore, finalizzata a ridurre le dispersioni verso l’ambiente esterno. In particolare è stato valutato l’utilizzo di Isolmix, in alternativa all’esistente isolamento in pannelli di poliuretano, dimostrando come sia possibile ottenere una ulteriore riduzione del materiale impiegato e quindi dei costi di realizzazione dello scambiatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del presente lavoro di tesi riguarda la caratterizzazione di un sensore ottico per la lettura di ematocrito e lo sviluppo dell’algoritmo di calibrazione del dispositivo. In altre parole, utilizzando dati ottenuti da una sessione di calibrazione opportunamente pianificata, l’algoritmo sviluppato ha lo scopo di restituire la curva di interpolazione dei dati che caratterizza il trasduttore. I passi principali del lavoro di tesi svolto sono sintetizzati nei punti seguenti: 1) Pianificazione della sessione di calibrazione necessaria per la raccolta dati e conseguente costruzione di un modello black box.  Output: dato proveniente dal sensore ottico (lettura espressa in mV)  Input: valore di ematocrito espresso in punti percentuali ( questa grandezza rappresenta il valore vero di volume ematico ed è stata ottenuta con un dispositivo di centrifugazione sanguigna) 2) Sviluppo dell’algoritmo L’algoritmo sviluppato e utilizzato offline ha lo scopo di restituire la curva di regressione dei dati. Macroscopicamente, il codice possiamo distinguerlo in due parti principali: 1- Acquisizione dei dati provenienti da sensore e stato di funzionamento della pompa bifasica 2- Normalizzazione dei dati ottenuti rispetto al valore di riferimento del sensore e implementazione dell’algoritmo di regressione. Lo step di normalizzazione dei dati è uno strumento statistico fondamentale per poter mettere a confronto grandezze non uniformi tra loro. Studi presenti, dimostrano inoltre un mutazione morfologica del globulo rosso in risposta a sollecitazioni meccaniche. Un ulteriore aspetto trattato nel presente lavoro, riguarda la velocità del flusso sanguigno determinato dalla pompa e come tale grandezza sia in grado di influenzare la lettura di ematocrito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività sperimentale presentata in questo elaborato riguarda lo studio di una particolare applicazione che impiega la tecnologia laser per la lavorazione di materiali compositi ed è stata interamente svolta, in particolar modo nella sua parte operativa, presso i laboratori della Facoltà di Ingegneria a Bologna. Il lavoro di tesi ha come obiettivo fondamentale la valutazione degli effetti che i parametri di processo possono avere sulla qualità risultante nel procedimento di ablazione per i materiali compositi. Per questa indagine sono stati utilizzati campioni piani (tutti identici tra loro) con rinforzo in fibra di carbonio e matrice in resina epossidica, i quali sono stati lavorati con un laser Nd:YAG (λ = 1064 nm) funzionante in regime continuo. L’idea alla base dell’intera attività sperimentale è stata quella di realizzare una ablazione ottimale, rimuovendo dai campioni esclusivamente la resina (in maniera locale) e tentando, allo stesso tempo, di ottenere il minimo danneggiamento possibile per le fibre. Le prove effettuate non costituiscono naturalmente un punto di arrivo, bensì rappresentano piuttosto un punto di partenza per acquisire informazioni preliminari che potranno consentire, nel prossimo futuro, di proseguire con il perfezionamento del processo e la messa a punto dei parametri, al fine di conseguire una lavorazione che dia risultati effettivamente ottimali ed interessanti per l’eventuale applicazione industriale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuova frontiera per la procedura di test tailoring è la sintesi di profili vibratori il più reali possibili, nei quali venga tenuto conto della possibile presenza di eventi transitori e della non scontata ripetibilità delle vibrazioni nel tempo. Negli ultimi anni si è rivolto un crescente interesse nel "controllo del Kurtosis", finalizzato alla realizzazione di profili vibratori aventi distribuzione di probabilità non-Gaussiana. Durante l’indagine sperimentale oggetto di questa trattazione si sono portati a rottura per fatica alcuni componenti sottoposti, in generale, a tre differenti tipi di sollecitazione: stazionaria Gaussiana, stazionaria non-Gaussiana e non stazionaria non-Gaussiana. Il componente testato è costituito da un provino cilindrico montato a sbalzo e dotato di una massa concentrata all’estremità libera e di una gola vicina all’incastro, nella quale avviene la rottura per fatica. Durante l’indagine sperimentale si è monitorata la risposta in termini di accelerazione all’estremità libera del provino e di spostamento relativo a monte e a valle della gola, essendo quest’ultimo ritenuto proporzionale alle tensioni che portano a rottura il componente. Per ogni prova sono stati confrontati il Kurtosis e altri parametri statistici dell’eccitazione e della risposta. I risultati ottenuti mostrano che solo le sollecitazioni non stazionarie non-Gaussiane forniscono una risposta con distribuzione di probabilità non-Gaussiana. Per gli altri profili vale invece il Teorema del Limite Centrale. Tale per cui i picchi presenti nell'eccitazione non vengono trasmessi alla risposta. Sono stati inoltre monitorati i tempi di rottura di ogni componente. L’indagine sperimentale è stata effettuata con l'obiettivo di indagare sulle caratteristiche che deve possedere l’eccitazione affinchè sia significativa per le strategie alla base del "controllo del Kurtosis".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per eseguire dei test automatizzati su una moto posta su banco a rulli, è necessario un software che permetta di gestire determinati attuatori sulla moto, in modo da poter simulare le condizioni di guida desiderate. Nel modello preso in esame, sono stati utilizzati Simulink e NI VeriStand. Simulink è un ambiente grafico di simulazione e analisi di sistemi dinamici completamente integrato con Matlab, caratterizzato dalla tipica interfaccia a blocchi, che possono essere personalizzati o scelti dalla libreria. Ni VeriStand è invece un ambiente software che permette di elaborare modelli scritti in Simulink in real time. Il presente lavoro è stato incentrato proprio su quest’ultimo aspetto. Per prima cosa è stata esaminata a fondo la parte del modello in Simulink, dopo di che è stata valutata la possibilità di riscrivere alcune parti del modello con un’applicazione interna a Simulink (StateFlow), che si potrebbe prestare meglio a simulare la logica di controllo rispetto a com’è gestita attualmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è verificare se esiste nell’uomo una correlazione tra le velocità preferite di corsa\cammino e i parametri antropometrici, e inoltre dare un significato ai segnali acquisiti dall’analisi del passo tramite uno strumento in fase di sviluppo. Sono stati reclutati 20 soggetti mediamente allenati e suddivisi equamente per sesso. I soggetti sono stati sottoposti ad un protocollo di test motori su treadmill diviso in due parti. I dati del primo test sono stati acquisiti manualmente mentre i dati del secondo test sono stati acquisiti da uno strumento e inviati a remoto. L’elaborazione dei risultati di entrambi i test è stata effettuata utilizzando i software Microsoft Excell e Matlab R2010a. Dai dati è emerso un trend significativo per le velocità di corsa in funzione delle altezze, ma non per quelle di cammino. Per le seconde è stata invece riscontrata una netta differenza tra soggetti maschili e femminili che ha portato a classificare i due sessi separatamente. I parametri riguardanti l’analisi del passo del secondo test sono risultati qualitativamente accettabili e confrontabili con la letteratura, ma sarà necessaria una futura validazione sperimentale per la conferma scientifica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il ritrovamento della Casa dei due peristili a Phoinike ha aperto la strada a un’intensa opera di revisione di tutti i dati relativi all’edilizia domestica nella regione, con studi comparativi verso nord (Illiria meridionale) e verso sud (il resto dell’Epiro, ovvero Tesprozia e Molossia). Tutta quest’area della Grecia nord-occidentale è stata caratterizzata nell’antichità da un’urbanizzazione scarsa numericamente e tardiva cronologicamente (non prima del IV sec. a.C.), a parte ovviamente le colonie corinzio-corciresi di area Adriatico- Ionica d’età arcaica (come Ambracia, Apollonia, Epidamnos). A un’urbanistica di tipo razionale e programmato (ad es. Cassope, Orraon, Gitani in Tesprozia, Antigonea in Caonia) si associano numerosi casi di abitati cresciuti soprattutto in rapporto alla natura del suolo, spesso diseguale e montagnoso (ad es. Dymokastro/Elina in Tesprozia, Çuka e Aitoit nella Kestrine), talora semplici villaggi fortificati, privi di una vera fisionomia urbana. D’altro canto il concetto classico di polis così come lo impieghiamo normalmente per la Grecia centro-meridionale non ha valore qui, in uno stato di tipo federale e dominato dall’economia del pascolo e della selva. In questo contesto l’edilizia domestica assume caratteri differenti fra IV e I sec. a.C.: da un lato le città ortogonali ripetono schemi egualitari con poche eccezioni, soprattutto alle origini (IV sec. a.C., come a Cassope e forse a Gitani), dall’altro si delinea una spiccata differenziazione a partire dal III sec., quando si adottano modelli architettonici differenti, come i peristili, indizio di una più forte differenziazione sociale (esemplari i casi di Antigonea e anche di Byllis in Illiria meridionale). I centri minori e fortificati d’altura impiegano formule abitative più semplici, che sfruttano l’articolazione del terreno roccioso per realizzare abitazioni a quote differenti, utilizzando la roccia naturale anche come pareti o pavimenti dei vani.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A 7 anni dall’avvio dell’ attuazione della Politica di Coesione dell’Unione Europea 2007- 2013, l’Italia ha il tasso di assorbimento dei Fondi Strutturali più basso d’Europa, insieme alla Romania, e rischia di subire un disimpegno delle risorse, che rappresenterebbe un gravissimo fallimento economico e politico. Il contributo di questo lavoro al dibattito sull’uso dei Fondi strutturali in Italia è duplice. Da una parte, per la prima volta, si propone uno studio sistematico delle criticità nella gestione del periodo 2007-2013, che hanno causato l’attuale ritardo nella spesa. Dall’altra, si affronta il problema italiano sia da una prospettiva europea sia nella sua dimensione nazionale, indagando le differenze regionali nella performance di spesa e proponendo un’analisi basata su tre dimensioni principali delle criticità: finanziaria, politica, amministrativa. L’approccio della ricerca consiste nella convergenza di dati quantitativi e qualitativi, raccolti durante un periodo di ricerca a Bruxelles e presso le Autorità di Gestione dei Programmi Operativi cofinanziati dal FESR. La questione dell’assorbimento finanziario e del ritardo nell’attuazione è stata indagata da tre punti di vista. Una prospettiva “storica”, che ha raccontato il ritardo strutturale nell’utilizzo dei Fondi Strutturali in Italia e che ha chiarito come il problema italiano, prima dell’attuale ciclo 2007-2013, sia stato non di quantità, ma di qualità della spesa. La seconda prospettiva è stata di respiro europeo, ed è servita a indagare le cause del basso livello di assorbimento finanziario dell’Italia suggerendo alcuni elementi utili a comprendere le ragioni di un simile divario con gli altri Paesi. Infine, la prospettiva nazionale e regionale ha svelato l’esistenza di un mix complesso, e micidiale, che ha letteralmente paralizzato la spesa italiana dei Fondi. Un mix di fattori finanziari, politici e amministrativi che non ha avuto eguali negli altri Paesi, e che si è concentrato soprattutto, ma non esclusivamente, nelle regioni dell’Obiettivo Convergenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sensors are devices that have shown widespread use, from the detection of gas molecules to the tracking of chemical signals in biological cells. Single walled carbon nanotube (SWCNT) and graphene based electrodes have demonstrated to be an excellent material for the development of electrochemical biosensors as they display remarkable electronic properties and the ability to act as individual nanoelectrodes, display an excellent low-dimensional charge carrier transport, and promote surface electrocatalysis. The present work aims at the preparation and investigation of electrochemically modified SWCNT and graphene-based electrodes for applications in the field of biosensors. We initially studied SWCNT films and focused on their topography and surface composition, electrical and optical properties. Parallel to SWCNTs, graphene films were investigated. Higher resistance values were obtained in comparison with nanotubes films. The electrochemical surface modification of both electrodes was investigated following two routes (i) the electrografting of aryl diazonium salts, and (ii) the electrophylic addition of 1, 3-benzodithiolylium tetrafluoroborate (BDYT). Both the qualitative and quantitative characteristics of the modified electrode surfaces were studied such as the degree of functionalization and their surface composition. The combination of Raman, X-ray photoelectron spectroscopy, atomic force microscopy, electrochemistry and other techniques, has demonstrated that selected precursors could be covalently anchored to the nanotubes and graphene-based electrode surfaces through novel carbon-carbon formation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.