439 resultados para Categorie, limiti, colimiti.
Resumo:
L’aumento esponenziale del contenzioso medico-legale – originatosi negli USA negli anni Sessanta in proporzioni tali da far parlare di medical liability crisis, e sviluppatosi in Italia a partire dalla metà degli anni Ottanta – ha comportato e continua a comportare, unitamente ad altre conseguenze negative, il ricorso sempre più frequente dei sanitari alle pratiche di medicina difensiva, con elevatissimi costi a carico del Servizio Sanitario Nazionale dovuti alla sovrabbondanza di trattamenti e ricoveri inutili e di procedure diagnostiche invasive non necessarie, peraltro produttive di stress emotivo nei pazienti. La causa dell’aumento della litigiosità deve essere ricercata in buona parte nella relazione medico-paziente, in particolar modo con riferimento al momento informativo che precede l’acquisizione del consenso informato al trattamento clinico. In Italia, i limiti che per lo più caratterizzano gli studi riguardanti il consenso informato derivano principalmente dal fatto che essi tendono a focalizzarsi unicamente sulla componente scritta del medesimo. Il fulcro del consenso informato, invece, deve ritenersi rappresentato da una comunicazione tra sanitario e paziente relativa ad un trattamento proposto ed alle possibili alternative, alla non sottoposizione ad alcun trattamento e ai rischi e benefici di ciascuna di queste opzioni. In un tale contesto il tema della comunicazione tra il professionista e la persona assistita sta suscitando interesse poiché ci si aspetta che esso conduca a miglioramenti degli outcome dei pazienti e alla diminuzione delle denunce da parte di questi ultimi per casi di responsabilità sanitaria. La maggiore attenzione al rapporto medico - paziente ha fatto emergere il bisogno di migliorare e potenziare le abilità comunicative dei medici, in un’ottica in cui il momento comunicativo possa essere percepito dal professionista come fulcro del rapporto medico-paziente, nella prospettiva di una elaborazione di strategie di prevenzione e contrasto ai fenomeni di medicina difensiva.
Resumo:
La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.
Resumo:
Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.
Resumo:
La tecnologia rende ormai disponibili, per ogni tipologia di azienda, dispositivi elettronici a costo contenuto in grado di rilevare il comportamento dei propri clienti e quindi permettere di profilare bacini di utenza in base a comportamenti comuni. Le compagnie assicurative automobilistiche sono molto sensibili a questo tema poiché, per essere concorrenziali, il premio assicurativo che ogni cliente paga deve essere abbastanza basso da attirarlo verso la compagnia ma anche abbastanza alto da non diventare una voce negativa nel bilancio di quest'ultima. Negli ultimi anni vediamo dunque il diffondersi delle scatole nere, che altro non sono che dispositivi satellitari che aiutano le compagnie assicurative a definire più nel dettaglio il profilo del proprio cliente. Una migliore profilatura porta vantaggi sia all'assicurato che alla compagnia assicurativa, perché da un lato il cliente vede il premio dell'assicurazione abbassarsi, dall'altro la compagnia assicuratrice si sente rassicurata sull'affidabilità del cliente. Questi dispositivi sono costruiti per svolgere principalmente due compiti: raccogliere dati sulla guida dell'automobilista per una profilatura e rilevare un incidente. Come servizio aggiuntivo può essere richiesto supporto al primo soccorso. L'idea di questa tesi è quella di sviluppare un'applicazione per smartphone che funzioni da scatola nera e analizzare i vantaggi e i limiti dell'hardware. Prima di tutto l'applicazione potrà essere installata su diversi dispositivi e potrà essere aggiornata di anno in anno senza dover eliminare l'hardware esistente, d'altro canto lo smartphone permette di poter associare anche funzionalità di tipo client-care più avanzate. Queste funzionalità sarebbero di notevole interesse per l'automobilista, pensiamo ad esempio al momento dell'incidente, sarebbe impagabile un'applicazione che, rilevato l'incidente in cui si è rimasti coinvolti, avverta subito i soccorsi indicando esplicitamente l'indirizzo in cui è avvenuto.
Resumo:
Cardiotocography (CTG) is a widespread foetal diagnostic methods. However, it lacks of objectivity and reproducibility since its dependence on observer's expertise. To overcome these limitations, more objective methods for CTG interpretation have been proposed. In particular, many developed techniques aim to assess the foetal heart rate variability (FHRV). Among them, some methodologies from nonlinear systems theory have been applied to the study of FHRV. All the techniques have proved to be helpful in specific cases. Nevertheless, none of them is more reliable than the others. Therefore, an in-depth study is necessary. The aim of this work is to deepen the FHRV analysis through the Symbolic Dynamics Analysis (SDA), a nonlinear technique already successfully employed for HRV analysis. Thanks to its simplicity of interpretation, it could be a useful tool for clinicians. We performed a literature study involving about 200 references on HRV and FHRV analysis; approximately 100 works were focused on non-linear techniques. Then, in order to compare linear and non-linear methods, we carried out a multiparametric study. 580 antepartum recordings of healthy fetuses were examined. Signals were processed using an updated software for CTG analysis and a new developed software for generating simulated CTG traces. Finally, statistical tests and regression analyses were carried out for estimating relationships among extracted indexes and other clinical information. Results confirm that none of the employed techniques is more reliable than the others. Moreover, in agreement with the literature, each analysis should take into account two relevant parameters, the foetal status and the week of gestation. Regarding the SDA, results show its promising capabilities in FHRV analysis. It allows recognizing foetal status, gestation week and global variability of FHR signals, even better than other methods. Nevertheless, further studies, which should involve even pathological cases, are necessary to establish its reliability.
Resumo:
Questo lavoro di tesi si occupa dello studio del fenomeno di condensazione di Bose-Einstein sia da un punto di vista teorico che, in maniera più accennata, da quello pratico-sperimentale; risulta pertanto strutturato in due parti. La prima è incentrata sull'analisi prettamente teorico-matematica dell'argomento, e si apre con l'introduzione dell'opportuno apparato formale atto alla trattazione della statistica quantistica; a tal proposito vengono definiti gli operatori di densità. Quindi viene affrontato il problema dell'indistinguibilità degli enti quantistici e del conseguente carattere di simmetria delle funzioni d'onda, individuando così la differenza tra particelle fermioniche e bosoniche. Di queste ultime vengono largamente studiate la statistica cui essere rispondono e le loro principali caratteristiche termodinamiche. Infine, viene analizzato il caso specifico del gas ideale di Bose, trattato nei limiti del continuo e termodinamico; è nel corso di questa trattazione che emerge il fenomeno di transizione chiamato condensazione di Bose-Einstein, di cui vengono ampiamente studiate le proprietà. La seconda parte, invece, è volta all'analisi delle tecniche sperimentali utilizzate per la realizzazione della condensazione, in particolare le trappole ottiche di dipolo; dopo averne studiato le caratteristiche, vengono illustrate alcune tecniche di raffreddamento di atomi intrappolati. Il lavoro si conclude con la trattazione delle principali tecniche diagnostiche e di riconoscimento del condensato.
Studio della fluidodinamica e della reazione chimica in un reattore agitato tramite modellazione cfd
Resumo:
L’attività di tesi è stata rivolta a realizzare l’accoppiamento tra modelli di reazione chimica e modelli di fluidodinamica per una reazione eterogenea solido-liquido in un reattore agitato, in ambito di un codice commerciale di fluidodinamica numerica. Lo studio ha avuto come punto di partenza la definizione e la discretizzazione del dominio di calcolo tramite un apposito programma. Per una trattazione completa, si sono svolti studi preliminari volti ad identificare le incertezze dovute ai metodi numerici e i limiti dovuti alla formulazione dei modelli per la descrizione del sistema. Lo studio si è svolto considerando sistemi di complessità crescente, partendo da simulazioni monofase fino ad arrivare allo studio di diverse soluzioni per sistemi reagenti con reazioni eterogenee solido-liquido. Questi ultimi esempi applicativi sono serviti come verifica del modello sviluppato (dove con modello si è indicato l’insieme dei modelli relativi alla fluidodinamica accoppiati al modello di reazione). Questa attività ha contribuito ad affrontare un problema di simulazione completa e completamente predittiva dei reattori chimici, essendo la letteratura a riguardo limitata, a differenza di quella relativa alle simulazioni puramente fluidodinamiche.
Resumo:
Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.
Resumo:
Il presente lavoro di tesi è stato svolto con lo scopo di valutare la distribuzione dei pesi dei componenti e dei sistemi di un aeromobile da trasporto civile; visto che le formule che la bibliografia propone sono state pensate per aerei con struttura tradizionale in alluminio, nel caso dei nuovi aerei in composito si è cercato di valutare una formula correttiva in modo da trovare valori più realistici di peso. Il motivo dell’introduzione di tali coefficienti correttivi deriva dalla proprietà dei materiali compositi di conferire al velivolo leggerezza rispetto ai materiali tradizionali, ma garantendogli, al pari di essi, elevata resistenza e robustezza. Lo studio è stato condotto su cinque modelli di aeromobili da trasporto passeggeri: Boeing 737-800, Boeing 747-100, Boeing 777-300, Boeing 787-8, Airbus A350-900. Seppur con i limiti dati da uno studio preliminare e puramente statistico, sono stati ottenuti valori dei coefficienti correttivi più dettagliati di quanto proposto in letteratura, in cui si propone di adottare un unico coefficiente correttivo in caso di velivolo in composito, indipendente dal tipo di aereo e dalla percentuale di composito utilizzata nelle varie parti del velivolo stesso.
Resumo:
Il proposito principale di questo studio è valutare, attraverso un confronto tra tecnologia Nexfin e metodo invasivo, se l’attuazione di modelli fisiologici realizzata dal Monitor Nexfin, rende possibile un preciso e accurato monitoraggio dinamico della pressione arteriosa, garantendo in questo modo l’affidabilità della suddetta tecnologia in ambito clinico. È stato deciso di porre come termine di paragone il sistema invasivo in quanto rappresenta il gold standard per la rilevazione della pressione arteriosa. I capitoli sono stati disposti in modo da introdurre gradualmente il lettore all’interno del topic principale dell’elaborato, fornendo di volta in volta tutte le conoscenze essenziali per una comprensione ottimale degli argomenti trattati. Il primo capitolo fornisce inizialmente una breve visione d’insieme sull’apparato cardiocircolatorio, per poi concentrarsi sui fenomeni che concorrono alla definizione e alla caratterizzazione della pressione arteriosa. Il secondo capitolo presenta alcuni cenni storici sulle prime misurazioni di pressione effettuate, in seguito illustra i principali metodi di misurazione non invasivi, articolando il discorso anche attraverso l’analisi dei principali sfigmomanometri ad oggi disponibili. Il terzo capitolo guida il lettore attraverso la scoperta delle più recenti metodiche non invasive per la misurazione della pressione che consentono un monitoraggio dinamico, esponendo nel dettaglio i loro limiti e le loro peculiarità. Nella parte finale del capitolo si affronta anche l’evoluzione del “Volume Clamp Method” di Peñáz partendo dal progetto originale fino a giungere al notevole contributo di Wesseling e alla ricostruzione del segnale di pressione brachiale. Il quarto capitolo delinea brevemente le caratteristiche principali del metodo invasivo, ovvero il gold standard per quanto riguarda il monitoraggio della pressione sanguigna. Il quinto capitolo infine illustra in maniera completa le proprietà del Monitor Nexfin e analizza i risultati conseguiti, confrontando la tecnologia Nexfin con il sistema invasivo, durante lo studio condotto presso l’Ospedale Maurizio Bufalini dell’Azienda USL della Romagna – Sede operativa di Cesena. Lo studio è presentato seguendo una impostazione scientifica.
Resumo:
Tra le plurime conseguenze dell’avvento del digitale, la riarticolazione dei rapporti tra immagine statica e immagine in movimento è certamente una delle più profonde. Sintomatica dei cambiamenti in atto sia nei film studies sia nella storia dell’arte, tale riarticolazione richiede un ripensamento dei confini disciplinari tradizionali entro cui il cinema e la fotografia sono stati affrontati come oggetti di studio separati e distinti. Nell’adottare un approccio molteplice, volto a comprendere prospettive provenienti dalla New Film History e dalla media archaeology, dalla teoria dell’arte e dagli studi visuali, questo lavoro esplora l’esistenza di una relazione dialettica tra il cinema e la fotografia intesa in modo duplice: come tensione costitutiva tra due media indissolubilmente connessi – non tanto in considerazione di un medesimo principio realistico di rappresentazione quanto, piuttosto, in virtù di uno scambio incessante nella modellizzazione di categorie quali il tempo, il movimento, l’immobilità, l’istante, la durata; come istanza peculiare della pratica artistica contemporanea, paradigma di riferimento nella produzione estetica di immagini. La tesi si suddivide in tre capitoli. Il primo si concentra sul rapporto tra l’immobilità e il movimento dell’immagine come cifra in grado di connettere l’estetica delle attrazioni e la cronofotografia a una serie di esperienze filmiche e artistiche prodotte nei territori delle avanguardie. Il secondo capitolo considera l’emergenza, dagli anni Novanta, di pratiche artistiche in cui l’incontro intermediale tra film e fotografia fornisce modelli di analisi volti all’indagine dell’attuale condizione estetica e tecnologica. Il terzo offre una panoramica critica su un caso di studio, la GIF art. La GIF è un formato digitale obsoleto che consente di produrre immagini che appaiono, simultaneamente, come fisse e animate; nel presente lavoro, la GIF è discussa come un medium capace di contraddire i confini attraverso cui concepiamo l’immagine fissa e in movimento, suggerendo, inoltre, un possibile modello di pensiero storico-cronologico anti-lineare.
Resumo:
This thesis presents a new Artificial Neural Network (ANN) able to predict at once the main parameters representative of the wave-structure interaction processes, i.e. the wave overtopping discharge, the wave transmission coefficient and the wave reflection coefficient. The new ANN has been specifically developed in order to provide managers and scientists with a tool that can be efficiently used for design purposes. The development of this ANN started with the preparation of a new extended and homogeneous database that collects all the available tests reporting at least one of the three parameters, for a total amount of 16’165 data. The variety of structure types and wave attack conditions in the database includes smooth, rock and armour unit slopes, berm breakwaters, vertical walls, low crested structures, oblique wave attacks. Some of the existing ANNs were compared and improved, leading to the selection of a final ANN, whose architecture was optimized through an in-depth sensitivity analysis to the training parameters of the ANN. Each of the selected 15 input parameters represents a physical aspect of the wave-structure interaction process, describing the wave attack (wave steepness and obliquity, breaking and shoaling factors), the structure geometry (submergence, straight or non-straight slope, with or without berm or toe, presence or not of a crown wall), or the structure type (smooth or covered by an armour layer, with permeable or impermeable core). The advanced ANN here proposed provides accurate predictions for all the three parameters, and demonstrates to overcome the limits imposed by the traditional formulae and approach adopted so far by some of the existing ANNs. The possibility to adopt just one model to obtain a handy and accurate evaluation of the overall performance of a coastal or harbor structure represents the most important and exportable result of the work.
Resumo:
L'interrogativo da cui nasce la ricerca riguarda la possibilità di individuare, in controtendenza con la logica neoliberista, strategie per l'affermarsi di una cultura dello sviluppo che sia sostenibile per l'ambiente e rispettosa della dignità delle persone, in grado di valorizzarne le differenze e di farsi carico delle difficoltà che ognuno può incontrare nel corso della propria esistenza. Centrale è il tema del lavoro, aspetto decisivo delle condizioni di appartenenza sociale e di valorizzazione delle risorse umane. Vengono richiamati studi sulla realtà in cui siamo immersi, caratterizzata dal pensiero liberista diventato negli ultimi decenni dominante su scala globale e che ha comportato una concezione delle relazioni sociali basata su di una competitività esasperata e sull’esclusione di chi non sta al passo con le leggi di mercato: le conseguenze drammatiche dell'imbroglio liberista; la riduzione delle persone a consumatori; la fuga dalla comunità ed il rifugio in identità separate; il tempo del rischio, della paura e della separazione fra etica e affari. E gli studi che, in controtendenza, introducono a prospettive di ricerca di uno sviluppo inclusivo e umanizzante: le prospettive della decrescita, del business sociale, di una via cristiana verso un'economia giusta, della valorizzazione delle capacità delle risorse umane. Vengono poi indagati i collegamenti con le esperienze attive nel territorio della città di Bologna che promuovono, attraverso la collaborazione fra istituzioni, organizzazioni intermedie e cittadini, occasioni di un welfare comunitario che sviluppa competenze e diritti insieme a responsabilità: l'introduzione delle clausole sociali negli appalti pubblici per la realizzazione professionale delle persone svantaggiate; la promozione della responsabilità sociale d'impresa per l'inclusione socio-lavorativa; la valorizzazione delle risorse delle persone che vivono un’esperienza carceraria. Si tratta di esperienze ancora limitate, ma possono costituire un riferimento culturale e operativo di un modello di sviluppo possibile, che convenga a tutti, compatibile con i limiti ambientali e umanizzante.
Resumo:
Le reti transeuropee sono uno dei vettori della competitività, dell’integrazione e dello sviluppo sostenibile dell’Unione. La tesi mette in luce la progressiva affermazione di una coerente politica infrastrutturale europea a carattere strumentale, esaminando tale evoluzione sotto tre profili: normativo, istituzionale e finanziario. In primo luogo, sotto il profilo normativo, la tesi evidenzia, da un lato, la progressiva emancipazione delle istituzioni dell’Unione dall’influenza degli Stati membri nell’esercizio delle proprie competenze in materia di reti transeuropee e, dall’altro, lo sviluppo di relazioni di complementarietà e specialità tra la politica di reti e altre politiche dell’Unione. L’elaborato sottolinea, in secondo luogo, sotto il profilo istituzionale, il ruolo del processo di «integrazione organica» dei regolatori nazionali e del processo di «agenzificazione» nel perseguimento degli obiettivi di interconnessione e accesso alle reti nazionali. La tesi osserva, infine, sotto il profilo finanziario, l’accresciuta importanza del sostegno finanziario dell’UE alla costituzione delle reti, che si è accompagnata al parziale superamento dei limiti derivanti dal diritto dell’UE alla politiche di spesa pubblica infrastrutturale degli Stati membri. Da un lato rispetto al diritto della concorrenza e, in particolare, al divieto di aiuti di stato, grazie al rapporto funzionale tra reti e prestazione di servizi di interesse economico generale, e dall’altro lato riguardo ai vincoli di bilancio, attraverso un’interpretazione evolutiva della cd. investment clause del Patto di stabilità e crescita. La tesi, in conclusione, rileva gli sviluppi decisivi della politica di reti europea, ma sottolinea il ruolo che gli Stati membri sono destinati a continuare ad esercitare nel suo sviluppo. Da questi ultimi, infatti, dipende la concreta attuazione di tale politica, ma anche il definitivo superamento, in occasione di una prossima revisione dei Trattati, dei retaggi intergovernativi che continuano a caratterizzare il diritto primario in materia.
Resumo:
Negli ultimi anni, complice la rapida evoluzione degli elaboratori e dei sensori, spinta dal mercato smartphone, una tecnologia si sta sviluppando e si sta diffondendo rapidamente. Si tratta di quella relativa agli unmanned vehicles (UV), i veicoli senza pilota, spesso nel linguaggio comune chiamati “droni”. Questi particolari veicoli sono dotati della tecnologia adatta per svolgere in relativa autonomia particolari mansioni, senza la necessità della presenza di un pilota a bordo. In questa Tesi magistrale si descrivono brevemente le diverse categorie di UV e l’attuale livello di autonomia raggiunta nello svolgimento di alcune funzioni, grazie a tecnologie quali i linguaggi ad agenti, di cui si presentano anche alcune significative applicazioni allo stato dell’arte. Per rendere più efficaci eventuali nuove funzionalità, fornendo una metodologia di sviluppo, atta ad aumentare il grado di astrazione, viene proposto un approccio architetturale a tre livelli. In particolare, viene approfondito il secondo livello, presentando l’implementazione di una funzionalità, l’autolocalizzazione spaziale, utile ad un sistema di terzo livello per arricchire la propria conoscenza dell’ambiente, al fine di raggiungere la massima autonomia nel controllo del mezzo. Questa prima esperienza ha consentito di approfondire le necessità in termini di hardware e software, al fine di poter effettuare una scelta mirata per l’ottimizzazione dei risultati ed un eventuale porting on-board, nella prospettiva di svincolare il mezzo da eventuali collegamenti con una stazione di terra, fino ad ora necessaria per eseguire le attività più complesse. Un interessante caso di studio consente di verificare la bontà del modello proposto e i risultati raggiunti nell’autolocalizzazione. In conclusione, si propongono ulteriori sviluppi che potranno fornire gli strumenti necessari alla massima espressione del potenziale che gli UV possiedono.