923 resultados para Identificazione di parametri, ottimizzazione, bvp, Gauss-Newton


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il percorso di tesi che ho intrapreso è stato svolto presso l'azienda Datalogic, con l'intento di integrare un sistema di visione ad un sistema di marcatura laser. L'utilizzo di questo potente strumento è però vincolato dalla particolare posizione fisica occupata, di volta in volta, dall'oggetto; per questo motivo viene fissato nella posizione desiderata, attraverso dime meccaniche. Fin ad ora si riteneva assolutamente necessaria la presenza di un operatore per il controllo del corretto posizionamento, tramite una simulazione della marcatura. Per ovviare a questo limite strutturale, Datalogic ha pensato di introdurre uno strumento di aiuto e di visione del processo: la camera. L'idea di base è stata quella di impiegare le moderne smart camera per individuare l'oggetto da marcare e rendere quindi il processo più automatico possibile. Per giungere a questo risultato è stato necessario effettuare una calibrazione del sistema totale: Camera più Laser. Il mio studio si è focalizzato quindi nel creare un eseguibile che aiutasse il cliente ad effettuare questa operazione nella maniera più semplice possibile. E' stato creato un eseguibile in C# che mettesse in comunicazione i due dispositivi ed eseguisse la calibrazione dei parametri intrinseci ed estrinseci. Il risultato finale ha permesso di avere il sistema di riferimento mondo della camera coincidente con quello del piano di marcatura del laser. Ne segue che al termine del processo di calibrazione se un oggetto verrà rilevato dalla camera, avente il baricentro nella posizione (10,10), il laser, utilizzando le medesime coordinate, marcherà proprio nel baricentro dell'oggetto desiderato. La maggiore difficoltà riscontrata è stata la differenza dei software che permettono la comunicazione con i due dispositivi e la creazione di una comunicazione con il laser, non esistente prima in C#.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi si propone in una prima parte di introdurre importanti concetti quali la reale forma della Terra, la definizione di quota ortometrica ed ondulazione geoidica ed i riferimenti rispetto a cui esse si misurano: ciò è necessario per descrivere la quota Helmert, la quota dinamica e la quota normale, ossia i sistemi di quote corrette per gravità attualmente utilizzati. Nella seconda parte le argomentazioni principali verteranno sui sistemi di riferimento verticali dei paesi europei e sull’importanza di unificare i datums in un’unica soluzione. Si elencheranno i vari tentativi di aggregazione dei sistemi che si sono susseguiti nella storia europea, con approfondimenti sulle loro caratteristiche e parametri statistici. Nella terza ed ultima parte, si discuterà della realizzazione più moderna di un sistema di riferimento verticale comune ai paesi comunitari, e si indicheranno le sue differenze rispetto ai sistemi precedenti. Si concluderà l’elaborato con un breve accenno sul futuro dei datum verticali europei.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel trattamento e nella cura di pazienti con lesione spinale è fondamentale una corretta valutazione della lesione e delle disfunzionalità che questa produce. Il cammino è senza dubbio una delle funzionalità maggiormente ridotta a seguito di una lesione, che può portare sia ad una diminuzione di questa capacità sia ad una completa inabilità. Nella valutazione del cammino il clinico si avvale di diverse strumentazioni come sistemi stereofotogrammetrici, pedane di forza ed elettromiografi che gli permettono di svolgere un’analisi strumentale del passo ed indagare le cause muscolari e neurologiche che portano a delle anormalità nella deambulazione. Questo lavoro si propone di presentare questi sistemi e compiere una panoramica dei principali parametri cinematici (velocità del cammino, lunghezza del passo, fase di stance, angoli articolari, ciclogrammi intra-articolari) che influenzano il passo e le metodologie con più successo nel migliorarli. Inoltre verranno evidenziati i risultati ottenuti dall’analisi elettromiografica riguardo alla presenza di pattern muscolari comuni alla base del cammino riscontrabili anche in persone sane e come gli impulsi EMG siano modulabili in ampiezza e durata a seguito di training motori.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il seguente elaborato di tesi tratta il problema della pianificazione di voli fotogrammetrici a bassa quota mediante l’uso di SAPR, in particolare è presentata una disamina delle principali applicazioni che permettono di programmare una copertura fotogrammetrica trasversale e longitudinale di un certo poligono con un drone commerciale. Il tema principale sviluppato è la gestione di un volo fotogrammetrico UAV mediante l’uso di applicativi software che permettono all’utente di inserire i parametri di volo in base alla tipologia di rilievo che vuole effettuare. L’obbiettivo finale è quello di ottenere una corretta presa fotogrammetrica da utilizzare per la creazione di un modello digitale del terreno o di un oggetto attraverso elaborazione dati in post-processing. La perfetta configurazione del volo non può prescindere dalle conoscenze base di fotogrammetria e delle meccaniche di un veicolo UAV. I capitoli introduttivi tratteranno infatti i principi della fotogrammetria analogica e digitale soffermandosi su temi utili alla comprensione delle problematiche relative al progetto di rilievo fotogrammetrico aereo. Una particolare attenzione è stata posta sulle nozioni di fotogrammetria digitale che, insieme agli algoritmi di Imagine Matching derivanti dalla Computer Vision, permette di definire il ramo della Fotogrammetria Moderna. Nei capitoli centrali verranno esaminate e confrontate una serie di applicazioni commerciali per smartphone e tablet, disponibili per sistemi Apple e Android, per trarne un breve resoconto conclusivo che le compari in termini di accessibilità, potenzialità e destinazione d’uso. Per una maggiore comprensione si determinano univocamente gli acronimi con cui i droni vengono chiamati nei diversi contesti: UAV (Unmanned Aerial Vehicle), SAPR (Sistemi Aeromobili a Pilotaggio Remoto), RPAS (Remotely Piloted Aicraft System), ARP (Aeromobili a Pilotaggio Remoto).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La seguente tesi prevede la costruzione e caratterizzazione di un micro-supercapacitore asimmetrico composto da un anodo a base di ZnO ed un catodo a base di grafene ossido ridotto (rGO); la combinazione di due materiali con differente natura di accumulo di carica permette quindi di ottenere dispositivi con migliori performance elettrochimiche. Entrambi gli elettrodi sono stati depositati per via elettrochimica su substrati flessibili di PET-ITO. L'ottimizzazione delle proprietà dello ZnO è stata fatta tramite l'aggiunta di molecole di tensioattivi durante la deposizione dello stesso. I risultati ottenuti mostrano un effettivo miglioramento delle proprietà elettrochimiche e della trasparenza dei film di ZnO prodotto grazie all'effetto di tali tensioattivi. Inoltre anche le proprietà di rGO sono state ottimizzate allo scopo di ottenere buone proprietà elettrochimiche abbinate all'elevata trasparenza del film prodotto. Infine sono stati costruiti micro-supercapacitori allo stato semisolido con differenti agenti gelificanti (silice e Nanoclay) ed il loro funzionamento è stato dimostrato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fino ad oggi la mobilità urbana si è affidata in particolar modo alla motorizzazione privata. Occorre considerare anche altre alternative di trasporto per garantire una mobilità più sostenibile ed efficace all’interno delle nostre aree urbane. Una di queste alternative è costituita dalla bicicletta, che deve essere considerata un’autentica alternativa di trasporto, che può facilmente contribuire, assieme ad altre, a ridurre l’attuale inefficiente dipendenza dall’automobile. La progettazione dei percorsi ciclo-pedonali richiede collegamenti sicuri, diretti, ben segnalati e confortevoli, che assicurino una mobilità indipendente e protetta per tutti. In questo lavoro di tesi stato proposto un questionario che ha lo scopo di dare un ritratto immediato degli utenti ciclabili che percorrono i campi prova analizzati, confrontare i risultati ottenuti e verificare quali parametri sono ritenuti di maggiore importanza per l’utente medio. Nella seconda fase e punto focale di tale lavoro di ricerca è stata svolta un’attenta analisi delle possibili scelte e problematiche di un particolare caso reale. In particolare, sono stati valutati gli elementi che il conducente del velocipede scansiona con lo sguardo durante la guida, cercando informazioni significative per la posizione spaziale e temporale in cui si trova. La ricerca è stata condotta mediante l’utilizzo della strumentazione Mobile Eye-XG che permette il rilievo in continuo dello sguardo dei conducenti durante la guida. Il campo prova riguarda il percorso “Sabotino”, composto da due itinerari situati all’interno dell’area urbana di Bologna, la Tangenziale Ovest delle biciclette e la “ciclabile vecchia” Sabotino. Dalle informazioni ricavate dall’analisi, si è cercato infine di ipotizzare delle possibili ed efficaci migliorie, che possano incentivare l’uso della bicicletta e la sicurezza nei confronti della mobilità lenta, migliorando le prestazioni della pista e aumentando gli standard.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato analizza il problema dell'intrusione salina e valuta l'influenza dei parametri idrologici e idrogeologici sulle dinamiche del processo mediate simulazioni Monte Carlo. A scopo esemplificativo, l’intrusione salina viene studiata in condizioni stazionarie e nell’ipotesi di interfaccia netta. La tecnica di simulazione viene descritta a partire dai concetti statistici di base che includono la definizione delle distribuzioni di probabilità scelte per descrviere il comportamento dei parametri del modello concettuale e la procedura di campionamento di tali distribuzioni. Un codice in Matlab è stato realizzato per l’applicazione ad un semplice caso studio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'identificazione dei prodotti ittici è uno dei temi chiave in materia di sicurezza alimentare. L’errata etichettatura dei prodotti alimentari e la sostituzione di alcuni ingredienti rappresentano questioni emergenti in termini di qualità e sicurezza alimentare e nutrizionale. L'autenticazione e la tracciabilità dei prodotti alimentari, gli studi di tassonomia e di genetica di popolazione, così come l'analisi delle abitudini alimentari degli animali e la selezione delle prede, si basano su analisi genetiche tra cui la metodica molecolare del DNA barcoding, che consiste nell’amplificazione e nel sequenziamento di una specifica regione del gene mitocondriale chiamata COI. Questa tecnica biomolecolare è utilizzata per fronteggiare la richiesta di determinazione specifica e/o la reale provenienza dei prodotti commercializzati, nonché per smascherare errori di etichettatura e sostituzioni fraudolente, difficile da rilevare soprattutto nei prodotti ittici trasformati. Sul mercato sono disponibili differenti kit per l'estrazione del DNA da campioni freschi e conservati; l’impiego dei kit, aumenta drasticamente il costo dei progetti di caratterizzazione e di genotipizzazione dei campioni da analizzare. In questo scenario è stato messo a punto un metodo veloce di estrazione del DNA. Esso non prevede nessuna fase di purificazione per i prodotti ittici freschi e trasformati e si presta a qualsiasi analisi che preveda l’utilizzo della tecnica PCR. Il protocollo consente l'amplificazione efficiente del DNA da qualsiasi scarto industriale proveniente dalla lavorazione del pesce, indipendentemente dal metodo di conservazione del campione. L’applicazione di questo metodo di estrazione del DNA, combinato al successo e alla robustezza della amplificazione PCR (secondo protocollo barcode) ha permesso di ottenere, in tempi brevissimi e con costi minimi, il sequenziamento del DNA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il contenuto di questo volume non vuole rappresentare un testo didattico per lo studio in generale della vulcanologia in quanto in esso si tratta unicamente quell’a-spetto della disciplina che riguarda il vulcanismo esplosivo. In tal senso l’autore ritiene che questo testo possa essere utile per gli studenti di Scienze Geologiche che, vivendo nelle aree vulcaniche italiane di età quaternaria ed anche attive, possano, da laureati, svolgere attività professionali mirate alla individuazione e definizione di Pericolosità, Vulnerabilità e Rischio Vulcanico. Trattare gli argomenti che seguono non è stato facile e forse si poteva, in alcuni casi, renderli più semplici, ma talvolta la semplicità non sempre è sinonimo di precisione; inoltre, per descrivere certi aspetti non quantitativi si è costretti ad utilizzare un linguaggio quanto più possibile “ad hoc”. L’autore ha svolto la propria attività di ricerca in aree vulcaniche, sia in Italia che all’estero. Le ricerche in Italia sono state da sempre concentrate nelle aree di vulcanismo attivo in cui l’attività del vulcanologo è finalizzata fondamentalmente alla definizione della Pericolosità Vulcanica supporto indispensabile per la definizione dell’aree a Rischio Vulcanico, intendendo per Rischio il prodotto della Pericolosità per il Danno in termini, questo, di numero di vite umane ovvero di valore monetario dei beni a rischio nell’area vulcanica attiva. Le ricerche svolte dall’autore in Africa Orientale (Etiopia e Somalia) e nello Yemen hanno contribuito ad assimilare i concetti di vulcanologia regionale, rappresentata dall’ampia diffusione del vulcanismo di plateau, variabile per spessore dai 1500 ai 3000 metri, fra i quali si inseriscono, nella depressione dell’Afar, catene vulcaniche inquadrabili, dal punto di vista geodinamico, come “oceaniche” alcune delle quali attive e che si sviluppano per decine/centinaia di chilometri. Nelle aree vulcaniche italiane le difficoltà che sorgono durante il rilevamento risiedono nella scarsa continuità di affioramenti, talvolta incompleti per la descrizione delle variazioni di facies piroclastiche, non disgiunta dalla fitta vegetazione ovvero ur banizzazione specialmente nelle aree di vulcanismo attivo. Il rilevamento vulcanologico richiede competenze e l’adozione di scale adatte a poter cartografare le variazioni di facies piroclastiche che, a differenza dalle assise sedimentarie, in un’area vulcanica possono essere diffuse arealmente soltanto per alcune centinaia di metri. I metodi di studio delle rocce piroclastiche sono del tutto simili a quelli che si usano per le rocce clastiche, cioè dall’analisi delle strutture e delle tessiture alla litologica fino a quella meccanica; su questi clasti inoltre le determinazioni della densità, della mineralogia e della geochimica (Elementi in tracce e Terre Rare), ottenute sulla frazione vetrosa, rappresentano parametri talvolta identificativi di un’area vulcanica sorgente. Non esistono testi nei quali venga descritto come si debba operare nelle aree vulcaniche per le quali l’unica certezza unificante è rappresentata dall’evidenza che, nelle sequenze stratigrafiche, il termine al top rappresenta quello più relativamente recente mentre quello alla base indica il termine relativo più vecchio. Quanto viene riportato in questo testo nasce dall’esperienza che è stata acquisita nel tempo attraverso una costante azione di rilevamento che rappresenta l’uni- ca sorgente di informazione che un vulcanologo deve ricavare attraverso un attento esame dei depositi vulcanici (dalla litologia alla mineralogia, alla tessitura, etc.) la cui distribuzione, talvolta, può assumere un carattere interegionale in Italia nell’ambito dell’Olocene. Soltanto l’esperienza acquisita con il rilevamento produce, in un’area di vulcanismo attivo, risultati positivi per la definizione della Pericolosità, sapendo però che le aree vulcaniche italiane presentano caratteristiche ampiamente differenti e di conseguenza il modo di operare non può essere sempre lo stesso. Un esempio? Immaginate di eseguire un rilevamento vulcanico prima al Somma-Vesuvio e poi nei Campi Flegrei: sono mondi completamente differenti. L’autore desidera ribadire che questo testo si basa sulla esperienza acquisita sia come geologo sia come docente di Vulcanologia; pertanto il libro potrà forse risultare più o meno bilanciato, in forza dell’argomento trattato, in quanto durante l’attività di ricerca l’autore, come tutti, ha affrontato alcuni argomenti più di altri. Questo approccio può essere considerato valido per chiunque voglia scrivere un libro in maniera autonoma e originale, non limitandosi, come molte volte avviene, a tradurre in italiano un libro su tematiche analoghe diffuso, ad esempio, nel mondo anglosassone.Diversamente, si sarebbe potuto concepire un libro come un collage di capitoli scritti da vari autori, che magari avevano esperienza più specifica nei singoli argomenti, ma in tal senso si sarebbe snaturato lo spirito con cui si è impostato il progetto. L’autore, infine, ha fatto ricorso al contributo di altri autorevoli colleghi solo per temi importantissimi, ma in qualche modo complementari rispetto al corpus costitutivo del Vulcanismo Esplosivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’ambito del Programma Nazionale per la raccolta dati alieutici (PNDA), ai sensi dei regolamenti CE Reg. 1543/2000; Reg. CE 1639/2001; Reg. CE 1581/2004, il modulo I “Altri campionamenti biologici”, ha l’obiettivo di acquisire informazioni riguardanti i principali parametri biologici del pescato commerciale. Più precisamente, tali informazioni riguardano la relazione lunghezza-peso; la crescita e la relazione lunghezza-maturità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’ambito del Programma Nazionale per la raccolta dati alieutici (PNDA), ai sensi dei regolamenti CE Reg. 1543/2000; Reg. CE 1639/2001; Reg. CE 1581/2004, il Modulo I “Altri campionamenti biologici”, ha l’obiettivo di acquisire informazioni riguardanti i principali parametri biologici del pescato commerciale. Più precisamente, tali informazioni riguardano la relazione lunghezza-peso, il rapporto sessi complessivo e per classi di lunghezza, la crescita e la relazione lunghezza-maturità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro viene condotta un’analisi critica delle caratteristiche materiali e delle performance di una classe di polimeri recentemente sviluppata, i “Polimeri a Microporosità Intrinseca”, di grande interesse per lo sviluppo di membrane per la separazione di gas, specialmente nella Carbon Capture. Partendo dall’analisi del meccanismo di separazione di gas in membrane polimeriche dense si fornisce una overview sulle tecnologie assodate e innovative per la separazione di gas e per la CC. Le caratteristiche e le proprietà strutturali di rilievo dei polimeri vetrosi sono poi brevemente illustrate e le correlazioni empiriche note tra le suddette e le proprietà di trasporto di materia. Vengono quindi descritti i PIMs analizzando in primis la loro tipica struttura chimica, i processi di sintesi e le caratteristiche principali. Per il PIM-1, capostipite della categoria, il trasporto di gas viene approfondito con lo studio della variabilità delle proprietà quali la permeabilità, la diffusività e la solubilità di penetranti gassosi con i parametri operativi (p, T, composizione dei feed), considerando anche fenomeni tipici dei polimeri vetrosi quali l’aging e l’effetto dei solventi. Sono poi analizzate le proprietà di trasporto nei diversi PIMs, e confrontate con quelle di polimeri di comune utilizzo nelle separazioni in esame. La rielaborazione dei dati raccolti permette di confrontare le performance di una varietà di polimeri nella separazione di gas. In particolare l’analisi critica dei diagrammi permeabilità/selettività induce ad una valutazione approssimativa ma significativa delle possibili soluzioni tra cui optare per una data separazione di gas, considerando anche i parametri operativi tipici della stessa. Infine, vengono riportati e commentati dati di permeazione di miscele gassose in due diversi PIMs e nel polimero PTMSP, ponendo l’attenzione sulle reali condizioni operative con cui la tecnologia a membrane si deve confrontare in applicazioni reali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le epidemie tossinfettive dovute al consumo di prodotti vegetali freschi hanno subito negli ultimi anni un rilevante incremento a causa della crescente centralizzazione delle produzioni in prossimità di aree destinate alle produzioni animali, all’aumento dell’importazione e del trasporto di prodotti provenienti da grandi distanze, all’aumento del settore dei prodotti di IV gamma e all’incremento delle fasce di popolazione più sensibili ai principali patogeni degli alimenti. I dati recenti indicano che, negli USA, le tossinfezioni associate al consumo di vegetali freschi sono passati dallo 0.7% del totale negli anni ‘70, al 6% negli anni ’90, al 13% nei primo anni 2000, fino a rappresentare nel 2014 il 46% delle tossinfezioni complessive. Il consumo di pomodori freschi è stato implicato in numerose tossinfezioni, anche di ampie dimensioni, in diverse aree del globo. Oltre alle salmonellosi, i pomodori costituiscono importanti veicoli per la trasmissione per altri patogeni quali Listeria monocytogenes, Escherichia coli VTEC e Yersinia enterocolitica. Gli studi sulla composizione quali-quantitativa dei microrganismi presenti sui pomodori al momento della loro commercializzazione sono pochissimi. Per queste ragioni, nel mio elaborato mi sono occupata di valutare alcuni parametri microbiologici campionando la superficie di pomodori a grappolo di diversa tipologia, prelevati dai banchi della distribuzione, venduti sfusi o preconfezionati. Le analisi condotte erano mirate alla ricerca della carica batterica totale, di Escherichia coli, enterobatteriacee, stafilococchi, muffe e lieviti. Dai risultati ottenuti si evince che non esistono effettivamente delle differenze significative sulle caratteristiche microbiologiche dei pomodori in base al tipo di confezionamento. Inoltre si può anche osservare come le cariche microbiche individuate siano relativamente contenute e paragonabili a quelle riportate in letteratura per prodotti analoghi considerati a basso rischio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro di tesi è realizzare un modello, prima statico poi dinamico, dei componenti: imbocco e gruppo compressore, del turboalbero Allison 250 C18 sottoposto alla tecnologia del fogging. I dati sperimentali utilizzati provengono da prove sperimentali svolte da un altro tesista nel laboratorio di Propulsione e macchine della Scuola di Ingegneria e Architettura di Forlì. Grazie al modello statico, realizzato con il software MATLAB®, sono state create le principali mappe prestazionali dei singoli componenti. Queste ultime sono state poi implementate all'interno del modello dinamico realizzato con il software Simulink. Attraverso il modello dinamico, siamo stati in grado di osservare, grazie ad una struttura modulare a blocchi, l'andamento delle grandezze anche in regime transitorio, e di cambiare i parametri di inizializzazione in maniera molto rapida. Infine i dati ottenuti sono stati confrontati con i dati sperimentali e sono state effettuate valutazioni sull'utilità o meno del fogging. Entrambe le conclusioni hanno dato buoni risultati.