914 resultados para elaborazione di immagini metodi di segmentazione filtri per immagini
Resumo:
Il presente lavoro di tesi affronta diverse tematiche riguardanti la valutazione della vulnerabilità sismica del centro storico di Sansepolcro, con particolare riferimento all’analisi di fonti storiche perlopiù inedite e a indagini morfologiche sui tessuti edilizi. La zona della Valtiberina toscana è stata interessata da numerosi eventi sismici che spesso hanno raggiunto intensità elevate e che hanno provocato molti danni. Il susseguirsi di tali eventi ha fatto si che si sviluppasse una certa esperienza nell’affrontare le conseguenze dell’evento sismico. Ne sono testimonianza i documenti conservati presso l’Archivio Storico Comunale di Sansepolcro che riguardano gli eventi sismici del 1781 e del1789. Dalla corrispondenza tra le autorità di Firenze e di Sansepolcro è stato possibile ricostruire la cronologia delle azioni principali compiute nella gestione dell’emergenza. Tra le lavorazioni eseguite, molti furono i presidi antisismici utilizzati. Nell’ambito dell’analisi delle fonti di archivio si sono analizzati anche documenti più recenti, in particolare gli elaborati del Genio Civile conservati presso l’Archivio di Stato di Arezzo riguardanti gli eventi sismici del 1917 e 1919. Parallelamente alle ricerche archivistiche si è cercato di stabilire una correlazione tra la morfologia dei tessuti e la vulnerabilità sismica degli aggregati edilizi in relazione al loro processo evolutivo e al loro periodo storico di formazione. Una volta stabilita, per ogni aggregato, la fase di impianto, ci si è avvalsi del metodo di calcolo speditivo dell’indice di vulnerabilità in pianta (TPS). Lo scopo è quello di elaborare delle considerazioni generali per singoli aggregati campione, per poi estenderle agli aggregati omogenei. A conclusione del lavoro si è preso in considerazione il caso del Palazzo Aloigi-Luzzi e se ne sono calcolati gli indici analitici globali di vulnerabilità sismica, per avere un riscontro concreto di un singolo caso.
Resumo:
Nel seguente elaborato viene trattato il tema dell'applicabilità della tempra laser sulla ghisa perlitica sferoidale, al fine di incrementarne la resistenza ad usura e di ridurre i tempi di lavorazione, rispetto ai metodi tradizionali di tempra. All'introduzione sulla tecnologia laser e sul suo uso in ambito industriale, seguono una dettagliata presentazione dei test di laboratorio effettuati e un'analisi dei dati ricavati, con l'obiettivo di trovare la metodologia di trattamento migliore per raggiungere i risultati desiderati.
Resumo:
L’ingegneria tissutale rappresenta oggi una delle tematiche più importanti di ricerca in ambito medico-ingegneristico. Questa disciplina si pone come obiettivo di far fronte alla mancanza, sostituzione o riparazione di tessuto attraverso lo sviluppo di scaffolds opportunamente ottimizzati. I polimeri naturali rappresentano una classe di materiali particolarmente indicata per soddisfare i requisiti richiesti soprattutto per la biocompatibilità che spesso li caratterizza. La gelatina è uno dei materiali che si presta alla realizzazione di scaffolds innovativi ad altissima biocompatibilità nonostante le scarse proprietà meccaniche e la facilità di degradazione. Proprio per questo è possibile migliorarne le prestazioni attraverso l’ottimizzazione di processi di blending con altri polimeri, in questo caso le nanofibre di cellulosa e l’impiego di agenti reticolanti. Lo scopo di questo lavoro di tesi, svolto presso l’Istituto di Scienza e Tecnologia dei Materiali Ceramici (ISTEC-CNR) di Faenza, è la progettazione, lo sviluppo e la caratterizzazione di scaffolds polimerici porosi a base di gelatina e nanocellulosa opportunamente reticolati per un ampio range di applicazioni nell’ambito dell’ingegneria tissutale. A questo scopo, sono stati sviluppati cinque dispositivi 3D porosi, ottenuti tramite liofilizzazione, che differiscono per il tipo di processo reticolante applicato. Il progetto ha previsto una prima fase di ricerca bibliografica che ha permesso di conoscere lo stato dell’arte sull’argomento trattato. Si è potuto così procedere alla realizzazione degli scaffolds e a una prima caratterizzazione di carattere chimico-fisico e morfologico. A questo punto, sulla base dei dati ottenuti, sono stati scelti i campioni su cui effettuare ulteriori caratterizzazioni meccaniche. In ultimo, sono stati analizzati e rielaborati tutti i risultati.
Resumo:
Il seguente elaborato di tesi tratta il problema della pianificazione di voli fotogrammetrici a bassa quota mediante l’uso di SAPR, in particolare è presentata una disamina delle principali applicazioni che permettono di programmare una copertura fotogrammetrica trasversale e longitudinale di un certo poligono con un drone commerciale. Il tema principale sviluppato è la gestione di un volo fotogrammetrico UAV mediante l’uso di applicativi software che permettono all’utente di inserire i parametri di volo in base alla tipologia di rilievo che vuole effettuare. L’obbiettivo finale è quello di ottenere una corretta presa fotogrammetrica da utilizzare per la creazione di un modello digitale del terreno o di un oggetto attraverso elaborazione dati in post-processing. La perfetta configurazione del volo non può prescindere dalle conoscenze base di fotogrammetria e delle meccaniche di un veicolo UAV. I capitoli introduttivi tratteranno infatti i principi della fotogrammetria analogica e digitale soffermandosi su temi utili alla comprensione delle problematiche relative al progetto di rilievo fotogrammetrico aereo. Una particolare attenzione è stata posta sulle nozioni di fotogrammetria digitale che, insieme agli algoritmi di Imagine Matching derivanti dalla Computer Vision, permette di definire il ramo della Fotogrammetria Moderna. Nei capitoli centrali verranno esaminate e confrontate una serie di applicazioni commerciali per smartphone e tablet, disponibili per sistemi Apple e Android, per trarne un breve resoconto conclusivo che le compari in termini di accessibilità, potenzialità e destinazione d’uso. Per una maggiore comprensione si determinano univocamente gli acronimi con cui i droni vengono chiamati nei diversi contesti: UAV (Unmanned Aerial Vehicle), SAPR (Sistemi Aeromobili a Pilotaggio Remoto), RPAS (Remotely Piloted Aicraft System), ARP (Aeromobili a Pilotaggio Remoto).
Resumo:
Fino ad oggi la mobilità urbana si è affidata in particolar modo alla motorizzazione privata. Occorre considerare anche altre alternative di trasporto per garantire una mobilità più sostenibile ed efficace all’interno delle nostre aree urbane. Una di queste alternative è costituita dalla bicicletta, che deve essere considerata un’autentica alternativa di trasporto, che può facilmente contribuire, assieme ad altre, a ridurre l’attuale inefficiente dipendenza dall’automobile. La progettazione dei percorsi ciclo-pedonali richiede collegamenti sicuri, diretti, ben segnalati e confortevoli, che assicurino una mobilità indipendente e protetta per tutti. In questo lavoro di tesi stato proposto un questionario che ha lo scopo di dare un ritratto immediato degli utenti ciclabili che percorrono i campi prova analizzati, confrontare i risultati ottenuti e verificare quali parametri sono ritenuti di maggiore importanza per l’utente medio. Nella seconda fase e punto focale di tale lavoro di ricerca è stata svolta un’attenta analisi delle possibili scelte e problematiche di un particolare caso reale. In particolare, sono stati valutati gli elementi che il conducente del velocipede scansiona con lo sguardo durante la guida, cercando informazioni significative per la posizione spaziale e temporale in cui si trova. La ricerca è stata condotta mediante l’utilizzo della strumentazione Mobile Eye-XG che permette il rilievo in continuo dello sguardo dei conducenti durante la guida. Il campo prova riguarda il percorso “Sabotino”, composto da due itinerari situati all’interno dell’area urbana di Bologna, la Tangenziale Ovest delle biciclette e la “ciclabile vecchia” Sabotino. Dalle informazioni ricavate dall’analisi, si è cercato infine di ipotizzare delle possibili ed efficaci migliorie, che possano incentivare l’uso della bicicletta e la sicurezza nei confronti della mobilità lenta, migliorando le prestazioni della pista e aumentando gli standard.
Resumo:
I fenomeni di contaminazione antropica da mercurio sono sempre più diffusi e preoccupanti, tanto da spingere all’ attivazione di politiche nazionali ed internazionali atte a ridurre o almeno “contenere” i rischi legati a questo metallo tossico. Con quest’obiettivo è prioritaria la necessità di determinare la concentrazione del metallo in maniera veloce, economica ed efficiente. Il seguente report intende fornire informazioni utili nell’utilizzo dello spettrofotometro DMA-80 nell’analisi di Hg in varie matrici ambientali. Lo strumento è stato acquistato dall’IAMC-CNR di Capo Granitola per rispondere alle esigenze progettuali del progetto “Dinamica dei processi di evasione e deposizione del mercurio nell’area industrializzata della Rada di Augusta e definizioni delle mappe di rischio sanitario per le popolazioni residenti” (prot.n°0000466 18/2/2011) finanziato dall’Assessorato alla Salute della Regione Sicilia con l’obbiettivo di verificare il potenziale impatto del mercurio, derivato dalle emissioni dei reflui non trattati dell’impianto di cloro-soda SYNDIAL Priolo-Gargallo sulle popolazioni residenti nell’aria fortemente industrializzata di Augusta-Melilli (Siracusa).
Resumo:
Il contenuto di questo volume non vuole rappresentare un testo didattico per lo studio in generale della vulcanologia in quanto in esso si tratta unicamente quell’a-spetto della disciplina che riguarda il vulcanismo esplosivo. In tal senso l’autore ritiene che questo testo possa essere utile per gli studenti di Scienze Geologiche che, vivendo nelle aree vulcaniche italiane di età quaternaria ed anche attive, possano, da laureati, svolgere attività professionali mirate alla individuazione e definizione di Pericolosità, Vulnerabilità e Rischio Vulcanico. Trattare gli argomenti che seguono non è stato facile e forse si poteva, in alcuni casi, renderli più semplici, ma talvolta la semplicità non sempre è sinonimo di precisione; inoltre, per descrivere certi aspetti non quantitativi si è costretti ad utilizzare un linguaggio quanto più possibile “ad hoc”. L’autore ha svolto la propria attività di ricerca in aree vulcaniche, sia in Italia che all’estero. Le ricerche in Italia sono state da sempre concentrate nelle aree di vulcanismo attivo in cui l’attività del vulcanologo è finalizzata fondamentalmente alla definizione della Pericolosità Vulcanica supporto indispensabile per la definizione dell’aree a Rischio Vulcanico, intendendo per Rischio il prodotto della Pericolosità per il Danno in termini, questo, di numero di vite umane ovvero di valore monetario dei beni a rischio nell’area vulcanica attiva. Le ricerche svolte dall’autore in Africa Orientale (Etiopia e Somalia) e nello Yemen hanno contribuito ad assimilare i concetti di vulcanologia regionale, rappresentata dall’ampia diffusione del vulcanismo di plateau, variabile per spessore dai 1500 ai 3000 metri, fra i quali si inseriscono, nella depressione dell’Afar, catene vulcaniche inquadrabili, dal punto di vista geodinamico, come “oceaniche” alcune delle quali attive e che si sviluppano per decine/centinaia di chilometri. Nelle aree vulcaniche italiane le difficoltà che sorgono durante il rilevamento risiedono nella scarsa continuità di affioramenti, talvolta incompleti per la descrizione delle variazioni di facies piroclastiche, non disgiunta dalla fitta vegetazione ovvero ur banizzazione specialmente nelle aree di vulcanismo attivo. Il rilevamento vulcanologico richiede competenze e l’adozione di scale adatte a poter cartografare le variazioni di facies piroclastiche che, a differenza dalle assise sedimentarie, in un’area vulcanica possono essere diffuse arealmente soltanto per alcune centinaia di metri. I metodi di studio delle rocce piroclastiche sono del tutto simili a quelli che si usano per le rocce clastiche, cioè dall’analisi delle strutture e delle tessiture alla litologica fino a quella meccanica; su questi clasti inoltre le determinazioni della densità, della mineralogia e della geochimica (Elementi in tracce e Terre Rare), ottenute sulla frazione vetrosa, rappresentano parametri talvolta identificativi di un’area vulcanica sorgente. Non esistono testi nei quali venga descritto come si debba operare nelle aree vulcaniche per le quali l’unica certezza unificante è rappresentata dall’evidenza che, nelle sequenze stratigrafiche, il termine al top rappresenta quello più relativamente recente mentre quello alla base indica il termine relativo più vecchio. Quanto viene riportato in questo testo nasce dall’esperienza che è stata acquisita nel tempo attraverso una costante azione di rilevamento che rappresenta l’uni- ca sorgente di informazione che un vulcanologo deve ricavare attraverso un attento esame dei depositi vulcanici (dalla litologia alla mineralogia, alla tessitura, etc.) la cui distribuzione, talvolta, può assumere un carattere interegionale in Italia nell’ambito dell’Olocene. Soltanto l’esperienza acquisita con il rilevamento produce, in un’area di vulcanismo attivo, risultati positivi per la definizione della Pericolosità, sapendo però che le aree vulcaniche italiane presentano caratteristiche ampiamente differenti e di conseguenza il modo di operare non può essere sempre lo stesso. Un esempio? Immaginate di eseguire un rilevamento vulcanico prima al Somma-Vesuvio e poi nei Campi Flegrei: sono mondi completamente differenti. L’autore desidera ribadire che questo testo si basa sulla esperienza acquisita sia come geologo sia come docente di Vulcanologia; pertanto il libro potrà forse risultare più o meno bilanciato, in forza dell’argomento trattato, in quanto durante l’attività di ricerca l’autore, come tutti, ha affrontato alcuni argomenti più di altri. Questo approccio può essere considerato valido per chiunque voglia scrivere un libro in maniera autonoma e originale, non limitandosi, come molte volte avviene, a tradurre in italiano un libro su tematiche analoghe diffuso, ad esempio, nel mondo anglosassone.Diversamente, si sarebbe potuto concepire un libro come un collage di capitoli scritti da vari autori, che magari avevano esperienza più specifica nei singoli argomenti, ma in tal senso si sarebbe snaturato lo spirito con cui si è impostato il progetto. L’autore, infine, ha fatto ricorso al contributo di altri autorevoli colleghi solo per temi importantissimi, ma in qualche modo complementari rispetto al corpus costitutivo del Vulcanismo Esplosivo.
Resumo:
Parlare di KeyCrime significa rapportarsi con un software che si fonda prioritariamente su di un metodo scientifico che fa proprio il ragionamento conclusivo (conclusive reasoning), applicato al decison making , pertanto all’intelligence investigativa e alla predictive policing. Potremmo pensare a KeyCrime come un paradigma operativo che si pone in sinergia tra la filosofia, il cognitivismo giuridico e le scienze applicate (Romeo F., 2006). Quando analisi e decision making trovano in un unico contesto il terreno fertile dove svilupparsi, ma ancor più, creare presupposti di ragionamento, ecco che da queste è facile comprendere da quale altra condizione sono nate, attivate e soprattutto utilizzate ai fini di un risultato: questa non è altro che “l’osservazione”; se ben fatta, profonda e scientifica offre una sistematica quanto utile predisposizione alle indagini, specialmente di carattere preventivo per l’anticrimine e la sicurezza.
Resumo:
In questo lavoro viene condotta un’analisi critica delle caratteristiche materiali e delle performance di una classe di polimeri recentemente sviluppata, i “Polimeri a Microporosità Intrinseca”, di grande interesse per lo sviluppo di membrane per la separazione di gas, specialmente nella Carbon Capture. Partendo dall’analisi del meccanismo di separazione di gas in membrane polimeriche dense si fornisce una overview sulle tecnologie assodate e innovative per la separazione di gas e per la CC. Le caratteristiche e le proprietà strutturali di rilievo dei polimeri vetrosi sono poi brevemente illustrate e le correlazioni empiriche note tra le suddette e le proprietà di trasporto di materia. Vengono quindi descritti i PIMs analizzando in primis la loro tipica struttura chimica, i processi di sintesi e le caratteristiche principali. Per il PIM-1, capostipite della categoria, il trasporto di gas viene approfondito con lo studio della variabilità delle proprietà quali la permeabilità, la diffusività e la solubilità di penetranti gassosi con i parametri operativi (p, T, composizione dei feed), considerando anche fenomeni tipici dei polimeri vetrosi quali l’aging e l’effetto dei solventi. Sono poi analizzate le proprietà di trasporto nei diversi PIMs, e confrontate con quelle di polimeri di comune utilizzo nelle separazioni in esame. La rielaborazione dei dati raccolti permette di confrontare le performance di una varietà di polimeri nella separazione di gas. In particolare l’analisi critica dei diagrammi permeabilità/selettività induce ad una valutazione approssimativa ma significativa delle possibili soluzioni tra cui optare per una data separazione di gas, considerando anche i parametri operativi tipici della stessa. Infine, vengono riportati e commentati dati di permeazione di miscele gassose in due diversi PIMs e nel polimero PTMSP, ponendo l’attenzione sulle reali condizioni operative con cui la tecnologia a membrane si deve confrontare in applicazioni reali.
Resumo:
Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.
Resumo:
L’obbiettivo di questa tesi è quello di analizzare le conseguenze della scelta del frame (Jordan o Einstein) nel calcolo delle proprietà degli spettri primordiali generati dall’inflazione ed in particolare dell’osservabile r (rapporto tensore su scalare) al variare del potenziale del campo che genera l’espansione accelerata. Partendo dalla descrizione della teoria dell’inflazione in relatività generale, focalizzando l’attenzione sui motivi che hanno portato all’introduzione di questa teoria, vengono presentate le tecniche di utilizzo comune per lo studio della dinamica omogenea (classica) inflazionaria e di quella disomogenea (quantistica). Una particolare attenzione viene rivolta ai metodi di approssimazione che è necessario adottare per estrarre predizioni analitiche dai modelli inflazionari per poi confrontarle con le osservazioni. Le tecniche introdotte vengono poi applicate ai modelli di inflazione con gravità indotta, ovvero ad una famiglia di modelli con accoppiamento non minimale tra il campo scalare inflatonico e il settore gravitazionale. Si porrà attenzione alle differenze rispetto ai modelli con accoppiamento minimale, e verrà studiata la dinamica in presenza di alcuni potenziali derivanti dalla teoria delle particelle e diffusi in letteratura. Il concetto di “transizione tra il frame di Jordan e il frame di Einstein” viene illustrato e le sue conseguenze nel calcolo approssimato del rapporto tensore su scalare sono discusse. Infine gli schemi di approssimazione proposti vengono analizzati numericamente. Risulterà che per due dei tre potenziali presentati i metodi di approssimazione sono più accurati nel frame di Einstein, mentre per il terzo potenziale i due frames portano a risultati analitici similmente accurati.
Resumo:
Lo scopo della presente tesi è sviluppare un ambiente per l'ottimizzazione strutturale di componenti per applicazione aerospaziale utilizzando codici open-source. In particolare, il codice Salome viene utilizzato per il disegno automatico delle strutture, il programma Code Aster permette di effettuare l'analisi agli elementi finiti del componente, mentre Octave viene utilizzato per svolgere l'ottimizzazione basata su un algoritmo euristico e per integrare fra di loro i differenti codici. Le tecniche di ottimizzazione dei componenti stanno rivestendo sempre più importanza visto che le moderne tecniche di Additive Manufacturing permettono di realizzare strutture molto complesse che un tempo non era conveniente (o possibile) realizzare con asportazione di materiale. Nella prima parte della tesi si descrivono gli strumenti software utilizzati e la loro integrazione al fine di parametrizzare la generazione di geometrie ed effettuare in modo automatico analisi strutturali. Successivamente si descrivono tre casi di studio in cui la metodologia è stata sperimentata: un primo caso di validazione in cui si è applicato il metodo alla definizione della geometria di minimo peso per una trave a sbalzo con carico concentrato, un secondo test di ottimizzazione di un longherone per aeromobile, un terzo caso applicativo legato alla ottimizzazione di un serbatoio per fluidi in pressione da utilizzare su un satellite.
Resumo:
In questa tesi vengono analizzati i principi fisici che stanno alla base dei dispositivi ottici di misura di tensioni e di correnti e, in particolare, vengono presentate le differenti soluzioni tecnologiche investigate dai produttori. La trattazione si concentra principalmente sulle tecniche di misura polarimetriche, che riguardano mutamenti indotti nello stato di polarizzazione della luce, mentre essa viaggia attraverso una fibra ottica, a causa di fenomeni esterni di interesse (come campi magnetici o elettrici). Le tecniche ottiche di misura, in futuro, avranno ruoli sempre più predominanti nel settore della fornitura di energia elettrica, dove offrono miglioramenti in sensibilità e prestazioni, rispetto ai convenzionali sistemi, riducendo inoltre i costi grazie alla minima richiesta di isolamento. Esistono, però, ancora dei problemi da risolvere come l'influenza della temperatura ambientale nella misura o l'affidabilità dei dispositivi per lunghi funzionamenti.
Resumo:
L'obbiettivo principale di questa tesi è la creazione di un particolare strumento capace di calcolare, dati in input le coordinate geografiche in latitudine e longitudine dei vari gates di passaggio del velivolo e delle caratteristiche principali di quest'ultimo, la traiettoria ottimale, ovvero la più veloce, restando pur sempre nei limiti strutturali e in quelli stabiliti dal regolamento, oltre che ad una serie di valori utili per effettuare tale percorso, quali la variazione di potenza, di coefficiente di portanza, di velocità, ecc. Dopo una prima fase di raccolta delle informazioni (regolamento della competizione, dati tecnici dei velivoli usati, del motore e dell'elica) ne è seguita una seconda in cui, partendo dall'analisi dei risultati ottenuti da un precedente tool di calcolo in Excel, si è provveduto a scriverne uno nuovo operante in ambiente MatLab.