1000 resultados para Verifiche di vulnerabilità sismica struttura mista esistente
Resumo:
Con legge 20 giugno 2008, n. 97 «Prevenzione e repressione della violenza contro le donne e di genere» la Repubblica di San Marino si è dotata di un impianto normativo teso al contenimento del fenomeno della violenza domestica, sessuale e di genere, il cui tratto saliente è dato dal coinvolgimento della compagine sociale nel contrasto delle condotte delittuose (Santolini & Venturini, 2013/2014. La progressiva sensibilizzazione della collettività (Authority Pari Opportunità, 2010)rispetto a fenomeni tollerati in ragione di stereotipi culturali radicati nel contesto sociale tende a favorire l’emersione di episodi altrimenti destinati a rimanere ignoti agli organi giudiziari. Essa appare, pertanto, espressiva della «(…) acquisita consapevolezza del legislatore del fallimento, in materia di violenza di genere, delle modalità tradizionali di formazione e trasmissione della notitia criminis», conseguenti alle «difficoltà oggettive della vittima (…) di reagire alla violenza subita con i tradizionali strumenti della querela o della denuncia» (Santolini&Venturini, 2013/2014, 27), posta l’esistenza di fattori di vulnerabilità specifica del soggetto passivo (ragioni di carattere culturale, sociale o religioso, dipendenza economica e/o psicologica) che lo relegano in posizione subalterna rispetto al perpetrator.
Resumo:
Andiamo ad inquadrare la figura femminile nell’organizzazione criminale presa in esame, ovvero la ‘Ndrangheta, mafia calabrese il cui nome deriva dal sostantivo greco andragathòs, che si traduce in forza, virilità, valore. È una mafia definita da molti come “liquida” per lo straordinario potere di penetrare in ogni ambito del sociale ed estendere i propri confini ben oltre il territorio calabro. Fondata sullo stretto ed indissolubile vincolo di sangue, la struttura interna della ‘Ndrangheta viene suddivisa in due livelli: la “Società Minore”, di cui fanno parte picciotto, camorrista e sgarrista, e la “Società Maggiore” che prevede “doti” di santista, vangelo, quartino, quintino e associazione. Più cosche, legate tra loro, danno vita al “Locale”, che costituisce l’unità fondamentale di aggregazione mafiosa su un determinato territorio, quasi sempre coincidente con un villaggio o con un rione di una città. Per la costituzione del “Locale” è necessaria la presenza di almeno 49 affiliati. Ogni locale è diretto da una terna di ‘ndranghetisti, detta copiata, quasi sempre rappresentata dal capobastone, dal contabile e dal capocrimine.
Resumo:
In questa tesi è descritto il lavoro svolto presso un'azienda informatica locale, allo scopo di ricerca ed implementazione di un algoritmo per individuare ed offuscare i volti presenti all'interno di video di e-learning in ambito industriale, al fine di garantire la privacy degli operai presenti. Tale algoritmo sarebbe stato poi da includere in un modulo software da inserire all'interno di un applicazione web già esistente per la gestione di questi video. Si è ricercata una soluzione ad hoc considerando le caratteristiche particolare del problema in questione, studiando le principali tecniche della Computer Vision per comprendere meglio quale strada percorrere. Si è deciso quindi di implementare un algoritmo di Blob Tracking basato sul colore.
Resumo:
A partire dal 1986, nell’Olanda settentrionale si sta verificando un incremento di fenomeni sismici superficiali di medio-bassa intensità. Siccome la zona è considerata a basso rischio sismico, tali fenomeni sono legati all’estrazione di gas nella regione Groningen situata a nord-est del paese, la quale rappresenta il più grande giacimento d’Europa. Di conseguenza, si sono verificati danni ingenti sulle strutture che sorgono in zona, che di fatto non erano state progettate per resistere a forze orizzontali legate all’accelerazione del suolo. Ricercatori, aziende e università sono stati coinvolti nel progetto di ricerca finalizzato alla valutazione della vulnerabilità sismica delle costruzioni esistenti, in modo da poter avviare interventi di miglioramento o adeguamento sismico. A questo scopo, presso l’università tecnica di Delft sono stati svolti diversi test sperimentali e analitici su murature non rinforzate tipiche olandesi, che rappresentano la tipologia costruttiva più diffusa e si distinguono per la presenza di maschi murari snelli, grandi aperture e inadeguatezza delle connessioni tra gli elementi strutturali. Lo scopo della tesi è verificare l’adeguatezza del modello a telaio equivalente implementato nel software 3Muri per la modellazione di due tipiche case a schiera in muratura non rinforzata. Tali case, precedentemente ricostruite e testate in laboratorio attraverso un’analisi pushover, differiscono per metodologia costruttiva ed i materiali utilizzati.
Resumo:
Lo studio rappresenta uno screening primario di vari adsorbenti riguardo la loro capacità di rimuovere e recuperare l'ammonio dalle acque reflue urbane in base alla capacità e alla selettività. Sono state analizzate le prestazioni di diverse resine polimeriche e zeoliti e l'effetto di variabili come la temperatura, il pH, la concentrazione del mezzo adsorbente e la concentrazione iniziale di ammonio sull'efficienza di rimozione dell‘ammonio da acque sintetiche e da acque reflue urbane. Si tratta di uno dei primi tentativi di collocare un processo basato sull'adsorbimento all'interno di un impianto di trattamento delle acque reflue esistente per rimuovere e recuperare l'ammonio (NH4) dalle acque reflue urbane di scarico secondarie (MWW). Il processo proposto è stato caratterizzato da 4 aspetti importanti: I) Impiego di una resina a scambio ionico disponibile in commercio; II) Impiego di una zeolite naturale a basso costo e selettiva per il recupero dell'ammonio. III) Studio approfondito sulla selettività e la capacità di adsorbimento dei materiali adsorbenti in esame. IV) Realizzazione di un test di breakthrough completo per la rimozione dell'ammonio in modo continuo. V) Rigenerazione del materiale adsorbente e recupero dell'ammonio tramite test di desorbimento. I test su scala di laboratorio, che includevano due colonne in PVC per la rimozione di N-NH4 impaccate con la resine polimerica Amberlyst 15WET (disponibile in commercio) e la zeolite naturale (Cabasite-Phillipsite), sono andati con successo dopo 1 ciclo di adsorbimento/desorbimento trattando 40L di MWW effettivi (concentrazione media in ingresso di 45±1 mgNH4-N/L). La concentrazione di ammonio alla fine del desorbimento per la zeolite naturale era il doppio di quella di Amberlyst 15wet dimostrando che questa resina è una resina promettente nel processo di recupero dell'ammonio e sono necessari ulteriori sviluppi e ottimizzazioni.
Resumo:
Il catalizzatore studiato per questa reazione è principalmente l’ossido di titanio (TiO2) per la sua disponibilità. Le modifiche principali riguardano l’inserimento nella struttura della TiO2 di altri elementi, principalmente N, e la deposizione di particelle di metalli nobili come co-catalizzatori. In questo elaborato vengono studiate una serie di sintesi per via microemulsione (ME). L’introduzione di una base (NaOH o NH4OH) è stata utilizzata per produrre delle modifiche nella morfologia dei catalizzatori. Alcuni parametri operativi delle sintesi, quali: tempo di agitazione del precursore, agente neutralizzante e trattamenti a riflusso sono stati studiati. Ottimizzando le sintesi in ME è stato possibile ottenere polveri di TiO2 con densità inferiore al campione di riferimento prodotto per ME, con valori inferiori a 1 g/mL. Le dimensioni delle particelle sono state osservate e risultano anch’esse inferiori, solitamente sotto 10 nm. L’area superficiale delle polveri è di solito superiore a 100 m2/g. Ulteriori modifiche introdotte riguardano la presenza di N nella struttura della TiO2, che ha permesso un miglioramento nell’assorbimento di luce nello spettro visibile. Inoltre, sfruttando la versatilità delle ME è stato possibile mettere a punto delle sintesi che permettono la precipitazione di specie di Ag sotto forma di nanoparticelle, della dimensione di 1 nm. I catalizzatori sono poi stati testati in fotocatalisi eterogenea, usando condizioni pressione atmosferica, temperatura di 30°C e utilizzando come solvente acqua. L’attività catalitica dei campioni è risultata promettente e si pensa che ulteriori studi di ottimizzazione dei parametri delle sintesi possano portare a successivi miglioramenti. I catalizzatori prodotti per neutralizzazione hanno mostrato una maggiore reattività e tra questi, quello trattato con NaOH, per effetto sinergico della densità e delle dimensioni dei cristalliti, ha esibito un’attività superiore agli altri.
Resumo:
L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.
Resumo:
In questo elaborato vengono presentati i risultati di una attività sperimentale incentrata sulla ricerca di membrane a matrice mista per la separazione di gas da miscele. In questo lavoro viene descritta la preparazione di membrane in polisulfone e membrane a matrice mista polisulfone con ZIF-8 a quattro diversi caricamenti percentuali, PSf+ZIF-8 2%, 4%, 8% e 16%. Vengono anche esposti i risultati delle prove di caratterizzazione di tali membrane. E' stato condotto un esame attraverso microscopia elettronica a scansione (SEM) sulla sezione e sulla superficie delle cinque membrane. Sono esposti i risultati dei test di permeazione condotti attraverso un permeometro a volume costante. Le prove sono state fatte per tutte le membrane con sei diversi gas penetranti (H2, He, O2, CO2, CH4 e N2) a tre diverse temperature (35°C, 50°C e 65°C) ottenendo i valori dei coefficienti di permeabilità, solubilità e diffusività. Sono state calcolate le selettività ideali per ogni coppia di gas per tutte le membrane e le energie di attivazione. Sono stati fatti paragoni con i risultati di letteratura e ricercate correlazioni predittive per le proprietà di trasporto delle membrane in funzione di diversi parametri.
Resumo:
In questo lavoro, sono state valutate le prestazioni di quattro tipi di LDH (Co/Al e Co/Fe entrambe con e senza GO nella soluzione di elettrodeposizione) per l'applicazione in stoccaggio di energia, andando a confrontare le capacità specifiche calcolate da voltammetrie cicliche e curve galvanostatiche di carica/scarica. I risultati di tali analisi hanno mostrato come l’LDH a base di Al sia più adatto all’applicazione di accumulo di energia, rispetto a quello con il Fe. Ulteriori caratterizzazioni, come l’XRD ed il SEM accoppiato con l'EDX, hanno confermato la maggior applicabilità dei LDH di Co/Al rispetto a quelli di Co/Fe, in quanto i primi presentano: una struttura più cristallina, una morfologia più uniforme ed un’intercalazione dell’ERGO migliore. Dopo la fase di scelta dell’LDH più performante ci si è dedicati alla caratterizzazione di un capacitore ibrido operante in fase liquida. Concluse le analisi, si è notato come l’ERGO porti all'aumento delle prestazioni del sistema (risultato in linea con quello riscontrato tramite lo studio degli LDH come componenti catodici singoli). Grazie allo studio delle performance a lungo termine è stato possibile verificare come l’ERGO aumenti la stabilità del sistema quando si sottopone quest’ultimo a stress protratto nel tempo. Successivamente, si è proseguito con lo studio di un capacitore ibrido operante in fase solida. Come nel caso del sistema in fase liquida, si è riscontrato un aumento di performance dovuto alla presenza di ERGO nella struttura finale degli LDH.
Resumo:
Per determinare lo stato di un satellite ad ogni istante è necessario un propagatore orbitale, cioè un algoritmo che, partendo da condizioni iniziali note, calcola la traiettoria di un corpo in un intervallo di tempo arbitrario. L’orbita ottenuta è tuttavia soggetta ad errori numerici (errori di propagazione) ed incertezze. Queste ultime derivano da condizioni iniziali non precise, in quanto ricavate da osservazioni, soggette ad errori di misurazione, o ipotesi sui parametri dell’orbita e del corpo. Per questo motivo è importante utilizzare il propagatore anche per verificare l’evoluzione di tali incertezze nel tempo tramite un processo noto come analisi della covarianza. Questo processo permette di valutare l’entità dell’incertezza calcolandone la variazione rispetto allo stato iniziale a cui è generata e la rispondenza ai requisiti di missione. Lo scopo della tesi è l’incremento di precisione del propagatore orbitale esistente e lo sviluppo di strumenti per il supporto della missione LICIACube (Light Italian Cubesat for Imaging of Asteroids). In particolare, saranno implementati effetti secondari nel modello di propagazione ed uno strumento per la propagazione e conversione della rappresentazione di incertezze delle effemeridi. Questo permetterà la valutazione della precisione dell’orbita di Didymos e di LICIACube, dal suo rilascio fino al flyby. Per l’esportazione della traiettoria calcolata viene presentata una funzione che, tramite interpolazione, rappresenti l’orbita generata utilizzando un limitato spazio di memoria.
Resumo:
Il progetto del dottorato di ricerca ha permesso di estendere il lavoro svolto sul Sistema Informativo 3D del Cantiere della Fontana del Nettuno al fine di definire la struttura concettuale e i relativi contenuti tematici di una piattaforma open source in grado di sviluppare la documentazione di restauro, sia per opere complesse caratterizzate dalla presenza di molti materiali costitutivi, sia per interventi più semplici nel quale preservare memoria e fornire libero accesso ai dati. Il confronto tra il SI del Cantiere della Fontana del Nettuno con le attuali metodologie utilizzate in campo nazionale ed internazionale ha permesso di ampliare i lessici necessari per la documentazione grafica e testuale da effettuare su diverse classi di materiali, creando delle cartelle integrate da combinare in base ai materiali costitutivi delle opere da restaurare. Il lavoro ha permesso la redazione di un lessico specifico per i diversi materiali costitutivi fornendo una banca dati informatizzata di facile consultazione.
La produzione di valore tra passato e presente: peculiarità e implicazioni del progresso tecnologico
Resumo:
L'obiettivo di questa tesi è quello di analizzare la struttura della società odierna, alla luce delle influenze e modifiche apportate dall’avvento dell'informatica e mostrare come, in generale, il progresso tecnologico abbia profondamente cambiato il nostro modo di vivere. L'introduzione dei computer, l'avvento dell'era digitale e di internet hanno segnato un profondo cambiamento nella storia moderna. In questa tesi andremo prima ad analizzare il capitalismo cognitivo, che vede, al centro della produzione di valore, non più il tempo, ma la conoscenza. Verranno indagati ed esposti i vari aspetti e gli elementi fondamentali della nuova dimensione immateriale, che si è venuta a creare con l'avvento del mondo digitale. Successivamente, viene analizzata la nuova struttura delle imprese, come esse si sono evolute e come si dovrebbero evolvere, per ottimizzare le proprie risorse e adattarsi al nuovo sistema economico sociale. Particolare attenzione verrà posta al nuovo ruolo dei manager e alla produzione sociale. Nel terzo capitolo, vengono analizzati i cambiamenti che sono avvenuti negli ultimi anni all'interno della società; illustreremo il nuovo modo di lavorare, che prevede l'uomo affiancato costantemente dalla tecnologia, e l’apporto dell’intelligenza artificiale al cambiamento della società nei suoi diversi aspetti. Saranno esposte le nuove problematiche emergenti, sia in abito giuridico che etico, conseguenti alla creazione di scenari economico-sociali di cui, prima della rivoluzione tecnologica, non si immaginava nemmeno l'esistenza. Per concludere, vengono presentate le sfide che la politica deve e dovrà affrontare per controllare le nuove dinamiche economiche e le situazioni di monopolio globale che si sono create. Verranno analizzate problematiche e possibili soluzioni, nonché le implicazioni che il progresso tecnologico ha avuto sulla circolazione delle informazioni e di conseguenza sulla percezione della realtà da parte del consumatore.
Resumo:
L'obbiettivo della seguente tesi è quello di analizzare quali sono ad oggi i migliori framework per lo sviluppo di software in Mixed Reality e studiare i design pattern più utili ad uno sviluppatore in questo ambito. Nel primo capitolo vengono introdotti i concetti di realtà estesa, virtuale, aumentata e mista con le relative differenze. Inoltre vengono descritti i diversi dispositivi che consentono la realtà mista, in particolare i due visori più utilizzati: Microsoft Hololens 2 e Magic Leap 1. Nello stesso capitolo vengono presentati anche gli aspetti chiave nello sviluppo in realtà mista, cioè tutti gli elementi che consentono un'esperienza in Mixed Reality. Nel secondo capitolo vengono descritti i framework e i kit utili per lo sviluppo di applicazioni in realtà mista multi-piattaforma. In particolare vengono introdotti i due ambienti di sviluppo più utilizzati: Unity e Unreal Engine, già esistenti e non specifici per lo sviluppo in MR ma che diventano funzionali se integrati con kit specifici come Mixed Reality ToolKit. Nel terzo capitolo vengono trattati i design pattern, comuni o nativi per applicazioni in realtà estesa, utili per un buono sviluppo di applicazioni MR. Inoltre, vengono presi in esame alcuni dei principali pattern più utilizzati nella programmazione ad oggetti e si verifica se e come sono implementabili correttamente su Unity in uno scenario di realtà mista. Questa analisi risulta utile per capire se l'utilizzo dei framework di sviluppo, metodo comunemente più utilizzato, comporta dei limiti nella libertà di sviluppo del programmatore.
Resumo:
I materiali piezoelettrici sono una classe di materiali che hanno la capacità di convertire energia elettrica in meccanica, e viceversa. I piezoelettrici si suddividono in tre classi: naturarli, ceramici e polimerici. Quest'ultimi, seppur mostrando coefficienti piezoelettrici non elevati rispetto ai primi due, presentano grandi vantaggi in termini di proprietà meccaniche, essendo per esempio molto flessibili, grazie anche all'ausilio delle nanotecnologie. In questo elaborato si è utilizzato il PVDF-TrFE, un materiale polimerico, prodotto sotto forma di nanofibre tramite il processo di elettrofilatura. La struttura nanofibrosa incrementa le proprietà piezoelettriche, che dipendono dalla superficie totale del materiale, poiché massimizza il rapporto superficie/volume. Lo scopo dell'elaborato è quello di ottimizzare il processo di polarizzazione, e quindi incrementare la risposta elettromeccanica dei provini a seguito di una sollecitazione, applicando una tecnica innovativa. Questa prevede l'applicazione di un campo elettrico AC sinusoidale, partendo da un valor nullo fino a un valore massimo di regime, continuando successivamente con un campo in DC avente la stessa apiezza massima. Questa tecnica è stata applicata a differenti provini di PVDF-TrFE, variando alcuni parametri come frequenza, numero di cicli e temperatura. I valori misurati sono stati suddivisi in diversi grafici al variare della temperatura, mostrando notevoli miglioramenti rispetto alle tecniche già note di polarizzazione. È stata inoltre mostrata la struttura in scala nanometrica delle fibre, valutando così l'effetto della temperatura di esercizio sui provini durante il processo di polarizzazione.
Resumo:
Nella sede dell’azienda ospitante Alexide, si è ravvisata la mancanza di un sistema di controllo automatico da remoto dell’intero impianto di climatizzazione HVAC (Heating, Ventilation and Air Conditioning) utilizzato, e la soluzione migliore è risultata quella di attuare un processo di trasformazione della struttura in uno smart building. Ho quindi eseguito questa procedura di trasformazione digitale progettando e sviluppando un sistema distribuito in grado di gestire una serie di dati provenienti in tempo reale da sensori ambientali. L’architettura del sistema progettato è stata sviluppata in C# su ambiente dotNET, dove sono stati collezionati i dati necessari per il funzionamento del modello di predizione. Nella fattispecie sono stati utilizzati i dati provenienti dall’HVAC, da un sensore di temperatura interna dell'edificio e dal fotovoltaico installato nella struttura. La comunicazione tra il sistema distribuito e l’entità dell’HVAC avviene mediante il canale di comunicazione ModBus, mentre per quanto riguarda i dati della temperatura interna e del fotovoltaico questi vengono collezionati da sensori che inviano le informazioni sfruttando un canale di comunicazione che utilizza il protocollo MQTT, e lo stesso viene utilizzato come principale metodo di comunicazione all’interno del sistema, appoggiandosi ad un broker di messaggistica con modello publish/subscribe. L'automatizzazione del sistema è dovuta anche all'utilizzo di un modello di predizione con lo scopo di predire in maniera quanto più accurata possibile la temperatura interna all'edificio delle ore future. Per quanto riguarda il modello di predizione da me implementato e integrato nel sistema la scelta è stata quella di ispirarmi ad un modello ideato da Google nel 2014 ovvero il Sequence to Sequence. Il modello sviluppato si struttura come un encoder-decoder che utilizza le RNN, in particolare le reti LSTM.