1000 resultados para Piccole e medie imprese - Rischi - Valutazione - Modelli econometrici
Resumo:
L’obiettivo della presente tesi è analizzare, attraverso una campagna sperimentale, gli effetti dell’invecchiamento termico su materiali compositi avanzati. Due serie di provini, ottenuti da pannelli di fibra di carbonio/resina epossidica realizzati rispettivamente con le tecniche di produzione tramite laminazione manuale e RTM (Resin Transfer Molding), sono stati condizionati in forno o in congelatore per un determinato tempo e successivamente sottoposti a test di caratterizzazione meccanica. In questo modo sono state confrontate le prestazioni delle due tecnologie al fine di verificare l’applicabilità del processo RTM a prodotti di alta qualità. I campioni, impiegati nel presente studio, sono stati realizzati scegliendo una configurazione cross-ply, che ben si adatta alle successive fasi della campagna. Sui provini ottenuti sono stati eseguiti dei test di resistenza alla delaminazione tramite una pressa con supporti adattati appositamente allo scopo. Questa campagna sperimentale è stata svolta presso i laboratori hangar della Scuola di Ingegneria e Architettura dell’Università di Bologna, sede di Forlì. La caratterizzazione del materiale è avvenuta mediante prove a flessione D2344.
Resumo:
Il presente lavoro si prefigge come scopo la validazione e successiva taratura dei modelli di cavitazione di Merkle e Kunz, basati sulla modellazione del trasferimento di massa, implementati nel software OpenFOAM. Lo studio riguarda la fluidodinamica computazionale. L'operazione di taratura e condotta dall'utente variando i parametri liberi dei vari modelli, con lo scopo di avvicinare il risultato computazionale a quello sperimentale.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.
Resumo:
La tesi si propone di esaminare i vari protocolli utilizzati per valutare le proprietà sterilizzanti di diverse sorgenti di plasma.
Resumo:
Dall'analisi dei big data si possono trarre degli enormi benefici in svariati ambiti applicativi. Uno dei fattori principali che contribuisce alla ricchezza dei big data, consiste nell'uso non previsto a priori di dati immagazzinati in precedenza, anche in congiunzione con altri dataset eterogenei: questo permette di trovare correlazioni significative e inaspettate tra i dati. Proprio per questo, il Valore, che il dato potenzialmente porta con sè, stimola le organizzazioni a raccogliere e immagazzinare sempre più dati e a ricercare approcci innovativi e originali per effettuare analisi su di essi. L’uso fortemente innovativo che viene fatto dei big data in questo senso e i requisiti tecnologici richiesti per gestirli hanno aperto importanti problematiche in materia di sicurezza e privacy, tali da rendere inadeguati o difficilmente gestibili, gli strumenti di sicurezza utilizzati finora nei sistemi tradizionali. Con questo lavoro di tesi si intende analizzare molteplici aspetti della sicurezza in ambito big data e offrire un possibile approccio alla sicurezza dei dati. In primo luogo, la tesi si occupa di comprendere quali sono le principali minacce introdotte dai big data in ambito di privacy, valutando la fattibilità delle contromisure presenti all’attuale stato dell’arte. Tra queste anche il controllo dell’accesso ha riscontrato notevoli sfide causate dalle necessità richieste dai big data: questo elaborato analizza pregi e difetti del controllo dell’accesso basato su attributi (ABAC), un modello attualmente oggetto di discussione nel dibattito inerente sicurezza e privacy nei big data. Per rendere attuabile ABAC in un contesto big data, risulta necessario l’ausilio di un supporto per assegnare gli attributi di visibilità alle informazioni da proteggere. L’obiettivo di questa tesi consiste nel valutare fattibilità, caratteristiche significative e limiti del machine learning come possibile approccio di utilizzo.
Resumo:
Negli ultimi anni l'utilizzo di ciclotroni per la produzione di radionuclidi, impiegati nell'ambito della Medicina Nucleare, è diventato un processo sempre più diffuso e numerosi sono i modelli commercialmente disponibili. L'impiego di questo tipo di apparecchiature porta a considerare questioni rilevanti legate alla radioprotezione che coinvolgono una serie di aspetti complessi sia nella fase progettuale del sistema, sia nell'ottenimento delle necessarie autorizzazioni. In particolare, uno dei problemi radioprotezionistici da affrontare è legato alla dispersione in ambiente di aeriformi radioattivi, prodotti dall'interazione di flussi di particelle secondarie con l'aria. In questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria dell'Ospedale Sant'Orsola di Bologna, si è cercato di caratterizzare l'emissione di tali gas radioattivi considerando l'effetto del sistema di ventilazione. E' stata eseguita un'estesa campagna di misurazioni in diversi punti di campionamento, collocati lungo il percorso di estrazione dell'aria: dal bunker fino all'immissione in ambiente. Sono stati ideati e realizzati dei compatti sistemi di campionamento che hanno permesso di definire, attraverso un sistema di spettrometria gamma equipaggiato con rivelatore al HPGe, una sistematica procedura per la determinazione di concentrazione di attività. I risultati ottenuti mostrano come, durante la routine di produzione di 18F mediante ciclotrone, il processo più rilevante di attivazione dell'aria sia la produzione di 41Ar (T1/2=109.34 minuti), unico radionuclide identificato in tutte le misurazioni. Infine, sulla base dei dati sperimentali ottenuti, è stata effettuata una valutazione della dose rilasciata alla popolazione locale. Il risultato, pari a 0.19 µSv/anno, può essere considerato trascurabile rispetto alla soglia di "non rilevanza radiologica", a dimostrazione di come le tipiche procedure in ambito di Medicina Nucleare possano essere considerate del tutto giustificate.
Resumo:
A partire dalle caratteristiche chiave dell’inquinamento acustico, lo scopo della tesi è stato quello di valutare quantitativamente l’entità del rumore aeronautico prodotto dall'aeroporto Marconi e di analizzare le soluzioni tecniche e gestionali disponibili per definire misure adeguate alle caratteristiche infrastrutturali e operative dello scalo e capaci di mitigare il disturbo subito dalla popolazione. Si è tenuto conto delle profonde modificazioni in atto nel mondo dell’aviazione, il quale, avendo come obiettivo quello di fornire un servizio di trasporto sempre più sostenibile, efficace, competitivo e omogeneo sul territorio europeo, sollecita profonde innovazioni nei requisiti funzionali e tecnici. Inizialmente l’attenzione è stata rivolta alla descrizione del rumore aeronautico e del contesto in cui è inserito, soffermandosi sul concetto di sostenibilità di un’infrastruttura di trasporto. Si è proseguito con un'analisi dettagliata della normativa vigente, italiana ed europea, al fine di affrontare gli aspetti legislativi del problema e di delineare le line guida per la valutazione del rumore. Segue uno studio, dal punto di vista tecnico e infrastrutturale, dell’evoluzione della navigazione aerea e del concetto innovativo di performance based navigation, focalizzando l’interesse sul curved approach, procedura di avvicinamento non convenzionale. L'attenzione è stata, poi, dedicata alla descrizione del caso di studio e alla presentazione della metodologia usata. Mediante il supporto dell’INM, sono state determinate le curve isofoniche, quantificando la popolazione esposta a specifici livelli di rumore aeronautico per lo scenario consuntivo dell’anno 2015. Infine, sono state eseguite simulazioni future, sulla base delle previsioni di crescita del volume di traffico aereo, per definire un limite massimo per lo sfruttamento del sistema ILS in testata 30 e per valutare il beneficio generato dall’introduzione del curved approach.
Resumo:
L’obbiettivo ultimo di questo elaborato è quello di valutare il rischio per un evento sismico e un evento idrogeologico di tre reti di condotte per la distribuzione dell’acqua, per poter assegnare ai vari gradi di rischio un opportuno intervento. Le condotte delle reti sono identificate con: ID, materiale, pressione nominale, diametro nominale, portata, spessore, tipologia di giunti, rivestimento, protezione catodica, anno di posa, collocazione. Noti i dati, si possono calcolare le classi dei fattori vulnerabilità, esposizione e pericolosità, relativa ad ogni singola condotta e all’intera rete. La vulnerabilità valuta i fattori di suscettibilità e resilienza di una condotta, l’esposizione valuta i costi ad essa associati e la pericolosità valuta la possibilità degli eventi scelti in base alla collocazione fisica della condotta. Le classi sono successivamente combinate per conoscere il rischio della condotta rispetto l’intera rete. Valutato il livello di rischio abbinato al livello di vulnerabilità della condotta, si ottiene l’intervento opportuno per la condotta analizzata.
Resumo:
La presente tesi analizza il comportamento tenuto dagli utenti nel percorrere intersezioni a T particolari, nelle quali la precedenza è associata alla corrente veicolare secondaria e non a quella principale. Sono state scelte due intersezioni ubicate all'interno del territorio comunale della provincia di Bologna e sono state svolte le riprese video di un campione significativo di utenti, a cui è seguito un calcolo delle velocità di attraversamento di ciascuna intersezione. L’intento è quello di individuare le caratteristiche che rendono la progettazione di un tratto stradale una buona progettazione, capace di garantire un livello appropriato di sicurezza e comfort per l’utente. Dall’analisi delle velocità, è emerso che gli utenti sottoposti ad una segnaletica chiara ed evidente prestavano un’attenzione molto maggiore rispetto a coloro che non hanno percepito le regole di precedenza a causa di una conformazione sbagliata dell’incrocio. I primi infatti hanno tenuto una velocità di attraversamento inferiore rispetto ai secondi, pur essendo in entrambi i casi veicoli provenienti da strada senza diritto di precedenza.
Resumo:
La tesi riguarda la valutazione pratica su come la segnaletica temporanea di cantiere viene percepita dagli utenti della strada, mediante l'utilizzo di due strumentazioni distinte, il Mobile Eye Detector per capire i segnali che il conducente vede, guarda o non vede ed il Video V-Box Pro per capire il comportamento attuato dal conducente in conseguenza della lettura della segnaletica di cantiere.
Resumo:
La simulazione è definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo “simulare”, come la riproduzione di qualcosa di fittizio, irreale, come se in realtà, lo fosse. La simulazione ci permette di modellare la realtà ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilità delle condizioni. I modelli di simulazione possono raggiungere un grado di espressività estremamente elevato, difficilmente un solo calcolatore potrà soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, è incrementare la capacità computazionale tramite un’architettura distribuita (sfruttando, ad esempio, le possibilità offerte dal cloud computing). Questa tesi si concentrerà su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre più rilevanza: l’anonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come l’attuale Internet, non sia adatta a mantenere il rispetto di confidenzialità, integrità ed, in alcuni, disponibilità degli asset da noi utilizzati: nell’ambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilità di subire un attacco alla disponibilità delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.
Resumo:
In questo lavoro di tesi sono state impiegate le librerie grafiche OpenGL ES 2 per eseguire calcoli paralleli sulla GPU del Raspberry Pi. Sono stati affrontati e discussi concetti riguanrdati il calcolo parallelo, stream processing, GPGPU e le metriche di valutazione di algoritmi paralleli. Sono inoltre descritte le potenzialita e le limitazioni derivanti dall'impiego di OpenGL per implementare algoritmi paralleli. In particolare si e fatto riferimento all'algoritmo Seam Carving per il restringimento di immagini, realizzando e valutando una implementazione parallela di questo sul Raspberry Pi.
Resumo:
Lo scopo principale di questa tesi è la valutazione del comportamento globale e dei danni subiti da un edificio in muratura esistente utilizzando un recente programma di calcolo sviluppato appositamente per lo studio in campo non lineare delle strutture in muratura, attraverso una modellazione a telaio equivalente con macroelementi; direttamente connesso a quest’aspetto vi è la valutazione della vulnerabilità sismica dell’edificio stesso, mediante i coefficienti o parametri definiti per i diversi stati limite considerati.
Resumo:
La validità della legge di gravitazione di Newton, o ISL (dall'inglese inverse square law) è stata ampiamente dimostrata dalle osservazioni astronomiche nel sistema solare (raggio d'azione di circa 10^{7}- 10^{9} km). Gli esperimenti effettuati su scale geologiche (raggio d'azione tra cm e km), eredi dell'esperimento di Cavendish, sono stati capaci di fornire un valore sperimentale della costante G della ISL affetto però da un'incertezza consistente (la precisione con cui si conosce G è dell'ordine di grandezza di 10^{-4}). L'interesse nella determinazione di un valore più preciso della costante G è aumentato negli ultimi decenni, supportato dalla necessità di mettere alla prova nuove teorie di gravitazione non Newtoniane emergenti, e da un avanzamento tecnologico negli apparati di misura, che sono ora in grado di rilevare l'interazione gravitazionale anche su distanze molto brevi (al di sotto del mm). In questo elaborato vengono brevemente presentate alcune delle teorie avanzate negli ultimi decenni che hanno reso urgente la riduzione dell'incertezza sulla misura di G, elencando successivamente alcuni importanti esperimenti condotti per la determinazione di un valore di G ripercorrendone brevemente i metodi sperimentali seguiti. Tra gli esperimenti presentati, sono infine analizzati nel dettaglio due esperimenti significativi: La misura della costante gravitazionale effettuata a corto raggio con l'utilizzo di atomi freddi nell'ambito dell'esperimento MAGIA a Firenze, e l'osservazione della presunta variazione di G su scale temporali relativamente lunghe, effettuata mediante l'osservazione (della durata di 21 anni)della pulsar binaria PSR J1713+0747.