282 resultados para FRP, Cerniera plastica, Analisi Non Lineari, SeismoStruct
Resumo:
Nel campo dell’industria chimica la ricerca si è mossa in direzione di rendere i processi più sostenibili. Ciò viene effettuato considerando le linee guida della green chemistry. In questo contesto si colloca la metodologia LCA che valuta l’impatto ambientale associato ad un processo o un prodotto, comprendendo tutto il suo ciclo di vita. Nel presente lavoro di tesi si studia l’applicazione della LCA alla sintesi industriale di anidride maleica (AM), che viene ottenuta tramite reazione di ossidazione del benzene o dell’n-butano. Nello studio si sono modellate tre diverse vie di sintesi dell’AM considerando il processo di produzione che parte da benzene e il processo di produzione da butano con due diversi tipi di reattore: il letto fisso e il letto fluido (processo ALMA). Negli scenari si considerano le fasi di produzione dei reagenti e si è modellata la fase della reazione di ossidazione e l’incenerimento dei sottoprodotti e del reagente non convertito. Confrontando i tre processi, emerge che al processo che parte da benzene sono associati gli impatti globali maggiori mentre il processo ALMA ha un minore carico ambientale. Il processo da benzene risulta avere maggiori impatti per le categorie Cambiamento climatico, Formazione di particolato e Consumo dei metalli. Il processo da butano a tecnologia a letto fisso presenta invece maggiori impatti per le categorie Tossicità umana e Consumo di combustibili fossili, dovuti alla maggiore richiesta energetica effettuata dal processo di ossidazione del butano con tecnologia a letto fisso e alla richiesta di combustibile ausiliario per la fase di incenerimento. Tale risultato emerge anche dall’analisi effettuata con il Cumulative Energy Demand. Al processo ALMA sono associati gli impatti inferiori in assoluto, nonostante abbia una resa inferiore al processo che utilizza il letto fisso. I risultati dell’analisi LCA sono stati confermati dall’analisi delle incertezze, realizzata con il metodo statistico Monte Carlo.
Resumo:
Il collasso di diverse colonne, caratterizzate da danneggiamenti simili, quali ampie fessure fortemente inclinate ad entrambe le estremità dell’elemento, lo schiacciamento del calcestruzzo e l’instabilità dei ferri longitudinali, ha portato ad interrogarsi riguardo gli effetti dell’interazione tra lo sforzo normale, il taglio ed il momento flettente. Lo studio è iniziato con una ricerca bibliografica che ha evidenziato una sostanziale carenza nella trattazione dell’argomento. Il problema è stato approcciato attraverso una ricerca di formule della scienza delle costruzioni, allo scopo di mettere in relazione lo sforzo assiale, il taglio ed il momento; la ricerca si è principalmente concentrata sulla teoria di Mohr. In un primo momento è stata considerata l’interazione tra solo due componenti di sollecitazione: sforzo assiale e taglio. L’analisi ha condotto alla costruzione di un dominio elastico di taglio e sforzo assiale che, confrontato con il dominio della Modified Compression Field Theory, trovata tramite ricerca bibliografica, ha permesso di concludere che i risultati sono assolutamente paragonabili. L’analisi si è poi orientata verso l’interazione tra sforzo assiale, taglio e momento flettente. Imponendo due criteri di rottura, il raggiungimento della resistenza a trazione ed a compressione del calcestruzzo, inserendo le componenti di sollecitazione tramite le formule di Navier e Jourawsky, sono state definite due formule che mettono in relazione le tre azioni e che, implementate nel software Matlab, hanno permesso la costruzione di un dominio tridimensionale. In questo caso non è stato possibile confrontare i risultati, non avendo la ricerca bibliografica mostrato niente di paragonabile. Lo studio si è poi concentrato sullo sviluppo di una procedura che tenta di analizzare il comportamento di una sezione sottoposta a sforzo normale, taglio e momento: è stato sviluppato un modello a fibre della sezione nel tentativo di condurre un calcolo non lineare, corrispondente ad una sequenza di analisi lineari. La procedura è stata applicata a casi reali di crollo, confermando l’avvenimento dei collassi.
Resumo:
In letteratura sono presenti numerosi studi che descrivono i fattori che influenzano la vita a fatica di un laminato in CFRP e le modalità di propagazione ed accrescimento a fatica di un difetto. Tuttavia non sono presenti studi approfonditi che leghino l’effetto che può avere la grammatura, sulla vita a fatica del laminato. Il lavoro sperimentale oggetto di questa tesi vuole intendersi un lavoro preliminare, a carattere esplorativo, sullo studio della sensibilità della grammatura sulla resistenza a fatica di laminati in CFRP, attraverso test di flessione a fatica su due configurazioni di provini di grammature differenti (600 e 800 gr/m^2), con e senza inserimento di un difetto artificiale rappresentato da un intaglio sugli ultimi strati del laminato e test di flessione eseguito in accordo allo standard ASTM D2344/D2344M. I test a fatica hanno evidenziato una sensibile riduzione della vita per i provini senza difetto realizzati con l’800 gr/m^2 rispetto a quelli realizzati con il 600 gr/m^2. Per quanto concerne la tolleranza al danno, i provini realizzati con 600 gr/m^2 hanno evidenziato una sensibilità maggiore all’effetto di intaglio, pur avendo un comportamento migliore rispetto a quelli realizzati con l’800 gr/m^2.
Resumo:
Nell’ambito del nuoto, la scelta della strumentazione è legata all’ambiente, il metodo più utilizzato per analizzare il movimento degli atleti, ancora oggi, è quello dell’analisi video, che utilizza videocamere subacquee. L’analisi video in acqua ha diversi limiti: presenta errori legati alla turbolenza e alla rifrazione aria/acqua, necessità di elevati tempi sia per la calibrazione sia per l’elaborazione dei dati, non consente un feedback in tempo reale e quindi non fornisce informazioni immediate all’allenatore e ha costi elevati. Da qui la necessità di investigare altri metodi. Il metodo alternativo proposto, per la prima volta da Oghi et al. nel 2000 utilizza i sensori inerziali (IMU- Inertial Measurements Units) che possono essere indossati dall’atleta, previa impermeabilizzazione. Non sono invasivi e non limitano eccessivamente il movimento, non richiedono un setup di calibrazione complesso e hanno costi ridotti. Per questo elaborato sono stati stimati i parametri che vengono tipicamente utilizzati dagli allenatori per valutare le performance degli atleti durante l’allenamento: parametri temporali legati alle fasi della bracciata e la velocità istantanea. Sono state effettuate prove sul campo, presso il Laboratorio di Biomeccanica della Scuola di Farmacia, Biotecnologie e Scienze Motorie, situato nella palestra Record del CUSB di Bologna.
Resumo:
Studio ed analisi delle principali tecniche in ambito di Social Data Analysis. Progettazione e Realizzazione di una soluzione software implementata con linguaggio Java in ambiente Eclipse. Il software realizzato permette di integrare differenti servizi di API REST, per l'estrazione di dati sociali da Twitter, la loro memorizzazione in un database non-relazionale (realizzato con MongoDB), e la loro gestione. Inoltre permette di effettuare operazioni di classificazione di topic, e di analizzare dati complessivi sulle collection di dati estratti. Infine permette di visualizzare un albero delle "ricondivisioni", partendo da singoli tweet selezionati, ed una mappa geo-localizzata, contenente gli utenti coinvolti nella catena di ricondivisioni, e i relativi archi di "retweet".
Resumo:
L’obiettivo del lavoro è stato quello di definire la filiera di smaltimento dei rifiuti di plastica di origine domestica. La modellazione della stessa ha preso come riferimento un insieme di informazioni rese disponibili dal CONAI, Consorzio Nazionale degli Imballaggi. Noti gli attori e le attività svolte al fine dell’avvio a recupero della frazione raccolta, è stato sviluppato un modello economico adeguato al fine di ripartire i costi delle attività in funzione della gestione del materiale. Tale modellazione non prende in esame le spese e gli introiti allocati al Consorzio, ma si focalizza sulle attività di raccolta, selezione e avvio a recupero. Ci si è poi concentrati sulla modellazione economica dell’avvio a recupero della frazione di plastica raccolta dal Comune di Bologna. Ripartendo la responsabilità di gestione tra il gestore del servizio (Hera), il Centro Comprensoriale (CC Akron Granarolo), i Centri di Selezione (CSS Argeco e Idealservice) e i riciclatori (tra quelli convenzionati al consorzio) si è definito il modello economico per il caso in esame. In particolare, si è adottato un approccio simulativo di allocazione del materiale selezionato in vista della modalità di vendita di alcuni prodotti tramite asta online. La quantificazione economica in sé risente di assunzioni definite per la determinazione di una componente di costo che possa essere il può possibile esaustiva delle operazioni svolte. Si è poi proceduto definendo una stima della quantità di diossido di carbonio prodotta in fase di combustione di carburante per la movimentazione dei flussi del caso di studio. I valori in esame sono stati desunti come prodotto tra la quantità di CO2 emessa per i chilometri percorsi a seconda della tipologia di mezzo adottata per la movimentazione dei flussi. I dati relativi alle quantità di anidrite carbonica prodotte sono stime in grammi di CO2 al chilometro realizzate da Arpa e distinte in funzione delle soluzioni tecnologiche da implementare secondo le disposizioni redatte dalla Comunità Europea. La nota metodologica adottata prevede di analizzare i risultati ottenuti in funzione della distanza percorsa, dei costi di trasporto e della quantità di CO2 generata per le attività.
Resumo:
In questo elaborato tratterò il tema della comunicazione non verbale in ambito didattico. Nella prima parte parlerò della comunicazione non verbale e ne presenterò le diverse categorie. Nella seconda parte fornirò delle analisi del linguaggio non verbale della figura dell'insegnante, allo scopo di dimostrare come i codici non verbali incidano nella trasmissione del sapere e siano quindi uno strumento didattico molto importante. Infine tratterò la questione dell'apprendimento dei tratti non verbali tipici di una cultura da parte di studenti di lingua straniera.
Resumo:
In questa tesi viene proposta un'analisi di tipo politolinguistico di una selezione di discorsi pronunciati dal politico inglese Nigel Farage. Alla fine degli anni 90 dello scorso secolo il linguista tedesco Armin Burkhardt ha proposto un nuovo metodo di analisi linguistica andatosi ad integrare agli studi classici relativi al discorso politico, alla retorica e all'analisi del contenuto. Mediante tale approccio transdisciplinare è possibile avvalersi degli strumenti di analisi forniti dalla linguistica e dallo studio del discorso, così come dei metodi di ricerca impiegati nei campi della scienza politica, della sociolinguistica e della retorica politica, fornendo un quadro analitico più complesso ed articolato. Nella presente tesi non solo vengono identificate le peculiarità della retorica del leader euroscettica, bensì viene effettuata un'analisi sia linguistica che contestuale, affrontando le tematiche del pensiero euroscettico e la sua tradizione in Inghilterra, identificando i temi principali trattati da Farage nei suoi discorsi. Individuato l'ambito di studio, viene poi proposta un'analisi di tipo sia quantitativo che qualitativo delle tecniche discorsive di Farage, partendo dalla descrizione del linguaggio e della retorica in generale sino all'identificazione delle strategie più efficaci all'ottenimento del consenso presso l'opinione pubblica in materia economica ed europea.
Resumo:
La brain computer interface sono state create per sopperire ai problemi motori e di linguistica nei pazienti che, a causa di malattie neurodegenerative o in seguito a traumi, sono paralizzate o non riescono a parlare. Vengono prese in questione le caratteristiche di un sistema per le BCI analizzando ogni blocco funzionale del sistema. Si fa visione delle applicazioni tra le quali la possibilità di far muovere un arto bionico a una donna tetraplegica e la possibilità di far scrivere una parola su uno schermo a un paziente non in grado di comunicare verbalmente. Si mettono in luce i problemi annessi a questo campo e i possibili sviluppi.
Resumo:
La trasformata di Fourier (FT) è uno strumento molto potente implementato, oggi, in un enorme numero di tecnologie. Il suo primo esempio di applicazione fu proprio il campionamento e la digitalizzazione di segnali analogici. Nel tempo l'utilizzo della FT è stato ampliato a più orizzonti in ambito digitale, basti pensare che il formato di compressione '.jpg' utilizza una FT bidimensionale, mentre uno degli ultimi esempi di applicazione si ha nell'imaging digitale in ambito medico (risonanza magnetica nucleare, tomografia assiale computerizzata TAC ecc...). Nonostante gli utilizzi della FT siano molto diversificati il suo basilare funzionamento non è mai cambiato: essa non fa altro che modificare il dominio di una funzione del tempo (un segnale) in un dominio delle frequenze, permettendo così lo studio della composizione in termini di frequenza, ampiezza e fase del segnale stesso. Parallelamente all'evoluzione in termini di applicazioni si è sviluppato uno studio volto a migliorare e ottimizzare la computazione della stessa, data l'esponenziale crescita del suo utilizzo. In questa trattazione si vuole analizzare uno degli algoritmi di ottimizzazione più celebri e utilizzati in tal senso: la trasformata veloce di Fourier (Fast Fourier Transformation o FFT). Si delineeranno quindi le caratteristiche salienti della FT, e verrà introdotto l'algoritmo di computazione tramite linguaggio C++ dedicando particolare attenzione ai limiti di applicazione di tale algoritmo e a come poter modificare opportunamente la nostra funzione in modo da ricondurci entro i limiti di validità.
Resumo:
Negli ultimi anni i dati, la loro gestione e gli strumenti per la loro analisi hanno subito una trasformazione. Si è visto un notevole aumento dei dati raccolti dagli utenti, che si aggira tra il 40 e il 60 percento annuo, grazie ad applicazioni web, sensori, ecc.. Ciò ha fatto nascere il termine Big Data, con il quale ci si riferisce a dataset talmente grandi che non sono gestibili da sistemi tradizionali, come DBMS relazionali in esecuzione su una singola macchina. Infatti, quando la dimensione di un dataset supera pochi terabyte, si è obbligati ad utilizzare un sistema distribuito, in cui i dati sono partizionati su più macchine. Per gestire i Big Data sono state create tecnologie che riescono ad usare la potenza computazionale e la capacità di memorizzazione di un cluster, con un incremento prestazionale proporzionale al numero di macchine presenti sullo stesso. Il più utilizzato di questi sistemi è Hadoop, che offre un sistema per la memorizzazione e l’analisi distribuita dei dati. Grazie alla ridondanza dei dati ed a sofisticati algoritmi, Hadoop riesce a funzionare anche in caso di fallimento di uno o più macchine del cluster, in modo trasparente all’utente. Su Hadoop si possono eseguire diverse applicazioni, tra cui MapReduce, Hive e Apache Spark. É su quest’ultima applicazione, nata per il data processing, che è maggiormente incentrato il progetto di tesi. Un modulo di Spark, chiamato Spark SQL, verrà posto in confronto ad Hive nella velocità e nella flessibilità nell’eseguire interrogazioni su database memorizzati sul filesystem distribuito di Hadoop.
Resumo:
Nella presente tesi, di argomento astrofisico, sono esaminati gli ammassi di galassie (galaxy clusters), ovvero gli oggetti virializzati più grandi dell’Universo. Attraverso una introduttiva analisi morfologica vengono descritte le proprietà di luminosità in banda X e radio dovute alle galassie che li compongono ed al caldo gas intergalattico (ICM IntraCluster Medium) tra queste interposto. In particolare è presa in esame l’emissione radio diffusa di natura non termica di sottostrutture del gas, note con il nome di Aloni, relitti e mini-aloni. Nei capitoli II e III l’attenzione si concentra sul non facile problema della determinazione della massa di un ammasso, proprietà che costituisce il principale oggetto di studio del presente lavoro, passando in rassegna e descrivendo i metodi più utilizzati: analisi dinamica delle galassie (equazione di Jeans ed equazione del viriale), osservazioni in banda X dell’ICM, weak lensing (WL), strong lensing (SL) ed infine WL e SL accoppiati. Una analisi critica ed un confronto tra questi metodi è sviluppata nel capitolo IV, prendendo in considerazione l’ammasso RCS2327. Il conclusivo capitolo V racchiude e collega gli argomenti delle sezioni precedenti cercando una possibile correlazione tra le proprietà emissive non termiche (in banda radio) e le masse di un campione di 28 ammassi, determinate mediante tecnica di weak lensing e strong lensing accoppiate.
Resumo:
In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.
Resumo:
La tesi affronta tematiche relative al rilievo di un aggregato edilizio, all'analisi della consistenza e dei quadri fessurativi, ai criteri di lettura dei cinematismi e alle procedure di consolidamento. Vengono, inoltre, proposte strategie di progetto, finalizzate al riuso e all'auto-mantenimento sostenibile del medesimo sistema architettonico attraverso sequenze logiche e concatenate di decisioni operative, sulla base di esigenze, criticità e requisiti emersi.
Resumo:
Il lavoro svolto nella zona di Vareš, in particolare nella zona del lago di Veovača ha investigato diverse matrici ambientali (sedimenti, suoli, acque) per valutare le loro caratteristiche e la loro qualità. Nella zona è stata presente in passato attività estrattiva e di lavorazione dei minerali estratti, da qui la necessità di questo studio esplorativo. Il lavoro svolto si divide in tre fasi: campionamento, svolto in quattro giorni passati in campagna; analisi dei campioni raccolti e interpretazione dei risultati. Sono state campionate acque e sedimenti in punti interni al lago, altri in corrispondenza delle sue sponde e punti lungo la diga. Sul materiale solido sono state svolte analisi di spettrometria di fluorescenza a raggi X, mentre sulle acque sono state applicate tecniche di spettrometria di assorbimento atomico (AAS), spettrometria di emissione al plasma induttivamente accoppiato (ICP-AES) e cromatografia ionica oltre che a misure di parametri chimico-fisici in campo. Sono stati poi valutati i risultati, attraverso il confronto con banche dati di riferimento ed elaborazioni statistiche e grafiche. Si tratta di uno studio preliminare effettuato su un piccolo numero di campioni e perciò solo indicativo e non in grado di fornire risposte definitive sulla condizione ambientale dell'area. Tuttavia queste prime informazioni consentono di delineare un quadro nel quale future indagini potranno approfondire aspetti e problemi critici per la qualità ambientale.