908 resultados para il business del riciclo
Resumo:
Negli anni la funzione dei social network è cambiata molte volte. Alle origini i social network erano uno strumento di connessione tra amici, ora sono siti internet in cui le persone mettono informazioni e quando un social network ha milioni di utenti, diventa un’incredibile sorgente di dati. Twitter è uno dei siti internet più visitati, e viene descritto come “the SMS of internet”, perchè è un social network che permette ai suoi utenti di inviare e leggere messaggi corti, di 140 caratteri, chiamati “tweets”. Con il passare del tempo Twitter `e diventato una fonte fondamentale di notizie. Il suo grande numero di utenti permette alle notizie di espandersi nella rete in modo virale. Molte persone hanno cercato di analizzare il potere dei tweet, come il contenuto positivo o negativo, mentre altri hanno cercato di capire se avessero un potere predittivo. In particolare nel mondo finanziario, sono state avviate molte ricerche per verificare l’esistenza di una effettiva correlazione tra i tweets e la fluttuazione del mercato azionario. L’effettiva presenza di tale relazione unita a un modello predittivo, potrebbe portare allo sviluppo di un modello che analizzando i tweets presenti nella rete, relativi a un titolo azionario, dia informazioni sulle future variazioni del titolo stesso. La nostra attenzione si è rivolata alla ricerca e validazione statistica di tale correlazione. Sono stati effettuati test su singole azioni, sulla base dei dati disponibili, poi estesi a tutto il dataset per vedere la tendenza generale e attribuire maggior valore al risultato. Questa ricerca è caratterizzata dal suo dataset di tweet che analizza un periodo di oltre 2 anni, uno dei periodi più lunghi mai analizzati. Si è cercato di fornire maggior valore ai risultati trovati tramite l’utilizzo di validazioni statistiche, come il “permutation test”, per validare la relazione tra tweets di un titolo con i relativi valori azionari, la rimozione di una percentuale di eventi importanti, per mostrare la dipendenza o indipendenza dei dati dagli eventi più evidenti dell’anno e il “granger causality test”, per capire la direzione di una previsione tra serie. Sono stati effettuati anche test con risultati fallimentari, dai quali si sono ricavate le direzioni per i futuri sviluppi di questa ricerca.
Resumo:
L'obiettivo di questo lavoro di tesi è realizzare e validare un modello del propulsore Allison 250 c18 realizzato in Simulink. In particolare utilizzando i dati provenienti da prove sperimentali effettuate al banco prova del laboratorio di Propulsione e macchine della Scuola di Ingegneria e Archittetura vengono dapprima create le mappe prestazionali dei singoli componenti. Esse sono poi implementate all'interno del modello in Simulink, realizzato con struttura modulare a blocchi permettendo il modellamento di ogni singolo componente del motore. Successivamente i dati provenienti dalle simulazioni sono confrontati con i dati sperimentali, riscontrando risultati soddisfacenti. In ultimo si riporta brevemente una descrizione della compilazione del modello da utilizzare in una interfaccia LabVIEW per verificarne il funzionamento del modello in real-time.
Resumo:
Questo lavoro di traduzione nasce dal mio interesse per la traduzione dall’arabo all’italiano. Purtroppo, attualmente non sono moltissimi i libri tradotti dall’arabo ed è ancora scarso (rispetto ad altri paesi) l’interesse verso la vera letteratura araba, ed in particolar modo verso il genere del racconto breve. Oggigiorno, gli scaffali delle maggiori librerie in Italia riservano un angusto spazio ai libri tradotti dall’arabo. Certo, molto è stato realizzato in comparazione alla prima metà del Novecento, grazie anche all’assegnazione del premio Nobel per la letteratura nel 1988 a Naguib Mahfouz, evento che ha incentivato l’interesse verso gli scrittori in lingua araba. Tuttavia, sono convinta che si può stimolare in misura maggiore la lettura di romanzi e racconti che provengono dal così chiamato “Mondo arabo”, in riferimento a una vasta area geografia che comprende diversi stati, con un differente patrimonio culturale ma accomunati dall’uso della stessa lingua. A questo scopo, ho scelto di tradurre due racconti brevi di due diversi autori, entrambi dall’Egitto tracciando inizialmente la nascita di questo genere sino a delineare il suo valore odierno. Si tratta di due racconti che si allontanano dal modello de Le Mille e una notte, e diversamente da quest’ultime non godono della stessa notorietà. Non presentano tratti di esotismo che tanto affascinano i lettori occidentali e non si inseriscono tra le ultime tendenze letterarie. Si tratta di racconti fuori dagli schemi classici proposti dei racconti arabi già tradotti. Per tali motivi ho deciso di tradurli, in quanto sono convinta fermamente che la letteratura araba non sia solamente Naguib Mahfouz o Khalil Gibran (autori eccezionali senza dubbio), ma sia ricca di molti altri scrittori ancora da essere scoperti.
Resumo:
Il cancro della prostata (PCa) è il tumore maligno non-cutaneo più diffuso tra gli uomini ed è il secondo tumore che miete più vittime nei paesi occidentali. La necessità di nuove tecniche non invasive per la diagnosi precoce del PCa è aumentata negli anni. 1H-MRS (proton magnetic resonance spectroscopy) e 1H-MRSI (proton magnetic resonance spectroscopy imaging) sono tecniche avanzate di spettroscopia in risonanza magnetica che permettono di individuare presenza di metaboliti come citrato, colina, creatina e in alcuni casi poliammine in uno o più voxel nel tessuto prostatico. L’abbondanza o l’assenza di uno di questi metaboliti rende possibile discriminare un tessuto sano da uno patologico. Le tecniche di spettroscopia RM sono correntemente utilizzate nella pratica clinica per cervello e fegato, con l’utilizzo di software dedicati per l’analisi degli spettri. La quantificazione di metaboliti nella prostata invece può risultare difficile a causa del basso rapporto segnale/rumore (SNR) degli spettri e del forte accoppiamento-j del citrato. Lo scopo principale di questo lavoro è di proporre un software prototipo per la quantificazione automatica di citrato, colina e creatina nella prostata. Lo sviluppo del programma e dei suoi algoritmi è stato portato avanti all’interno dell’IRST (Istituto Romagnolo per lo Studio e la cura dei Tumori) con l’aiuto dell’unità di fisica sanitaria. Il cuore del programma è un algoritmo iterativo per il fit degli spettri che fa uso di simulazioni MRS sviluppate con il pacchetto di librerie GAMMA in C++. L’accuratezza delle quantificazioni è stata testata con dei fantocci realizzati all’interno dei laboratori dell’istituto. Tutte le misure spettroscopiche sono state eseguite con il nuovo scanner Philips Ingenia 3T, una delle machine di risonanza magnetica più avanzate per applicazioni cliniche. Infine, dopo aver eseguito i test in vitro sui fantocci, sono stati acquisiti gli spettri delle prostate di alcuni volontari sani, per testare se il programma fosse in grado di lavorare in condizioni di basso SNR.
Resumo:
La continua e crescente esigenza da parte dei gestori delle reti stradali ed autostradali di contenere i costi di gestione e manutenzione, ha da tempo impegnato l'industria delle pavimentazioni nell'individuazione di metodi innovativi, in grado di aumentare la redditività dei budget predisposti per il ripristino della sede stradale. Il presente lavoro di tesi si propone di approfondire tale argomento e in particolare di indagare l’impiego di terre decoloranti esauste all'interno di miscele bituminose drenanti per strati di usura. Il riutilizzo di queste terre porterebbe a risparmiare risorse naturali come il filler calcareo e diminuire i volumi che vengono smaltiti in discarica. È stato osservato che il filler bentonitico digestato può essere utilizzato nel confezionamento di miscele bituminose per strati di usura drenanti e fonoassorbenti con prestazioni simili o addirittura superiori alle equivalenti con filler calcareo tradizionale. Le prove condotte non hanno evidenziato nessun deterioramento delle caratteristiche meccaniche. Si ricorda che sono necessari studi circa il drenaggio del legante e il comportamento a fatica delle miscele bituminose in relazione alle fasi di esercizio dei materiali. Sulla base delle considerazioni elaborate si può affermare che nel caso in esame l'impiego del filler bentonitico digestato consente di risparmiare una risorsa naturale come il filler calcareo, a parità di inerti e legante nella miscela. Inoltre, si ha un vantaggio dal punto di vista economico, poiché meno volumi di questo materiale vengono smaltiti in discarica.
Resumo:
Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.
Resumo:
Le funzioni generalizzate sono uno strumento matematico che trova la sua applicazione fisica quando si trattano problemi con discontinuità o singolarità. Risulta perciò necessario formulare una teoria in grado di descrivere completamente questi oggetti e le loro proprietà. Nella teoria delle funzioni generalizzate il problema del loro prodotto è tuttora aperto poiché non esiste un metodo univoco per dare la definizione tra questi oggetti. Lo scopo di questo elaborato è di presentare la teoria delle funzioni generalizzate e i problemi legati al loro prodotto per poi presentare due metodi per affrontarlo, con esempi e risultati di particolare interesse. Vengono mostrati infine alcuni esempi fisici dove la soluzione richiede l'utilizzo di questo apparato matematico vertendo soprattutto sullo stretto legame tra il prodotto di funzioni generalizzate e la procedura della rinormalizzazione nella teoria dei campi quantistici.
Resumo:
L'obbiettivo di questa tesi è quello di studiare alcune proprietà statistiche di un random walk su network. Dopo aver definito il concetto di network e di random walk su network, sono state studiate le caratteristiche dello stato stazionario di questo sistema, la loro dipendenza dalla topologia della rete e l'andamento del sistema verso l'equilibrio, con particolare interesse per la distribuzione delle fluttuazioni delle popolazioni sui differenti nodi, una volta raggiunto lo stato stazionario. In seguito, si è voluto osservare il comportamento del network sottoposto ad una forzatura costante, rappresentata da sorgenti e pozzi applicati in diversi nodi, e quindi la sua suscettività a perturbazioni esterne. Tramite alcune simulazioni al computer, viene provato che una forzatura esterna modifica in modo diverso lo stato del network in base alla topologia di quest'ultimo. Dai risultati si è trovato quali sono i nodi che, una volta perturbati, sono in grado di cambiare ampiamente lo stato generale del sistema e quali lo influenzano in minima parte.
Resumo:
La Ricerca Operativa è considerata una disciplina universitaria il cui insegnamento è previsto nei corsi di laurea di Ingegneria, Matematica e Informatica. Da qualche anno si è verificata una tendenza ad anticipare l'insegnamento della Ricerca Operativa ad un grado scolastico inferiore. In Gran Bretagna e negli Stati Uniti sono presenti organizzazioni molto attive nell'ambito della sua divulgazione e sono nati progetti importanti a livello didattico: corsi di formazione per i docenti, condivisione in rete di materiali e report delle esperienze effettuate. A partire dal 2012 anche nelle indagini internazionali OCSE-PISA si sono aggiunte due aree i cui obiettivi e contenuti si avvicinano alla Ricerca Operativa: financial literacy e problem solving. In Italia, dopo la riforma governativa Gelmini del 2008, sono presenti elementi di Ricerca Operativa solo nei programmi di matematica del quinto anno degli istituti tecnici commerciali e industriali. Tuttavia la Ricerca Operativa può svolgere un ruolo fondamentale nella formazione scientifica, innanzitutto per il suo ruolo di "ponte" tra la matematica e l'informatica, poi per l'importanza dello sviluppo della modellizzazione e per l'interdisciplinarietà della materia e lo stretto contatto con il mondo del lavoro. Inoltre, le esperienze documentate di didattica della Ricerca Operativa hanno potuto verificare l'importante ruolo motivazionale che possiede nei confronti degli studenti meno amanti della matematica. In questo lavoro di tesi si è interrogata la fattibilità di un percorso di Ricerca Operativa per una classe seconda liceo scientifico (anno in cui vengono svolte le indagini internazionali). Viene poi presentata la costruzione di una lezione di Programmazione Lineare che prevede una prima fase di modellizzazione del problema e una seconda fase di soluzione tramite il solutore di excel in laboratorio.
Resumo:
In questa tesi studiamo le proprietà fondamentali delle funzioni armoniche. Ricaviamo le formule di media mostrando alcune proprietà importanti, quali la disuguaglianza di Harnack, il teorema di Liouville, il principio del massimo debole e forte. Infine, illustriamo un criterio di risolubilità per il problema di Dirichlet per il Laplaciano in un arbitrario dominio limitato di R^n tramite un metodo noto come metodo di Perron per le funzioni subarmoniche.
Resumo:
Vista la crescente frequenza e gravità delle catastrofi naturali legate al clima negli ultimi anni, una risposta collettiva si rende più che mai necessaria. In particolare l’analisi delle evidenze storiche, confermate recentemente anche da alcune tempeste e mareggiate che hanno colpito la zona ravennate, mostra abbastanza chiaramente un quadro di ricorrenza che ha interessato l’area. Infatti i rischi costieri, potenzialmente presenti nell’area di studio considerata in questo lavoro, pur non essendo elevati come in altre zone italiane, sono però ad un livello tale che non può essere del tutto ignorato. Lo scopo è quindi quello di preparare al meglio i territori interessati, adattando gli edifici e le infrastrutture al fine di proteggere le opere, di limitarne i rischi di demolizione e di salvare vite umane in caso di un evento oltremodo critico. Ad oggi si sente l´esigenza di un approccio globale che tenga conto del problema della sicurezza in campo urbanistico, a partire dal disegno concettuale di qualsiasi edificio e indipendentemente dalla sua funzione. Gli obiettivi dei potenziali adattamenti infrastrutturali, visti i rischi costieri dell’area compresa tra Marina di Ravenna e Lido Adriano, sono: • di generare efficaci standard costruttivi e metodologie di progettazione per le infrastrutture che si trovano in zone vulnerabili; • di garantire la sicurezza dei cittadini e delle attività in tali zone; • di ridurre l'impatto socio-economico delle catastrofi naturali. In questa tesi, in particolare, si fornirà un quadro generale dell’area studio, si approfondirà il tema del rischio costiero andando ad analizzare quali sono i rischi potenziali dell’area ed, all’interno di essa, le zone maggiormente in pericolo; si proporrà un metodo di valutazione economica degli stabilimenti balneari e della spiaggia ed infine si analizzeranno i principali adattamenti alle infrastrutture realizzabili.
Resumo:
La tesi affronta la tematica dei problemi cardiaci riscontrati in alcuni pazienti, a seguito del trattamento sanitario con procedure chemioterapiche. In particolar modo si concentra sugli effetti collaterali derivanti dalle cure somministrate ad individui affetti da tumori mammari, che, a causa di questa condizione, subiscono terapie mirate a livello del torace. La cardiotossicità che si presenta nei casi precedentemente indicati è di tipo acuto, o cronico. Il lavoro si prefigge lo scopo di analizzare una metodologia che identifichi e riscontri in tempo il manifestarsi della cardiotossicità, basandosi su alcuni sintomi e segnali, per evitare il manifestarsi del tipo cronico. Per raggiungere questo obiettivo si è studiato l'utilizzo di apparecchiature per l’ecocardiografia, che sono poco invasive e presentano una quantità di effetti collaterali estremamente ridotta. L’elaborato è suddiviso in quattro capitoli: 1. Il primo capitolo è dedicato al "Cuore". Nei diversi sottocapitoli ci si concentra sulla parte anatomica e sulla fisiologia dello stesso. Il sottocapitolo più importante è quello sulla "Cardiotossicità", tema centrale del lavoro, in cui sono spiegati i meccanismi con cui si manifesta, quali farmaci la causano e per quali motivi. 2. Il secondo capitolo si occupa dell’apparecchiatura usata durante lo studio del cuore, cioè l'ecografo. Dopo una breve introduzione sulle proprietà fisiche degli ultrasuoni, ci si concentra sulla struttura dell’apparecchiatura. In particolare ci si focalizza sugli strumenti per ecografie cardiache volumetriche. 3. Il terzo capitolo è dedicato al software TOMTEC. Si descrive in quali modalità si utilizza, in che maniera, e quali parametri identifica per l'eventuale riscontro di episodi di cardiotossicità. In uno dei sottocapitoli è descritto nel dettaglio il database creato dall’autrice per la raccolta dei dati relativi ai pazienti trattati. 4. L'ultimo capitolo è dedicato alla conclusioni, in cui si sottolinea l'importanza della ricerca di meccanismi per prevenire l'insorgere di malattie cardiache in pazienti già sottoposti a pesanti cicli di terapia.
Resumo:
Il lavoro svolto in questa tesi è legato allo studio ed alla formulazione di metodi computazionali volti all’eliminazione del noise (rumore) presente nelle immagini, cioè il processo di “denoising” che è quello di ricostruire un’immagine corrotta da rumore avendo a disposizione una conoscenza a priori del fenomeno di degrado. Il problema del denoising è formulato come un problema di minimo di un funzionale dato dalla somma di una funzione che rappresenta l’adattamento dei dati e la Variazione Totale. I metodi di denoising di immagini saranno affrontati attraverso tecniche basate sullo split Bregman e la Total Variation (TV) pesata che è un problema mal condizionato, cioè un problema sensibile a piccole perturbazioni sui dati. Queste tecniche permettono di ottimizzare dal punto di vista della visualizzazione le immagini in esame.
Resumo:
Lo scopo di questa tesi è valutare la resistenza a compressione e il valore del modulo elastico di tre laminati ottenuti con lo stesso materiale composito, CFRP, distinti in fase di laminazione dall’utilizzo di tre diverse tipologie di distaccante (peel-ply, film distaccante e controstampo). In questo modo è stato possibile valutare come quest’ultimi abbiano influito, in modo diverso per ogni laminato, sull’omogeneità dello spessore, sul peso, sulla fuoriuscita di resina e sulla percentuale volumetrica delle fibre. Tali fattori a loro volta hanno caratterizzato i valori di resistenza a compressione e modulo elastico. Nei capitoli successivi è descritto un metodo di analisi a compressione dei materiali compositi, a matrice epossidica rinforzata con fibre di carbonio (CFRP), denominato Combined Loading Compression (CLC) Test Method, basato sull’applicazione, combinata, del carico sul campione, a taglio e all’estremità. La realizzazione dei provini è stata effettuata presso i laboratori dell’università: sono stati realizzati 3 laminati, per ognuno dei quali si è scelto di utilizzare su ogni pezzo una diversa tipologia di distaccante: controstampo, film distaccante e peel-ply, allo scopo di valutare quanta resina uscirà dal manufatto una volta in autoclave e quanta variazione di spessore avremo. Da ognuno di questi laminati sono stati ricavati 5 provini. La campagna sperimentale è stata condotta presso il Laboratorio Tecnologie dei Materiali Faenza (TEMAF). L’elaborazione dei dati è stata effettuata mediante l’utilizzo del software Office Excel, in cui sono stati calcolati i parametri fondamentali, suggeriti dalla normativa ASTM D6641/D6641M, per la caratterizzazione meccanica a compressione dei materiali CFRP.
Resumo:
La tesi si concentra sull’infrastruttura di coordinazione TuCSoN on Android, realizzando il refactoring del servizio di geolocalizzazione platform-independent (lato infrastruttura) e platform-dependent (lato mobile device), nonché l’integrazione del modello event-driven con la proprietà di situatedness.