364 resultados para Scienza Nuova
Resumo:
L'informatica è al giorno d'oggi al centro di un incredibile sviluppo e tumulto innovativo; è la scienza che coniuga ogni sviluppo tecnologico, il quale inevitabilmente, d'ora in poi, verrà in qualche modo condizionato dalle innovazioni di tale disciplina. Fra gli innumerevoli nuovi trend che si sono affacciati prepotentemente negli ultimi anni sul panorama informatico, il paradigma per la programmazione ad agenti è uno dei più interessanti, in accordo con i recenti e prossimi sviluppi della tecnologia in generale. Questa tesi tratterà tale argomento partendo da un punto di vista generico ed introduttivo volutamente esaustivo, per poi concentrarsi su una specifica tecnologia implementativa, ovvero il linguaggio Jason, mostrandola infine nella pratica con la presentazione di un'applicazione nel capitolo tre.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.
Resumo:
OPERA è un esperimento installato ai Laboratori del Gran Sasso, lungo la linea del fascio di neutrini CNGS prodotto al CERN. Il suo scopo principale è osservare - per la prima volta in modo diretto - il fenomeno dell'oscillazione di neutrini muonici del CNGS, in neutrini-tau. L'esperimento è attualmente in fase di analisi dati. Accanto al canale di oscillazione dominante nu_mu--> nu_tau OPERA può studiare anche il canale nu_mu--> nu_e grazie all'ottima capacità di identificazione degli elettroni. OPERA utilizza un bersaglio attivo, finemente segmentato in moduli ("brick") costituiti da pile di fogli di emulsioni nucleare e lastre di piombo. Ogni "brick", il cui spessore è equivalente a 10 lunghezze di radiazione, è un rivelatore "stand-alone" attraverso il quale è possibile identificare e ricostruire gli sciami elettromagnetici e quindi le interazioni a corrente carica di neutrini elettronici. Il progetto di tesi si inquadra in questo contesto. Gli obiettivi specifici sono: - implementazione di una nuova procedura di trigger applicata per l'identificazione degli sciami elettromagnetici; - validazione della suddetta procedura sui dati simulati.
Resumo:
Nel 2020 verrà lanciata la missione spaziale Euclid per investigare la natura dell’energia oscura. Euclid otterrà un’immensa quantità di dati fotometrici e spettrometrici finalizzati, soprattutto, alla misura di lenti gravitazionali deboli e oscillazioni acustiche barioniche. In questa tesi daremo una descrizione generale dello strumento e della scienza che potrà essere fatta grazie ad esso. In particolare, nel capitolo 2 verrà fornita una introduzione alla cosmologia e verranno introdotti i vari parametri cosmologici che Euclid sarà in grado di vincolare. Nel capitolo 3 si farà un’analisi dei principali fenomeni fisici che Euclid indagherà. Nel capitolo 4 verrà data una panoramica del satellite, descrivendo in dettaglio gli obiettivi, cosa osserverà e come farà le osservazioni, e quali sono gli strumenti che lo compongono (satellite, telescopio, VIS e NISP). Infine, nel capitolo 5 verranno mostrati dei primi risultati preliminari, ottenuti in questa tesi, riguardanti il test di un programma che servirà per la misura della funzione di correlazione a due punti di Euclid.
Resumo:
La presente tesi di laurea tratta la valorizzazione degli scarti della lavorazione degli agrumi. Tutti i processi di trasformazione utilizzati nell’industria agrumaria danno origine a tre prodotti principali: succo, olio essenziale e pastazzo; il terzo, sottoprodotto a basso valore o scarto di lavorazione, è una biomassa vegetale costituita da scorze, detriti di polpa, semi e frutti di scarto. Questo lavoro si è concentrato su due aspetti fondamentali: lo studio dei possibili utilizzi del pastazzo di agrumi, che si può considerare una fonte di sostanze ad alto valore aggiunto, e la valorizzazione di tale sottoprodotto mediante digestione anaerobica per la produzione di biogas. La composizione chimica degli scarti della lavorazione degli agrumi offre ampie possibilità di utilizzazione: come alimento zootecnico, per la produzione di compost, per l’estrazione di pectina, fibre alimentari e oli essenziali, per il recupero di limonene e per produrre bioetanolo. Infine di recente il pastazzo è stato individuato come componente nella produzione di biogas, attraverso la digestione anaerobica; ciò risulta coerente con il quadro normativo riguardante gli incentivi per la produzione di biogas. E' stato analizzato un caso pratico, l’impianto di produzione di biogas alimentato a biomasse, situato in Sicilia, in contrada Nuova Scala a Mussomeli (CL); l’impianto ha una potenza di 999 KW ed è attivo dal 31 Dicembre 2012. In generale, affinchè si realizzi un corretto dimensionamento di un impianto di produzione di biogas, è necessario conoscere il potenziale metanigeno, che esprime la quantità di biogas metano massimo potenzialmente ottenibile da una biomassa, e la quantità di biomasse disponibili. In particolare, per l’impianto in questione, sono stati elaborati dati relativi alle analisi chimiche condotte sulle singole matrici in input all’impianto, sulla base delle quali è possibile dare un primo giudizio di fermentescibilità dei vari substrati e della rispettiva resa in biogas.
Resumo:
L’obiettivo di questa tesi è approfondire le competenze sulle funzionalità sviluppate nei sistemi SCADA/EMS presenti sul mercato, così da conoscerne le potenzialità offerte: tutte le conoscenze acquisite servono a progettare uno strumento di analisi dati flessibile e interattivo, con il quale è possibile svolgere analisi non proponibili con le altre soluzioni analizzate. La progettazione dello strumento di analisi dei dati è orientata a definire un modello multidimensionale per la rappresentazione delle informazioni: il percorso di progettazione richiede di individuare le informazioni d’interesse per l’utente, così da poterle reintrodurre in fase di progettazione della nuova base dati. L’infrastruttura finale di questa nuova funzionalità si concretizza in un data warehouse: tutte le informazioni di analisi sono memorizzare su una base dati diversa da quella di On.Energy, evitando di correlare le prestazione dei due diversi sottosistemi. L’utilizzo di un data warehouse pone le basi per realizzare analisi su lunghi periodi temporali: tutte le tipologie di interrogazione dati comprendono un enorme quantità d’informazioni, esattamente in linea con le caratteristiche delle interrogazioni OLAP
Resumo:
Tramite il presente lavoro di tesi si intende effettuare un’analisi specifica su sedimenti provenienti dalla Pialassa Piomboni, una Zona Umida di Interesse Comunitario dal delicato equilibrio ed in continua evoluzione, che fin dalla sua nascita ha sempre assunto un ruolo di importanza sia ecologico-naturale che socio-economica, vista la posizione che la pone a metà tra il Canale Candiano, il Porto di Ravenna, la zona industriale e il mare Adriatico. Oltre ad arricchire il database di dati, l’obiettivo principale dello studio è ottenere una nuova informazione per la valutazione dello stato di qualità dei sedimenti con un’indagine ancora più specifica: si analizza la distribuzione che i metalli pesanti assumono in relazione alle diverse frazioni e caratteristiche del materiale presente tramite estrazioni sequenziali, effettuate secondo la procedura ufficiale per l’analisi di questi tipi di suoli, recentemente approvata e standardizzata a livello europeo dalla BCR (European Community Bureau of Reference) e migliorata da esperimenti interlaboratorio (Rauret et al., 1999). Attraverso attacchi con reagenti sempre più forti, si valuta a quale frazione del sedimento (scambiabile, riducibile o ossidabile) i metalli risultino maggiormente associati, valutandone mobilità e disponibilità in relazione a cambiamenti di condizioni fisiche e chimiche in cui si trova il materiale, come il variare di pH e degli equilibri ossido-riduttivi. E’ stato inoltre elaborato un inquadramento dal punto di vista geochimico, considerando i livelli di concentrazione di fondo degli elementi già naturalmente presenti in zona. Le concentrazioni totali sono infine stati confrontati con il Manuale ICRAM (2007), che fornisce linee guida per la valutazione della qualità dei sedimenti e la loro movimentazione, per poterne ipotizzare l’eventuale destino, scelta spesso problematica nella gestione di sedimenti in ambito portuale. In sintesi, questo lavoro si inserisce all’interno di un ampio progetto di gestione, approfondendo la letteratura scientifica presente sui criteri di analisi di qualità dei sedimenti e sulle problematiche di diffusione, trasporto e destino finale dei contaminanti nell’ambiente, verificando l’applicazione della procedura analitica di estrazione sequenziale, metodologicamente complessa e soggetta a migliorie e modifiche, riconsiderata in tempi recenti per la sua efficacia e per i vantaggi che comporta grazie all’acquisizione di dati ad alto contenuto di informazione.
Resumo:
Studio della trasmissione del moto in teste birotative. Vengono analizzate le caratteristiche delle teste birotative in genere. Vengono imposti gli obiettivi per il progetto di una nuova testa birotativa, che verranno utilizzati per effettuare la scelta di una trasmissione di precisione. E' in seguito riportato un procedimento per la verifica dei servomotori e la definizione del rapporto di trasmissione del riduttore. Vengono infine avviate una fase di studio ed un approccio alla simulazione FEM per il riduttore scelto.
Resumo:
Uno dei maggiori obiettivi della ricerca nel campo degli acceleratori basati su interazione laser-plasma è la realizzazione di una sorgente compatta di raggi x impulsati al femtosecondo. L’interazione tra brevi impulsi laser e un plasma, a energie relativistiche, ha recentemente portato a una nuova generazione di sorgenti di raggi x con le proprietà desiderate. Queste sorgenti, basate sulla radiazione emessa da elettroni accelerati nel plasma, hanno in comune di essere compatte, produrre radiazione collimata, incoerente e impulsata al femtosecondo. In questa tesi vengono presentati alcuni metodi per ottenere raggi x da elettroni accelerati per interazione tra laser e plasma: la radiazione di betatrone da elettroni intrappolati e accelerati nel cosiddetto “bubble regime”, la radiazione di sincrotrone da elettroni posti in un ondulatore convenzionale con lunghezza dell’ordine dei metri e la radiazione ottenuta dal backscattering di Thomson. Vengono presentate: la fisica alla base di tali metodi, simulazioni numeriche e risultati sperimentali per ogni sorgente di raggi x. Infine, viene discussa una delle più promettenti applicazioni fornite dagli acceleratori basati su interazione tra laser e plasma: il Free-electron laser nello spettro dei raggi x, capace di fornire intensità 108-1010 volte più elevate rispetto alle altre sorgenti.
Resumo:
Il punto di partenza del presente lavoro di ricerca terminologica è stato il soggiorno formativo presso la Direzione generale della Traduzione (DGT) della Commissione Europea di Lussemburgo. Il progetto di tirocinio, ovvero l’aggiornamento e la revisione di schede IATE afferenti al dominio finanziario, e gli aspetti problematici riscontrati durante la compilazione di tali schede hanno portato alla definizione della presente tesi. Lo studio si prefigge di analizzare la ricezione della terminologia precipua della regolamentazione di Basilea 3, esaminando il fenomeno della variazione linguistica in corpora italiani e tedeschi. Nel primo capitolo si descrive brevemente l’esperienza di tirocinio svolto presso la DGT, si presenta la banca dati IATE, l’attività terminologica eseguita e si illustrano le considerazioni che hanno portato allo sviluppo del progetto di tesi. Nel secondo capitolo si approfondisce il dominio investigato, descrivendo a grandi linee la crisi finanziaria che ha portato alla redazione della nuova normativa di Basilea 3, e si presentano i punti fondamentali degli Accordi di Basilea 3. Il terzo capitolo offre una panoramica sulle caratteristiche del linguaggio economico-finanziario e sulle conseguenze della nuova regolamentazione dal punto di vista linguistico, sottolineando le peculiarità della terminologia analizzata. Nel quarto capitolo si descrivono la metodologia seguita e le risorse utilizzate per il progetto di tesi, ovvero corpora ad hoc in lingua italiana e tedesca per l’analisi dei termini e le relative schede terminologiche. Il quinto capitolo si concentra sul fenomeno della variazione linguistica, fornendo un quadro teorico dei diversi approcci alla terminologia, cui segue l’analisi dei corpora e il commento dei risultati ottenuti; si considerano quindi le riflessioni teoriche alla luce di quanto emerso dalla disamina dei corpora. Infine, nell'appendice sono riportate le schede terminologiche IATE compilate durante il periodo di tirocinio e le schede terminologiche redatte a seguito dell’analisi del presente elaborato.
Resumo:
Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.
Resumo:
Questa tesi è volta a fornire un contributo conoscitivo alla quantificazione delle interferenze idrogeologiche causate dalla nuova stazione sotterranea del nodo di penetrazione ferroviaria urbana AV di Firenze, situata nei pressi dell’attuale stazione di superficie di Santa Maria Novella, e della verifica del dimensionamento delle opere di mitigazione in progetto. La tesi è effettuata in collaborazione e con il supporto tecnico di ARPAT (Agenzia Regionale per la Protezione Ambientale della Toscana), Sede di Firenze, Direzione Tecnica – Settore VIA/VAS (Valutazione d’Impatto Ambientale/Valutazione Ambientale Strategica). ARPAT è l’organo di supporto tecnico dell’Osservatorio Ambientale costituito per l’opera. La tesi sfrutta, come dati di base, tutti quelli raccolti dai progettisti nelle varie fasi, compresa la determinazione dei parametri idraulici dell’acquifero, ed i dati del monitoraggio ambientale. Il proponente dell’opera è RFI (Rete Ferroviaria Italiana) ed è realizzata e progettata dal consorzio Nodavia (General Contractor). Per l’analisi dell’interferenza idrogeologica causata dal camerone della stazione dell’alta velocità di Firenze è stato utilizzato un duplice approccio: un modello fisico ricostruito in laboratorio; un modello numerico alla differenze finite tramite codice Modflow.. Il modello fisico di laboratorio ha cercato di ricostruire, semplificandolo, il modello concettuale del problema idrogeologico di studio: l’inserimento di una diga totalmente impermeabile, trasversalmente al flusso in un mezzo poroso, attraversata da dreni orizzontali di collegamento monte-valle idrologico. Tale configurazione, anche se non strettamente in scala, ha permesso di definire preliminarmente le condizioni al contorno del sistema ed ha guidato la successiva implementazione del modello numerico. Il modello numerico fa riferimento a condizioni stazionarie. Prima è stato implementato per simulare l’andamento della falda nelle condizioni stazionarie ante-operam (I fase); successivamente è stato utilizzato per simulare l’effetto diga del camerone (II fase) e, come terza fase, per simulare l’effetto delle opere di mitigazione dell’effetto diga rappresentate da dreni sub-orizzontali.
Resumo:
Obiettivo di questa tesi è cercare di mostrare come il mobile può diventare molto utile per le aziende sia a livello di guadagno sia a livello di comunicazione aziendale con i propri clienti. Il tema principale sviluppato nell'elaborato riguarda il Mobile Marketing e gli strumenti più proficui utilizzati da questa nuova tecnica di marketing, in particolar modo le App. In primo luogo viene trattato il tema del brand: importante mezzo comunicativo che dal primo momento intacca il pensiero del cliente e ne veicola le scelte di acquisto. Frutto di un'analisi ben più specifica è l'argomento del mobile marketing, le strategie migliori da adoperare per sfruttare al meglio i device portatili, i vantaggi maggiori che riceveranno le aziende che lo adotteranno e un piccolo accenno sui principali strumenti del mobile. Infine di svilupperà maggiormente l'argomento delle Applicazioni mobili e di quelle app brandizzate che hanno riscontrato maggior successo tra gli utenti.
Resumo:
Il rilascio di detriti d’usura metallici è una grave problematicità connessa ai sistemi protesici, e principalmente riguarda le protesi d’anca ad accoppiamento metallo su metallo in lega CoCr. La presenza di un livello di ioni Co nel siero che supera la soglia di tossicità è correlata a metallosi periprotesica eal fallimento del l’impianto. Recentemente è emersa un’altra casistica, presumibilmente connessa alla distribuzione e accumulo di questi ioni in tessuti di organi anche lontani dall’impianto, che si manifesta con una sintomatologia sistemica analoga a casi noti di avvelenamento da Cobalto. Nel contesto di questa nuova patologia sarebbe di grande interesse la possibilità di monitorare in-vivo la distribuzione del Cobalto rilasciato da protesi articolari, in organi o tessuti di pazienti che manifestano alti ivelli ionici di Co nel siero utilizzando metodiche non invasive come l’NMR. L’ipotesi sperimentale di applicabilità prende spunto dalle proprietà magnetiche che alcuni composti del Cobalto possono presentare nell’organismo. In questo lavoro sperimentale, nato dalla collaborazione tra il laboratorio NMR del DIFA dell’Università di Bologna e l’Istituto Ortopedico Rizzoli (IOR) di Bolgna, si presentano i risultati relativi allo studio di fattibilità condotto con diverse metodiche di rilassometria NMR su campioni biologici in presenza di Co. L’obiettivo riguarda la caratterizzazione delle proprietà di rilassamento con elettromagnete a temperatura ambiente e fisiologica, e la valutazione delle dinamiche molecolari dai profili NMRD ottenuti alle basse frequenze con metodica Fast Field Cycling, dei nuclei 1H di tali sistemi in presenza di Co.
Resumo:
La diffusione dei servizi cloud ha spinto anche il mondo degli IDE verso questa direzione. Recentemente si sta assistendo allo spostamento degli IDE da ambienti desktop ad ambienti Web. Questo è determinante per quanto riguarda gli aspetti legati alla collaborazione perchè permette di sfruttare tutti i vantaggi del cloud per dotare questi sistemi di chat, integrazione con i social network, strumenti di editing condiviso e molte altre funzionalità collaborative. Questi IDE sono detti browser-based in quanto i servizi che mettono a disposizione sono accessibili via Web tramite un browser. Ne esistono di diversi tipi e con caratteristiche molto diverse tra di loro. Alcuni sono semplici piattaforme sulle quali è possibile effettuare test di codice o utilizzare tutorial forniti per imparare nuovi linguaggi di programmazione; altri invece sono ambienti di sviluppo completi dotati delle più comuni funzionalità presenti in un IDE desktop, oltre a quelle specifiche legate al Web. Dallo studio di questi ambienti di sviluppo di nuova generazione è emerso che sono pochi quelli che dispongono di un sistema di collaborazione completo e che non tutti sfruttano le nuove tecnologie che il Web mette a disposizione. Per esempio, alcuni sono dotati di editor collaborativi, ma non offrono un servizio di chat ai collaboratori; altri mettono a disposizione una chat e il supporto per la scrittura simultanea di codice, ma non sono dotati di sistemi per la condivisione del display. Dopo l'analisi dei pregi e dei difetti della collaborazione fornita dagli strumenti presi in considerazione ho deciso di realizzare delle funzionalità collaborative inserendomi nel contesto di un IDE browser-based chiamato InDe RT sviluppato dall'azienda Pro Gamma SpA.